[AI기술 발전 허용은 어디까지?①] '킬러로봇'은 넘지 말아야 할 선 VS 새로운 기준 창조는 '기우'

2017-09-07     장연우 기자

[뉴스비전e 장연우 기자] 인공지능의 기술 진화는 어디까지 허용해야 할까. 스스로 학습하는 머신러닝에 기반한 로봇은 인간의 노동력을 대신할 수 있다는 긍정적인 측면과 함께 킬러로봇 의 개발 논란 및 오류에 의한 추산이 불가능할 정도의 피해 등 두려움까지 나고 있다. 

핵전쟁을 일으켜 인류를 멸망시키려는 인공지능과의 대결을 그린 미국 영화 '터미네이터'

이 터미네이터의 주인공 아놀드 슈워제네거가 맡은 배역은 'T-800'이라는 사이보그 로봇이다.

T-800은 1편에선 주인공을 죽이려는 킬러 로봇으로 나오지만, 그 후엔 오히려 주인공을 보호하는 착한 편으로 나온다.

프로그래밍에 따라 선 · 악의 경계를 넘나들 수 있는 것이 로봇이라는 것을 인지하게 해주는 대목이다.  영화에서 접했던 '킬러로봇'이 현실화를 놓고 논쟁이 일고 있다. 스스로 학습하는 머신러닝 등 AI 기술 진화로 기인했다. 

 

◆킬러로봇의 현황은?

<사진 / 보스톤다이너믹스 홈페이지>

최근 AI기술이 급속도로 발전되면서 군사 분야에서 로봇 스스로 적군을 파악하고 공격할지를 판단하는 인공지능 킬러로봇이 빠르게 개발되고 있다.

킬러로봇(Killer Robot)이란 일반적인 무기와 달리 AI기술을 활용해 목표물을 추적 · 공격할 수 있는 공격용 전투 로봇을 일컫는 말이다.

특히 사람의 개입 없이 스스로 판단해 공격할 수 있다면 킬러로봇으로 분류하고 있다.

러시아 무기 제조사 칼라시니코프의 ‘우란-9(Uran-9)’, 영국의 무인전투기 ‘타라니스(Taranis)’, 미국 노스톱 그루먼(Northrop Grumman)의 무인전투기 ‘X-47B’, 그리고 한국 삼성테크윈의‘SGR-A1 센트리 건’ 등이 자동화된 킬러 로봇의 일종으로 알려져 있다.

< 러시아 무인 전투차량 Uran-9 / Army guide.com >

하지만 스스로 공격 여부를 결정할 수 있다는 점에서 많은 윤리적인 문제가 발생할 수 있다는 우려의 목소리가 높아지고 있다.

 

◆비윤리적이다 VS 아직 판단은 '기우'

지난 8월 세계 26개국 IT·로봇 전문가 116명은 8월 20일 유엔에 공동서한을 보내 ‘킬러 로봇' 개발 금지를 촉구했다.

인공지능을 활용한 킬러로봇을 생화학무기와 같은 ‘비윤리적 무기(morally wrong weapons)’로 규정해 연구개발 단계부터 철저한 규제가 이뤄지도록 해야 한다는 내용을 담고 있는 공동서한에는 테슬라 최고경영자 엘론 머스크 (Elon Musk) 와 구글 딥마인드 테크놀로지의 무스타파 술래이먼도 동참했다.

영국 언론 인디펜던트와 가디언 등도 자동화된 킬러 로봇이 전쟁에 사용될 경우 ‘제3세대 전쟁’으로 발전하고 ‘제3의 무기혁명'을 가속화할 것이라며 이로 인한 인류의 피해가 엄청날 수밖에 없다고 주장하고 있다.

< 미국 AI 무인전투기 X-47B / military.com >

물론 이러한 우려는 기우라며 반대하는 의견도 있다.

미래 파괴적인 인공지능은 먼 미래의 일이며 AI가 새로운 규칙을 창조할 정도로 충분히 지능적이지 않기 때문에 신기술의 부정적 혹은 긍정적 측면을 일방적으로 강조하는 것은 부적절하다는 것이다.

양측 의견 모두 설득력이 있다. 무엇보다 가장 중요한 건 모든 기술은 인류의 발전을 위해 사용되어야 한다는 것이다.

4차 산업혁명시대를 맞아 각종 기술의 발전 속도로 놀라울 정도로 빨라지고 있는 만큼 인공지능에 대한 과대평가나 과소평가 대신, 새로운 기술의 발전방향 및 영향력에 대한 사회적 토론과  제도적 개입 확대를 위한 논의가 필요한 시점이다.