[뉴스비전e 김혜진 기자] 인공지능 시대가 눈앞에 다가왔다. 독일에선 자율주행 버스가 운행을 시작했고, 중국에선 인공지능 로봇이 국가 임상의사 종합시험에 합격하기도 했다.

하지만 이전에는 없던 새로운 문제도 생겨나고 있다. 자율주행차가 충돌 사고를 일으키고, 경비 로봇이 어린이를 공격하는가 하면 인공지능 스피커가 TV속 멘트를 인식해 물건을 주문하는 일이 벌어지기도 했다.

하지만 인공지능이 잘못된 결정으로 사고가 발생했을 경우, AI는 법인격이 없기 때문에 책임을 물을 수 없다. 그렇다면 제작자 · 판매자 · 사용자 중 누가 법적으로 책임을 져야 하는 것일까?

전세계 각국에서 법제화를 서두르고 있지만 과연 어떻게 책임을 분담해야 기술 혁신은 장려하면서 위험은 방지하는 균형을 맞출 수 있을까? AI 관련 법체계 구축에 대해 자세히 짚어본다. [편집자 주]

< 사진 / Robohub >

현행법으로는 생존한 인간(민법 제3조)과 법인(민법 제34조)만이 권리와 의무의 주체가 된다. 범죄 주체의 능력도 인간과 법인에게만 인정된다.

따라서 법인격 자체가 없는 인공지능이 행한 잘못은 법적으로 책임을 물을 수 없는 상태다.

< 로보틱스 규제 가이드라인 / robolaw.eu >

유럽의회는 지난해 2월 로봇이 초래한 손해의 보상 등을 다루기 위해 로봇에게 ‘전자 인간’이라는 새로운 법적 지위를 부여하기로 합의했지만, 아직 논란의 여지가 많다.

로봇 제조사에게 '책임 보험 가입'을 의무화 하는 이른바 '로봇세'에 대해선 기술 발전 저해 가능성 등을 이유로 도입하지 않았기 때문이다.

EU 'RoboLaw' 최종 보고서인 '로보틱스 규제 가이드라인(Guidelines on Regulating Robotics)'에는 "로봇은 민사상 또는 형사상 책임의 주체가 될 수 없다"라고 분석하고 있다.

 

◆ 입증책임 전환 등 보완 수단이 없는 한 '피해 원인 증명' 곤란

현행 민사책임을 묻기 위해선 완전·유효한 법률행위를 할 수 있는 지위 또는 자격과 함께 구체적인 행위에서 자신의 의무나 정상적으로 인식하거나 합리적으로 판단한 수 있는 사람이어야 한다. 

의사무능력자의 의사표시는 절대적 무효이다.

다시 말하면 불법인지 여부를 판단할 수 있는 능력이 있어야만 처벌이나 배상이 가능한 것이다. 최근 논란이 되고 있는 '만취자 형량 경감'이 바로 이러한 맥락에서 해석될 수 있는 것이다.

또한 일반적으로 우리 사회에서 어떤 행동에 대해 법적 책임을 묻기 위해선 결과와 그에 대한 과정을 설명해야 한다.

예를 들어, 어떤 사람이 회사 돈을 횡령했을 경우 검찰은 횡령 금액과 왜 횡령했는지를 조사하고 이를 상세히 법정에서 설명해 그 사람의 형량을 정하게 된다.

하지만 AI의 기계학습 알고리즘은 주어진 데이터를 분석해 이를 기반으로 판단하고 결정을 내리는데, 인공지능이 데이터를 학습해 얻는 결과는 수백만개의 실수값 형태로 나타나는 등 그 모델과 연산이 복잡해 사람이 규정하기가 사실상 불가능하다.

아울러 동작 알고리즘 자체가 기업의 재산이므로 특허로 등록되지 않은 이상 알 수가 없는 상황이다. 일부 기업의 경우, 공개를 피하기 위해 일부러 특허로 출원하지 않고 있다.

따라서 인공지능의 민사상 법인격 부여 문제는 사고 처리뿐만 아니라 인공지능의 재산 소유여부, 파산 처리 가능성 등 다양한 법적 · 경제적 이해 관계에 큰 영향을 미치므로 신중하고 다각적인 검토가 필요한 상황이다.

미국, 유럽, 일본 등에서 인공지능으로 인하여 발생하는 프라이버시, 일자리, 양극화, 데이터 권력화, 규제 문제 등에 대한 연구가 진행되고 있다.

관련기사

저작권자 © 뉴스비전e 무단전재 및 재배포 금지