[뉴스비전e 김혜진 기자] 인공지능 시대가 눈앞에 다가왔다. 독일에선 자율주행 버스가 운행을 시작했고, 중국에선 인공지능 로봇이 국가 임상의사 종합시험에 합격하기도 했다.

하지만 이전에는 없던 새로운 문제도 생겨나고 있다. 자율주행차가 충돌 사고를 일으키고, 경비 로봇이 어린이를 공격하는가 하면 인공지능 스피커가 TV속 멘트를 인식해 물건을 주문하는 일이 벌어지기도 했다.

하지만 인공지능이 잘못된 결정으로 사고가 발생했을 경우, AI는 법인격이 없기 때문에 책임을 물을 수 없다. 그렇다면 제작자 · 판매자 · 사용자 중 누가 법적으로 책임을 져야 하는 것일까?

전세계 각국에서 법제화를 서두르고 있지만 과연 어떻게 책임을 분담해야 기술 혁신은 장려하면서 위험은 방지하는 균형을 맞출 수 있을까? AI 관련 법체계 구축에 대해 자세히 짚어본다. [편집자 주]

< AI / Techcrunch >

[③ 인공지능 보상 관련 '책임법제' 도입 논의 - 글로벌 기준 마련해야]

인공지능 기술이 상용화되기 시작함에 따라 이로 인해 발생 가능한 책임법제 문제 쟁점 파악이 필요한 시점이다.

현재 시행되고 있는 법에서 규정하지 못하는 부분에 대한 논의와 함께 AI의 결정으로 인한 피해를 보상하는 주체를 결정하는 일 또한 쉽게 결론내릴 수 있는 문제는 아니다.

각 산업별 특성과 현존하는 우리 사회 규범, 이해관계자 간의 입장 등 다양한 면을 고려해야 하기 때문이다.

최근 상용 제품이 출시됐으며 급속히 성장하고 있는 자율주행차, 의료, 비서 등을 분야별로 살펴본다.

◆ 자율주행차

국제 자동차 기술자 협회(SAE International)는 자율주행단계를 크게 6단계로 구분하고 있는데, 현재 세계 자율주행차 산업은 2단계에서 3단계 사이라고 분석하고 있다.

보스턴컨설팅그룹은 2035년 전세계 신차 시장의 4대 중 1대는 자율주행차일 것으로 전망하고 있다.

3단계 이상 자율주행차 보급 시 운전 주체가 변화됨에 따라, 운행자 또는 운전자가 주로 책임지는 현행법에선 일부 책임주체 상실, 부담 편중 등의 문제가 발생될 것으로 예상되고 있다.

운전의 주도권이 운전자로부터 자동차로 이전됨에 따라 제조업자에게도 사고에 대한 책임을 더 부과하는 형태로 변화 중이다.

현재까지의 사고는 주로 제조업자가 보상, 리콜 등으로 처리하고 있지만, 지난 2016년 발생한 테슬라 사건에서 볼 수 있듯이 자율자행차로 인한 사망사고 발생시 제조업자에게 책임을 묻기는 쉽지 않은 상황이다.

이에 따라 각국은 제조업자에게 일부 책임을 부담시키거나 새로운 보험을 만드는 등 관련 입법안을 마련 중이다.

미국은 시스템 결함으로 인한 사고 시 자동차 제조사가 손해배상을 부담한다는 법안을 2016년말 미시간주에서 처음으로 통과시켰다.

영국 정부는 수동 운행 사고와 자율주행 운행 사고를 모두 보상하는 단일보험자 방식으로 전환하는 법률안 'Vehicle Technology and Aviation Bill'을 발표하고 의회에 상정했다.

이 법률안은 자율주행 운행 사고 시 보험사가 제3자․운전자의 인적 손해, 제3자의 물적 손해를 보상하고 사고의 귀책사유가 제조사, S/W 공급자 등에게 있는 경우 이들에게 구상권을 행사해 회수할 수 있도록 하고 있다.

일본 정부는 ‘자율운전 손해배상책임 연구회'를 구성해 4단계 이상의 자율주행차 사고의 손해배상 책임 부담을 논의하고 있으며, 보험회사는 자율주행차 실험 실증용 상품 등을 개발 중이다.

이처럼 자율주행차 기술개발과 함께 앞으로 제조업자와 서비스 사업자, 통신 사업자, 부품사 간의 책임소재 분쟁이 치열해질 전망이다.

◆ 의료

미국의 시장 조사기관인 프로스트 앤 설리반(Frost & Sullivan)에 따르면 의료 분야 인공지능 시장 규모는 2014년 6.4억 달러에서 2021년엔 6조 달러로, 연평균 40%씩 성장할 것으로 전망되고 있다.

의료 관련 인공지능은 아직 의사 보조 역할을 수행하는 정도로 최종적인 책임은 의료인에게 부과 중인데, 주요국들도 책임 분배보다 인공지능 의료기기 활성화를 위한 규제 개편 주제를 중심으로 논의를 펼치고 있다.

의사가 주의 의무를 위반해 환자에게 손해를 입힌 경우 민 · 형사 상 책임을 부담하는데, 주의의무 위반 여부 판단 시 인공지능 진단 사용 여부, 인공지능 진단 결과 준수 여부 등이 반영될 수 있다.

하지만, 인공지능 진단 결과를 주의 의무 판단 기준으로 사용하는 경우엔 인공지능 진단과 다른 시술을 한 의사의 입증 부담이 늘어나면서 재량권이 축소되고 인공지능 의존 현상이 높아질 수도 있다는 점에서 신중한 판단이 필요하다.

의사는 환자에게 질병의 증상, 치료방법의 내용 및 필요성, 발생 예상 위험 등을 설명할 의무가 부과되는데, 인공지능 기술을 사용 시 기술의 동작 방식, 불확실성 등에 대한 설명도 강화될 것으로 예상되나 그 판단 기준이 불분명한 상태다.

동작 불확실성, 설명 불가능성, 알고리즘 불투명성 등 인공지능 기술 특성상 명시적이고 유효한 설명이 어려워 이에 대한 기준 마련이 필요하다.

◆ 인공지능 비서

글로벌 IT 기업들은 주문 시스템 등 인공지능 비서를 통한 다양한 수익 창출이 가능할 것으로 판단하고 시장에 앞다투어 진출하고 있다.

캐나다 RBC 증권은 1위를 선점하고 있는 아마존의 알렉사가 2020년까지 아마존에게 100억 달러의 수익을 가져다 줄 것으로 전망하기도 했다.

미국의 시장조사 컨설팅 기업인 마켓 앤 마켓츠(Market and Markets)는 오는 2024년 인공지능 가상 비서 시장의 규모가 110억 달러를 넘어설 것으로 분석하고 있다.

그러나, 물건 주문 등 인공지능 비서를 통한 계약 체결이 증가함에 따라 타인의 음성을 이용자의 음성으로 착각하여 주문하거나 이용자의 주문 내용을 잘못 인식하는 '주문오류'나 특정 회사에게 유리한 물건을 주문하는 '불공정 거래행위'나 '담합' 등이 발생할 가능성도 높아지고 있다.

주문 오류의 경우, 사용자가 인공지능 비서의 추가 제어기능을 설정하지 않은 경우 이용자에게도 과실이 있다고 보아 주문 취소가 어려울 수 있다.

아울러 원치 않은 주문으로 인한 손해에 대해 인공지능 비서 제조업자에게 손해배상을 청구하는 경우에도 인공지능 오류와 손해의 인과관계 입증이 쉽지 않다.

제조물책임법 적용 시 입증책임이 전환되나 소프트웨어를 민법상 '동산'으로 보아 제조물책임법을 적용할 수 있는지에 대한 논란이 일어날 수도 있다.

< 인공지능 / InforTech >

이처럼 인공지능 기술의 발전은 우리 사회 전반에 많은 변화를 가져옴과 동시에 법제도 면에서도 획기적인 발상이 전환을 요구하고 있다.

최승우 한국법제연구원 책임연구원은 "인공지능이 자동화된 알고리즘의 의사 결정 주체의 등장하면서 기존 법체계에 중요한 도전이 제기되고 있다"면서 "AI 기술의 불확실성 및 불투명성 속에서도 불공정 거래행위 여부를 판단할 수 있도록 인공지능 알고리즘 감사제도 도입, 입증책임 전환 등을 검토할 필요있다"고 설명했다.

저작권자 © 뉴스비전e 무단전재 및 재배포 금지