[뉴스비전e 김혜진 기자] 인공지능 시대가 눈앞에 다가왔다. 독일에선 자율주행 버스가 운행을 시작했고, 중국에선 인공지능 로봇이 국가 임상의사 종합시험에 합격하기도 했다.

하지만 이전에는 없던 새로운 문제도 생겨나고 있다. 자율주행차가 충돌 사고를 일으키고, 경비 로봇이 어린이를 공격하는가 하면 인공지능 스피커가 TV속 멘트를 인식해 물건을 주문하는 일이 벌어지기도 했다.

하지만 인공지능이 잘못된 결정으로 사고가 발생했을 경우, AI는 법인격이 없기 때문에 책임을 물을 수 없다. 그렇다면 제작자 · 판매자 · 사용자 중 누가 법적으로 책임을 져야 하는 것일까?

전세계 각국에서 법제화를 서두르고 있지만 과연 어떻게 책임을 분담해야 기술 혁신은 장려하면서 위험은 방지하는 균형을 맞출 수 있을까? AI 관련 법체계 구축에 대해 자세히 짚어본다. [편집자 주]

 

[④ AI 책임법제 설계 위한 범국가적 연구 필요 ]

< AI 법적책임 공방 / WatersTechnology >

인공지능 기술 적용이 확대되는 가운데 필연적 사고에 대한 최소한의 안전장치인 법적 규범 마련은 필수적이라 할 수 있다.

한국법학회는 최근 간행물에서 "인간이 아닌 주체에 의해 손해가 발생하였다는 이유로 피해자의 손해 보상이 제한된다면 관련 연구개발과 기술 확산이 저해될 수 있으므로 인공지능 기술 관련 책임법제 연구와 설계 시급하다"고 설명했다.

선제적 대응을 통해 인공지능 시장 창출에 기여하고, 사회적 합의를 통해 올바른 기술을 구현하도록 하는 방향 설정으로 인공지능 연구개발 역량을 효율적으로 배분해야 한다는 것이다.

따라서 "인공지능이 등장하면서 변화하는 법률관계 속의 쟁점을 발굴하고, 이에 대한 대안 및 재설계 방안을 연구가 지속적으로 추진되야 한다"고 강조했다.

◆ 법무 · 기술 · 정책 · 의료 등 다양한 분야 전문가들의 연구 체계 구축

<사진 / CNBC>

법조계와 산업계 관계자들은 "먼저 인공지능이 행정 · 경영 · 사법 등 다양한 최종 결정에 영향을 끼치므로 각 분야 전문가들이 모여 다각적으로 논의할 수 있는 장을 마련되어야 한다"고 입을 모으고 있다.

혁신 장려와 위험 규제 사이에서 균형을 찾는 책임 분배를 위해서는 기술 이해가 바탕이 되어야 하므로 관련 의사 결정에 과학기술 전문가가 반드시 참여한다는 지적이다.

특히, 책임성 확보를 위한 설명 가능성 · 정확성 · 검증 가능성 · 공정성 등 검토에 있어 과학기술 전문 지식과 법적 지식이 필수적이기 때문이다.

아울러 "책임법제 설계 과정에서 국민 참여를 이끌어 내야 한다"고 강조하고 있다.

국민의 공감대와 동떨어진 책임 분담 기준은 인공지능 기술에 대한 신뢰를 저해시킬 수 있다.

따라서 책임법제 설계 과정 속에 국민의 의견을 듣고 반영할 수 있는 시스템을 구축함으로써 새로운 책임 분담 및 판단 기준에 대한 공감대를 형성해야 한다는 것이다.

아울러, 인공지능 기술 분야별 연구 우선순위도 정립도 필요하다는 의견이다.

자율주행차 등 급속히 성장하고 있는 기술에 대한 법제 설계가 늦어질 경우 표준 선점이 어려워지므로 연구별 우선순위를 수립함으로써 연구의 효용성을 증대해야 한다는 것이다.

이를 위해서 인공지능 기술 분야별 책임법제 쟁점 진단과 함께 각 쟁점별 중요도 분석 및 연구 수립이 필요 시책임법제 쟁점 진단과 각 쟁점에 대한 시급성 분석 및 연구 방향이 수립되야 할 시정이다.

또한 과도기적 상황에서의 충격을 완화할 수 있는 임시 보험제도, 기금제도 등에 대한 시급한 검토로 필요하다.

 

◆ 국민 공감대 형성 · 국제적 논의 과정 참여 필요

< AI 법적 책임 / ansa.it >

아울러 인공지능 관련 규범 제정을 위해 펼쳐지고 있는 전세계 각국의 동향을 면밀히 파악하고, 이에 대한 토론회나 세미나 등에 적극적으로 참여해야 한다는 의견도 제시되고 있다.

임소은 한국형사정책연구원 수석연구원은 "새로운 국제 규범 형성 과정에 주도적으로 참여해 국제 표준에서의 입지 확보 및 주요 시장에서 상호 운용 가능한 기술개발 추진 방향 수립해야 한다"고 설명했다.

책임 분배 기준은 사후 손해 보상뿐만 아니라 표준 등의 기술 설계 과정에도 큰 영향을 끼치므로, 국제적 책임법제 논의 흐름에 맞지 않는 기술은 고립된다는 지적이다.

특히 "전략적인 책임법제 재편을 위해 주요국의 책임법제 변화를 지속적으로 파악하고 국제적
규범 형성 과정에 적극적으로 참여하는 체계를 수립해야 할 것"이라고 강조했다.

인공지능 시대를 맞이하는 우리 앞에는 수많은 책임법제 쟁점들이 놓여 있다.  

인공지능 시대의 책임법제 프레임워크를 발빠르게 마련하고 있는 미국, 유럽 등과 달리 우리나라는 일부 주제만 파편적으로 연구할 뿐 범국가적 연구 체계를 갖추지 않고 있다.

한국법제연구원 관계자는 뉴스비전e와의 통화에서 "우리나라는 AI에 있어 기술적인 측면에선 선진국과의 격차를 상당히 줄이고 있지만, 관련 법제도 마련에 있어선 너무나 뒤쳐져 있다"며 "정부가 주도적으로 관련 기관과 학계 의견을 한 데 모을 수 있는 TF를 구성해야 한다"고 강조했다.

저작권자 © 뉴스비전e 무단전재 및 재배포 금지