[뉴스비전e 김혜진 기자] 인공지능 시대가 눈앞에 다가왔다. 독일에선 자율주행 버스가 운행을 시작했고, 중국에선 인공지능 로봇이 국가 임상의사 종합시험에 합격하기도 했다.

하지만 이전에는 없던 새로운 문제도 생겨나고 있다. 자율주행차가 충돌 사고를 일으키고, 경비 로봇이 어린이를 공격하는가 하면 인공지능 스피커가 TV속 멘트를 인식해 물건을 주문하는 일이 벌어지기도 했다.

하지만 인공지능이 잘못된 결정으로 사고가 발생했을 경우, AI는 법인격이 없기 때문에 책임을 물을 수 없다. 그렇다면 제작자 · 판매자 · 사용자 중 누가 법적으로 책임을 져야 하는 것일까?

전세계 각국에서 법제화를 서두르고 있지만 과연 어떻게 책임을 분담해야 기술 혁신은 장려하면서 위험은 방지하는 균형을 맞출 수 있을까? AI 관련 법체계 구축에 대해 자세히 짚어본다. [편집자 주]

< AI 법적 책임 공방 / Robohub >

[② 美 · EU, 인공지능 관련 '법 규범' 수립 추진 ]

유럽과 미국 등 주요국 정부와 기업들은 인공지능 시대를 대비한 새로운 규범 체계를 준비하고 있다. 인공지능 시대의 책임법제 프레임워크를 마련하고 있는 발빠르게 움직이고 있는 것이다.

◆ EU 'RoboLaw 프로젝트’ AI 법적 · 윤리적 이슈 검토

EU는 그동안 독일 · 영국 · 이탈리아 · 네델란드 등 4개국의 공학 · 법률 · 철학 전문가들이 대거 참여한 'RoboLaw 프로젝트’를 통해 인공지능 로봇기술의 법적 · 윤리적 이슈를 검토해 왔다.

자율주행차, 수술로봇, 로봇인공기관, 돌봄로봇 등 상용화에 가까운 기술 사례에 대한 구체적인 윤리적 · 법률적 분석을 통해 로봇 관련 규범 체계의 근거 마련한 것이다.

유럽의회는 지난해 2월 법사위원회가 마련한 로봇 관련 결의안을 통과시키고 로봇에게 ‘전자인간’ 지위를 부여하는 등 새로운 법적제도의 필요성을 인정했다. 

하지만 로봇 제조사에게 '책임 보험 가입'을 의무화 하는 이른바 '로봇세'에 대해선 기술 발전을 저해할 수 있다는 이유로 도입하지 않았다.

◆ 미국 '인공지능 소위원회' 신설, AI 정책 방향 연구

< 미국 AI 국가전략 / NIST >

미국은 법제적 대응의 필요성을 인식하지만, 법제도를 먼저 만들기 보다는 전반적인 정책 방향성을 제시하는 연구와 함께 모니터링을 진행 중이다. 

인공지능 이슈들을 다루기 위해 국가과학기술위원회(NSTC) 산하에 ‘기계학습 인공지능 소위원회'를 신설하고, 다양한 연구 기관과 정부 산하조직을 모두 아우르는 워킹 그룹을 구성해 전략 계획을 수립하고 있다.

인공지능 소위에는 국립과학재단(NSF), 고등정보연구계획국(IARPA) 등의 연구 개발 지원 조직뿐만 아니라, 의료, 법무,에너지, 우주 항공, 표준, 기술정책, 국방, 안보와 보안 전문가들이 참여하고 있다.

◆ 글로벌 대학 · 기업, AI가 사회에 미치는 영향 연구 중 

구글, 페이스북 등 기업과 스탠포드, 옥스퍼드 대학교 등 대학으로 구성된 다양한 단체에서 인공지능이 사회에 미치는 영향을 연구 중이다.

스탠포트대학교는 AI가 자동차, 국가 안보, 심리, 윤리, 법, 사생활, 민주주의 등에 미치는 영향에 대한 연구와 함께 관련 법제를 준비 중이다.

옥스포드대학교는 인공지능으로 인한 인류의 다양한 실존적 위험들에 대한 연구를 진행 중이다.  

페이스북과 IBM, 아마존, 마이크로소프트 등 기업들은 AI 관련 연구과제와 사례를 발굴해 연구결과를 오픈 라이선스로 출판할 예정이다.

구글은 인공지능 기술 악용 방지를 위한 기술 사용 규칙 및 제한 설정 등을 연구하고 있다.

◆ 한국, 범국가적 연구 체계 미비

우리나라는 기술 개발 측면에만 집중하고 있으며 인공지능이 가져오는 사회 변화에 대한 연구는 부족한 상황이다.

법무부는 지난해 8월 ‘지능형 로봇기술의 상용화와 형사사법적 대응’ 연구를 시작했다.

하지만 기술, 법무, 정책 등 다양한 전문가 주체가 참여하는 연구는 부재한 실정이어서 범국가적 인프라 구축이 시급한 상황이다. 

저작권자 © 뉴스비전e 무단전재 및 재배포 금지