< 심현도 코윈스 대표 >

인공지능 기술의 개발과 활용범위가 급속도로 확대되면서 이젠 AI가 온라인게임 상의 불링(bullying, 따돌림 · 희롱)도 막아주는 시대가 올 것 같다.

미국 스타트업 기업 스피릿(Spirit)사는 온라인 게임의 따돌림과 희롱 문제를 해결할 수 있는 AI 감정봇(sensitive bot)을 선보였다.

'앨리(Ally)'는 사람들의 말하기 외 행동까지 모니터링해 언어적 괴롭힘뿐만 아니라 비언어적 괴롭힘 (상대방에 대한 스토킹 및 괴롭힘, 고발도구 무력화 등)도 찾아낼 수 있다.

괴롭힘은 피해자의 주관적 경험에 따라 달라지므로 개별 키워드 분석에만 의존하지 않고 자연어 분류기법을 활용해 상호작용 유형을 관찰해야 한다.

게임에서 상대방의 이름을 부르는 것이라도 ‘친구 사이인지 모르는 사이인지’에 따라 그 의미가 달라진다.

< 스피릿사 AI 앨리 >

'앨리'는 이용자에게 상대방의 가해 행위가 수용할 수 있는 수준인지 확인하는 절차를 거치는 시스템 운영으로 ‘안전 영역’ 내에 포함되는 언어 · 상황 · 활동 등을 학습한다.

“나는 당신과 유저177이 서로 모르는 관계인 것으로 알고 있으며 그들이 너에게 부적절한 말을 한 것 같은데, 괜찮은지 확인하고 싶다” 와 같은 물음으로 이용자의 의견을 확인하는 것이다.

만약 상호작용이 친구 간 농담으로 확인되면 시스템은 이를 저장소에 기억해뒀다가 나중에 유사한 현상 발생 시 반응하지 않지만, 이용자가 학대받았다고 느낀다면 시스템은 이를 ‘문제 유발자’로 판단하고 개입하는 것이다.

하지만 일각에선 게임 속에서 이용자 간의 감정 교류와 표현은 감정과 공감을 수반하기 때문에 아직 AI가 모든 커뮤니케이션 의미와 행위를 이해하기에는 한계가 있다는 비판도 제기되고 있다.

스피릿사는 "궁극적인 목적이 정찰 활동이 아니라 긍정적인 상호작용 및 건강한 공동체 건설"이라며 "부정적인 행동을 막는 것뿐만 아니라 긍정적이고 친사회적 행동을 조성하는데 활용될 수 있다"고 설명하고 있다.

'앨리'의 모든 활동이 원하는 성과를 내기 위해서는 게임 이용자들의 이해와 공감이 선결되어야 한다. 이는 AI의 몫이 아니라 사람의 몫일 것이다.

저작권자 © 뉴스비전e 무단전재 및 재배포 금지