육아 로봇이 아이 떨어뜨리면 누구 책임일까?

2017년 07월 09일 18:00

사이언스 제공
사이언스 제공

[표지로 읽는 과학_사이언스]

 

인공지능(AI)으로 상황을 판단하고 통제하는 육아 로봇이 아이를 돌보다 떨어뜨려 다치게 했다면 누구에게 책임을 물어야 할까. AI 로봇 팔로 집도한 수술에서 의료사고가 난다면 환자와 가족은 누구에게 책임을 묻는 소송을 제기해야 할까.

 

AI의 발달과 함께 발생할 것으로 예상되는 사회적 문제들이 우리 사회를 걱정에 휩싸이게 하고 있다. 이번 주 ‘사이언스’엔 자율주행, 가상현실(VR) 등 AI가 접목된 분야에서 발생할 수 있는 새로운 문제점들에 대해 제시하는 편집후기(Editorial)가 실렸다.

 

미국의 공상과학(SF) 작가이자 과학자인 아이작 아시모프는 그의 소설에서 로봇이 인간을 지배하게 될 상황에 대해 우려하며 ‘로봇공학의 3원칙’을 제시했다. 로봇은 인간에게 해를 끼쳐서는 안 되며 위험에 처해있는 인간을 방관해서도 안 된다는 1원칙, 1원칙에 위배되지 않는 경우 로봇은 인간의 명령에 반드시 복종해야만 한다는 2원칙. 그리고 마지막 3원칙은 1,2원칙에 위배되지 않는 경우 로봇은 자기 자신을 보호해야만 한다는 것이다.

 

아시모프의 지적처럼 AI가 사람을 뛰어넘는 ‘초지능(superintelligence)’을 갖춰 인간을 위협할 것이란 걱정은 AI의 탄생부터 늘 함께해왔다. 인간을 편리하게 만들기 위한 도구로만 여겨지던 AI가 지나치게 발전해 인간의 통제 범위 밖으로 나가지 않을까 하는 우려다. 50여 년간의 연구를 통해 AI는 딥러닝 등 스스로 학습하는 능력까지 갖췄다. 이와 함께 최근 제시되는 문제들은 조금 더 현실적이다.

 

의사를 대신해 환자들의 질환을 평가하는 AI의사, 범죄에 대한 판결을 내리는 AI판사, 어떤 분야에 금전적 투자를 할지 결정을 해주는 AI금융설계사 등 인공지능의 영역이 확장하고 있는 상황에서 인공지능의 평가 오류 발생으로 인해 정확하지 않은 판단이 내려질 가능성을 걱정하는 것이다.

 

자동화된 시스템이 인간이 이해하기 어려운 추론을 거쳐 결론을 내려 법적 윤리적 문제를 일으키진 않을지. 또, 해커 AI를 통해 특별한 목적을 가진 이익집단이 의사결정에 개입하진 않을지. 일자리 상실, 부의 불균형 등이 새로운 문제로 대두되고 있다.

 

편집후기를 통해 에릭 호르비츠 마이크로소프트 기술자는 “그나마 좋은 소식은 AI의 건전한 발전을 위해 다양한 학과, 산업계 그리고 시민단체가 힘을 모아 AI 시대를 대비하기 위한 의견을 내고 있다는 것”이라고 밝혔다.

 

메일로 더 많은 기사를 받아보세요!

관련기사

인기기사

댓글

댓글쓰기

지금
이기사
관련 태그 뉴스