최신 과학 지식을 접하는
가장 똑똑한 방법!

美 싱크탱크 보고서, "2040년까지 AI로 인해 핵전쟁 가능성 있다"

2018년 04월 26일 14:04

인공지능(AI)이 핵전쟁을 일으킬 수 있다는 경고가 잇달아 제기되고 있다. AI가 인간이 의도하지 않은 “재앙적 결정(catastrophic decisions)”을 내릴 가능성이 있다는 것이다.

 

 25일(현지시간) CNBC뉴스 보도에 따르면 미국 비영리 싱크탱크인 랜드코퍼레이션은 최근 보고서를 통해 AI가 2040년까지 핵전쟁을 촉발할 수 있다고 분석했다. 보고서는 AI가 지정학적 안정을 무너뜨리고 전쟁 억지 수단이라는 핵무기의 위상을 흔들 수 있다고 경고했다. 

 

 보고서는 핵 전쟁이 발발할 경우 ‘상호확증파괴(mutual assured destruction)’를 초래한다는 공포 때문에 지난 수십 년 동안 핵무기는 오히려 전쟁 억지 수단의 역할을 해 왔다고 분석했다.

 

이미지 확대하기 해당 리포트 표지 - nonprofit Rand Corporation 제공
해당 리포트 표지 - nonprofit Rand Corporation 제공

여러 차례 전문가 워크숍을 거쳐 작성된 이 보고서는 그러나 AI 및 머신러닝(기계학습)이 핵무기의 이런 전쟁 억지 역할 기반을 무너트릴 수 있다고 우려했다. 예컨대 센서 기능 발달로 AI가 잠수함이나 이동식 미사일 같은 보복용 무기를 파괴하는 결정을 내리도록 인간을 유도할 수 있다는 것이다. 

 

 보고서는 특히 드론이나 살상용 로봇보다 AI를 활용해 군사행동을 결정하는 게 더 위험하다고 분석했다. 보고서는 또 AI가 국가간 협상에 있어서 유리한 위치를 차지하기 위해 선제공격을 결정할 가능성도 있다고 우려했다. 

 

 보고서 공동 저자인 앤드류 론 랜드코퍼레이션 엔지니어는 “일부 전문가들은 AI 의존도가 높아지면서 새로운 형태의 재앙적 실수 가능성이 커졌다고 우려하고 있다"고 경고했다. 

 

이미지 확대하기앤드류 론 랜드코퍼레이션 엔지니어 - https://www.rand.org 제공
앤드류 론 랜드코퍼레이션 엔지니어 - https://www.rand.org 제공

 

 그는 "또한 AI가 적대적 움직임에 민감한 반응을 보일 수 있다. 전략적 안정을 유지하는 게 극도로 어려워질 수 있다. 모든 핵 보유국들이 핵전쟁 위험을 제한하는 기구를 만드는 데 동참해야 한다”라고 조언했다.

 

 보고서는 냉전시절 옛 소련군 컴퓨터의 오판으로 미국과 소련 간 핵전쟁이 발발할 뻔 했던 사례를 들기도 했다. 지난 1983년 9월26일 0시, 소련군의 미국 위성 조기 경보 시설인 세르푸코프-15에서 당직사령으로 근무하고 있던 스타니슬라프 페트로프 중령은 갑자기 인공위성에서 "미국이 대륙간탄도미사일(ICBM)을 소련으로 발사했다"는 비상경보를 받았다. 그러나 페트로프 중령은 이 알람이 오작동에 의한 것이라는 결론을 내렸다. 관제센터의 알람은 위성이 구름에 반사된 햇빛을 미사일로 잘못 인식해 오작동한 결과로 밝혀졌다. 

 

 정보통신(IT)업계에서는 AI에 대한 우려가 지속적으로 나오고 있다. AI가 3차 세계대전을 촉발시킬 수 있다는 경고도 잇달아 제기되고 있다.

 

 지난해 8월 일론 머스크 스페이스X 최고경영자(CEO)를 포함한 IT 업계 지도자 116명은 살인 로봇 개발 금지 성명서에 서명한 뒤 유엔에 제출했다. 당시 서명자들 중에는 대표적인 AI인 ‘구글 딥마인드’의 공동 개발자인 무스타파 술레이만도 포함돼 있다.

 

이미지 확대하기서명자들 중에는 일론 머스크 뿐만 아니라 AI 구글 딥바마인드 공동개발자인 무스타바 술레이만도 포함 돼 있다. - https://futureoflife.org 제공
서명자들 중에는 일론 머스크 뿐만 아니라 AI '구글 딥바마인드 공동개발자인 무스타바 술레이만도 포함 돼 있다. - https://futureoflife.org 제공

 이들 IT업계 지도자들은 당시 성명을 통해 “자율 살인 무기가 전쟁에 3차 혁명을 일으킬 위험이 있다”라고 경고했다. 그들은 “(AI) 무기가 일단 개발되고 나면, 전쟁은 지금까지보다 훨씬 더 큰 규모로, 그리고 사람이 인식할 수 있는 것보다 훨씬 빠른 속도로 진행될 것”이라고 전망했다.

 

 성명은 또 “이러한 무기가 독재자나 테러리스트의 손에 넘어가 바람직하지 못한 방식으로 사용될 경우 무고한 사람들을 해치는 테러 무기가 될 수 있다”라고 지적했다. 그러면서 “우리에겐 남은 시간이 많지 않다. 일단 ‘판도라의 상자’가 열리면 이를 다시 닫는 일은 어려울 것”이라고 덧붙였다.

 

 머스크는 그동안 꾸준히 AI의 위험성을 경고해 왔다. 머스크는 AI가 불멸의 독재자를 만들고 3차 세계대전을 촉발할 수 있다고 주장하고 있다.

 

 머스크는 지난해 9월 트위터를 통해 북한 핵보다도 AI가 3차 세계 대전을 촉발시킬 가능성이 더 높다고 주장했다. 머스크는 당시 “중국과 러시아, 그리고 조만간 모든 나라들이 강력한 컴퓨터 과학 능력을 갖추게 될 것이다. 국가 차원의 AI 우월성 경쟁이 제3차 세계대전의 원인이 될 가능성이 있다”라고 우려했다. 

 

 머스크는 또 “국가 지도자들이 아닌 AI가 전쟁을 벌이기 시작할 수도 있다. AI가 선제공격만이 승리를 거둘 수 있는 가장 개연성 높은 방법이라고 판단하면 전쟁을 시작할 수 있다”라고 우려했다.


뉴시스 제공

 

메일로 더 많은 기사를 받아보세요!

관련기사

인기기사

댓글

댓글쓰기

지금
이기사
관련 태그 뉴스