불법 영상 콕 집어 삭제...AI가 'n번방'의 눈물 닦아줄까

2020.04.06 06:00
게티이미지뱅크
게티이미지뱅크

여성을 협박해 성 착취물을 찍게 하고 이를 인터넷 메신저 '텔레그램'에 공유해 부당이득을 취한 'N번방' 사건 파장이 커지고 있다. 확인된 피해자가 74명에 달하고 절반 이상이 중학생 등 미성년자였다는 사실이 밝혀지며 사회적 분노가 커지고 있다. 가해자 수사, 처벌과 함께 씻을 수 없는 상처를 입은 피해자들이 등장하는 불법 촬영물 추가 유포를 막는 기술의 필요성도 높아졌다. 

 

여성가족부 산하 한국여성인권진흥원은 지난 2018년 4월부터 성범죄 불법 촬영물 삭제를 지원하는 ‘디지털 성범죄 피해자 지원센터’를 운영 중이다. 피해자가 센터에 신고하면 촬영물이 게시된 웹사이트나 플랫폼은 센터가 파악해 직접 삭제를 요청하는 방식이다. 센터는 현재 N번방 피해자 40명의 영상물 삭제를 지원하고 있다. 

 

하지만 이런 방식으로는 불법 촬영물 유포를 막기 어렵다. 인터넷의 특성상 불법 촬영물이 여러 플랫폼과 웹사이트에 걷잡을 수 없이 업로드되지만 이를 삭제하려면 직접 확인하고 요청하는 데 시간이 소요되기 때문이다. 

 

이남경 한국전자통신연구원(ETRI) 미디어연구본부 책임연구원은 “인력에 의존해 불법 촬영물 유포를 막는 것은 거의 불가능하다"며 "인공지능(AI)을 활용한 기술로 대체할 수 있다"고 말했다. 과학기술정보통신부와 여성가족부는 지난해 7월 AI를 적용한 ‘불법 촬영물 삭제지원 시스템’을 시험 적용한 뒤 11월부터 활용하고 있다. 

 

ETRI가 개발한 이 시스템은 피해자가 신고한 불법 촬영물에서 이미지를 추출한다. 추출된 이미지의 특성을 분석해 웹하드 사이트에 등록된 영상물 중 불법 촬영물과 유사한 영상물을 AI가 자동으로 선별하고 수집한다. 지난해 하반기 42개 웹하드 사이트에 대한 검색기능을 확보했다. 사람이 직접 영상물을 골라내지 않아도 24시간 자동 검색이 가능하다.


해외에서는 불법 촬영물 유포를 막기 위해 일찌감치 AI 기술을 활용하고 있다. 페이스북은 지난해 3월 AI를 이용해 디지털 성범죄물의 선제적 차단에 나선다고 밝혔다. 기존에는 피해자가 먼저 사진이나 영상을 발견해 신고해야 페이스북이 이를 분석한 후 차단하는 방식이었다. 이와 달리 페이스북이 지난해 도입한 AI 기술은 피해자를 포함한 누군가가 불법 촬영물을 신고하지 않아도 알몸 노출 상태인 사진이나 영상을 미리 검열한다. 


마이크로소프트는 AI 기술이 보편화되기 전인 2009년 ‘포토DNA’라는 기술을 개발했다. 포토DNA는 불법 촬영물에서 특정한 디지털 정보를 뽑아내 만든 정보다. 손가락에서 지문을 채취하는 것처럼 불법 촬영물에서 특정한 디지털 정보를 뽑아내는 것이다. 그런 뒤 이 정보를 온라인상에 존재하는 다른 촬영물과 대조해 불법 촬영물을 식별한다. 2016년 12월 페이스북과 트위터, 구글도 이 기술을 사용하겠다는 계획을 발표했다. 마이크로소프트는 2018년 9월부터 포토DNA 기술을 무료로 제공하고 있다.


불법 촬영물 유포를 막기 위한 아이디어들도 구체화하고 있다. 지난해 과기정통부는 ‘디지털 성범죄 피해방지 아이디어 및 R&D 기획 공모전’을 진행했다. 당시 AI기술 외에 3D 신체 모델링 기술을 더해 얼굴 분간이 힘든 불법 성범죄 영상을 걸러내는 아이디어가 제시됐다. 스마트폰의 고유 주소를 활용해 불법 촬영 유포자를 추적하자는 아이디어도 나왔다. 과기정통부 관계자는 "지난해 하반기 신규 연구개발 과제로 기획해 3년간 총 20억원 규모로 추진 중"이라며 "현재는 개발 초기단계"라고 밝혔다.

 


 

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150