눈으로 본 물건을 말로 설명하는 인공지능 세계 첫 개발

2016.12.08 07:00

 

시각 챗봇을 개발한 장병탁 서울대 컴퓨터공학부 교수가 자신이 3월에 공개한 뽀로로봇을 안고 있다. - 서울대학교 제공
시각 챗봇을 개발한 장병탁 서울대 컴퓨터공학부 교수가 자신이 3월에 공개한 뽀로로봇을 안고 있다. - 서울대학교 제공

서울대 컴퓨터공학부 장병탁 교수팀이 사물을 인식해 음성으로 설명할 수 있는 인공지능 ‘시각 챗봇’을 개발했다고 6일 밝혔다. 스스로 시각 정보를 해석한 뒤 언어로 표현하는 인공지능이 개발된 건 세계적으로도 처음이다.

 
장 교수팀은 딥러닝(자기학습) 기술을 적용한 인공지능에 다양한 사물의 형태를 가르친 다음 컴퓨터가 사물을 스스로 구분토록 했다. 그 뒤 음성 입출력 기술과 결합해 사물의 형태를 인식하고 답을 하도록 만들었다. 예를 들어 로봇에게 휴대전화를 보여주고 음성으로 “이게 뭐야?”라고 물어보면 “휴대전화야”라고 대답할 수 있는 것이다. 

 

시각 챗봇은 물건의 색깔이나 제품의 상표 정보 등 다른 시각 자료도 구분할 수 있어 다양한 분야에 응용이 가능할 것으로 보인다. 시각장애인들에게 주변 정보를 알려주거나 대용량 영상 정보를 빠르게 검색할 때, 더 나아가 사람과 의사소통을 할 수 있는 비서로봇에 응용될 것으로 보인다.

 

연구진은 이번에 개발된 인공지능이 스스로 학습할 수 있고 추론 역시 가능하다는 점에서 비약적인 발전을 기대하고 있다. 장 교수는 “지금까지는 인공지능 분야에서 시각 정보와 언어 기술을 제각각 연구해 왔다. 이번 연구가 여러 가지 입출력 정보를 동시에 처리할 수 있는 ‘다중모달’ 인공지능 개발에 도움이 되길 바란다”고 말했다.

 

이 연구 결과는 6일 스페인 바르셀로나에서 개최된 ‘제30회 신경정보처리시스템 국제학회(NIPS 2016)’에서 발표됐다.

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150