국산 의료 AI, 위암 조기발견 정확도 98.5% 달성…'의사 보조자' 합격점

2019.11.08 17:52
영상의료 AI 기업 루닛이 서울대병원과 공동개발한 AI 기반 영상판독보조시스템 루닛 인사이트를 이용해 환자의 영상을 진료하고 있다. 흉부 X선 영상을 분석해 폐 결절을 찾는다. 지난해 8월 식품의약품안전처로부터 의료기기로 승인 받았다.  제공 루닛
영상의료 AI 기업 루닛과 서울대병원 공동연구팀이 개발한 AI 기반 영상판독보조시스템 '루닛 인사이트'. 흉부 X선 영상을 분석해 폐 결절을 찾는다. 지난해 8월 식품의약품안전처로부터 의료기기로 승인 받았다. 8일 서울대 암연구소에서 대한영상의학회와 한국과학기자협회가 공동으로 개최한 'AI 시대 의료의 진정한 혁신을 이끄는 영상의학 : 도전과 과제' 공동심포지엄에서 전문가들은 현재 개발된 의료 AI가 데이터를 판독하는 수준이 경험이 많은 영상의학과 전문의만큼 뛰어나며, '의사 보조자'로서 역할을 할 수 있다고 입을 모았다. 루닛 제공

최근 강남세브란스병원 소화기내과와 인공지능(AI) 개발업체인 셀바스는 위 내시경 사진을 분석해 조기 위암을 발견하고 종양이 침범한 깊이까지 예측하는 AI를 개발했다. 이 AI가 조기 위암을 발견하는 정확도는 98.5%에 이르며, 종양의 침범 깊이 예측에 대한 정확도도 85.1%나 된다.

 

서울대병원과 KAIST, 가톨릭대 공동연구팀은 뇌 영상을 보고 주의력 결핍 및 행동장애(ADHD)인지 아닌지 판단하는 AI를 개발했다. 지금까지 ADHD는 환자의 설문 응답과 부모 등 보호자의 진술, 의사의 관찰과 주관적 판단에 의존해 진단 내린다는 한계가 있었다. 하지만 연구팀이 개발한 AI는 ADHD 환자의 뇌가 일반인과 달리 중요 자극을 선별하거나 반응을 억제하는 전전두엽에 구조적인 결함이 있음에 주목해, ADHD를 구별한다.

 

국내 연구팀들은 흉부 X선 영상으로부터 폐암이나 폐결핵 등 폐질환을 찾아내거나, 유방 X선 영상에서 유방암을 찾아내거나, 어린이 손을 찍은 X선 사진을 보고 뼈나이를 예측하는 등 다양한 AI를 개발해, 일부는 현재 임상에서 활용 중이다. 지금까지 개발된 의료 AI는 대부분 X선이나 컴퓨터단층촬영(CT), 자기공명영상(MRI) 등 영상 자료를 판독하는 역할을 한다. 

 

8일 서울대 암연구소에서 대한영상의학회와 한국과학기자협회가 공동으로 개최한 'AI 시대 의료의 진정한 혁신을 이끄는 영상의학 : 도전과 과제' 공동심포지엄에서 박성호 서울아산병원 영상의학과 교수는 “다른 의학과와 비교해 영상의학과에서 생성되는 데이터가 비교적 표준화돼 있기 때문”이라며 “하지만 임상에서 훨씬 효율적으로 활용하기 위해 의료 AI가 발전해야 할 점이 아직 많다”고 말했다. 이날 영상의학 AI 분야 전문가들은 현재 의료 AI가 극복해야 할 한계점과 함께, 이를 극복할 수 있는 방법에 대해 논했다. 

 

‘데이터 표준화’, ‘메타러닝’으로 현재 한계점 극복해야

김휘영 연대 신촌세브란스 영상의학과 방사선의학연구소 교수가 의료 AI가 의료 데이터를 학습해 판독하는 원리를 설명하고 있다. 이정아 기자
김휘영 연대 신촌세브란스 영상의학과 방사선의학연구소 교수가 의료 AI가 의료 데이터를 학습해 판독하는 원리를 설명하고 있다. 이정아 기자

먼저 의료 AI가 극복해야 할 첫 번째 한계는 ‘학습한 자료에 대한 높은 의존성’이다. AI는 딥러닝으로 학습한 자료들을 대상으로 다시 판독하도록 시키면 정확도가 100%에 가깝게 매우 높다. 하지만 학습하지 않은 새로운 자료에 대해서는 정확도가 떨어진다. 

 

박 교수는 “여러 연구팀의 연구결과 흉부 X선에서 폐렴을 찾는 AI, 당뇨병성 망막병증을 찾는 AI, 갑상선 초음파에서 갑상선암을 찾는 AI 등 대부분의 의료 AI가 학습한 적이 없는 새로운 데이터에 대해 판독률이 떨어지는 것으로 나타났다”며 “사람마다 얼굴이 다 다른 것처럼 몸속 생김새도 다르게 생겨, 학습한 데이터와 실제 현장에서 얻는 데이터 사이에 큰 차이가 발생하기 때문”이라고 설명했다. 그는 “이 차이를 줄이려면 지금보다 훨씬 많은 양의 ‘빅빅데이터’를 학습해야 하는 데 현실적으로 불가능하다”며 “병원마다, 국가마다 디지털 데이터 형태를 완전히 표준화하는 것만으로도 자료 의존성을 낮출 수 있을 것”이라고 기대했다. 

 

의료 AI의 또 다른 한계는 ‘특정 질환에 대해서만 전문성이 국한’돼 있다는 것이다. 예를 들어 똑같이 흉부 X선을 판독하는 AI라도 특화 분야에 따라 어떤 것은 폐암만 찾고, 어떤 것은 폐결핵만 찾는다. 건강한 폐와 특정 질환을 앓고 있는 폐를 구분하도록 학습시켰기 때문이다. 

 

김휘영 연대 신촌세브란스 영상의학과 방사선의학연구소 교수는 “폐결핵이 의심돼 병원에 온 환자를 AI가 정상으로 판단했는데, 추후 폐암이 발견된다면 문제가 될 것”이라며 “그렇다고 해서 폐결핵 AI, 폐암 AI, 폐렴 AI 등 모든 AI를 다 동원할 수도 없는 노릇”이라고 말했다. 그는 이런 한계를 극복하기 위해 “기존 AI를 개발할 때처럼 모든 병에 대한 데이터를 다 학습시키는 것은 불가능하다”며 “어린아이가 새로운 것을 배우는 것처럼 상대적으로 적은 데이터만 보고도 학습할 수 있는 ‘메타러닝’을 개발해 도입해야 한다”고 설명했다. 메타러닝으로 학습한 AI는 하나의 영상 데이터를 보고 폐암과 폐결핵, 폐렴 등을 동시에 판독하는 일도 가능해질 전망이다.
  
현재 의료 AI 수준... 의사 대체가 아닌, 진료 보조자로서 충분

 

전문가들은 아직까지 의료 AI에 극복해야 할 한계점들이 있지만, 현 수준으로도 충분히 임상에서 효율적으로 활용할 수 있다는 데 동의했다. 의사를 대체하는 역할이 아닌, 의사가 훨씬 진료를 잘 할 수 있도록 돕는 ‘보조자’로서 말이다.
 
박창민 서울대병원 영상의학과 교수는 “영상 데이터를 보고 AI가 판독한 결과와, 전문의가 판독한 결과를 비교하는 연구를 했다”며 “그 결과 AI가 판독하는 수준은 경험이 많은 전문의와 비슷한 것으로 나타났다”고 말했다. 그는 “특히 경험이 적은 젊은 의사나 영상의학과가 아닌 다른 과 의사가 판독한 결과보다, AI가 판독한 결과가 훨씬 정확했다”며 “임상에서 의료 AI를 활용하면 대도시나 지방에서나, 경험이 많은 의사나 경험이 적은 의사나 영상 데이터를 정확하게 판독할 수 있을 것”이라고 말했다. 

 

이뿐만 아니라 의료 AI를 이용하면 영상 데이터를 판독하는 시간을 줄여 의료 서비스의 질도 높일 수 있다. 전문가들은 응급실에 오는 수많은 환자 중 누가 당장 치료가 급한지 AI가 우선순위를 판단하면 소중한 생명을 최대한 구할 수 있을 것으로도 전망하고 있다. 

 

오주형 대한영상의학회장(경희대병원장)은 “최근 대형병원으로 환자가 몰리는 등 원인으로 의사들의 과도한 업무량으로 인한 번아웃이 심각한 문제”라며 “의료 AI가 이런 문제를 해결하는 방법이 될 수 있을 것”이라고 기대했다.

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150