스마트폰으로 사진만 찍어도…인공지능이 토마토 크기 측정한다

2017.01.25 18:00
24일 천안 송남리에 위치한 한국과학기술연구원(KIST) 토마토 시범 농가에서 한 연구원이 스마트폰 애플리케이션(앱) ‘작물 생육측정 기반 스마트팜 2.0’을 이용해 토마토 사진을 찍고 있다. 이 앱은 사진에서 자동으로 과실의 크기, 줄기 길이 등을 인식해 측정한다.
24일 천안 송남리에 위치한 한국과학기술연구원(KIST) 토마토 시범 농가에서 한 연구원이 스마트폰 애플리케이션(앱) ‘작물 생육측정 기반 스마트팜 2.0’을 이용해 토마토 사진을 찍고 있다. 이 앱은 사진에서 자동으로 과실의 크기, 줄기 길이 등을 인식해 측정한다. - 한국과학기술연구원 제공

스마트폰 카메라로 토마토 줄기를 촬영하자, 줄기 부분에 빨간색 박스가 생성되면서 줄기의 두께(직경) 값이 애플리케이션(앱) 화면에 떴다. 작물의 생육 정보를 수집하고 분석, 관리해 주는 ‘작물 생육측정 기반 스마트팜 2.0’ 앱이다.

 

한국과학기술연구원(KIST)은 24일 천안 송남리 KIST 토마토 시범 농가에서 스마트폰을 활용한 작물 생육 측정 기술을 선보였다. 개발에는 KIST 강릉분원 SFS융합연구단 김형석 선임연구원 연구팀을 중심으로 한국전자통신연구원(ETRI) 등 5개 정부출연 연구기관과 KT 등 7개 기업, 포항공대 등 14개 대학이 참여했다.
 
스마트팜 2.0 앱은 줄기의 직경뿐만 아니라 생장 길이, 꽃의 수, 과실의 수 등 총 10개 지표의 측정값을 사진에서 자동으로 인식할 수 있다. 직접 재보지 않아도 사진만 찍으면 간편하게 생육 정보를 수집할 수 있는 셈이다.

 

 

한 연구원이 스마트폰 앱 ‘작물 생육측정 기반 스마트팜 2.0’을 활용해 작물의 생육 상태를 점검하고 있다. - 한국과학기술연구원 제공
한 연구원이 스마트폰 앱 ‘작물 생육측정 기반 스마트팜 2.0’을 활용해 작물의 생육 상태를 점검하고 있다. - 한국과학기술연구원 제공

● 인공지능(AI) ‘딥 러닝’ 적용…수확량 예측도 가능

 

이렇게 자동 측정이 가능한 이유는 스마트팜 2.0 앱에 해석, 추론 등 인간의 학습 방식을 모방한 인공지능(AI) 기술 ‘딥 러닝’이 적용돼 있기 때문이다. 딥 러닝을 통해 컴퓨터가 주어진 입력 값(사진)과 출력 값(실제 측정 값) 사이의 상관관계를 파악해 추론하는 능력을 학습할 수 있다. 이운석 KIST 연구원은 “AI가 작물 사진을 보고 유추한 값과 실제 측정 값을 비교하며 점점 오차를 줄이는 방식으로 사전 학습을 통해 정확도를 향상시켰다”고 설명했다.
 
과실 수확, 적화, 낙과 등 현장에서 발생하는 자연적인 변화를 기존에 수집한 생육 정보를 기반으로 자동 수정하거나, 오류를 인지할 수도 있다. 이 경우 정확한 정보가 입력되도록 안내하는 가이드 기능도 제공된다.
 
현재 국내에서 운영 중인 스마트팜은 온도, 습도, 이산화탄소 같은 온실 환경을 단순히 제어하는 수준의 ‘스마트팜 1.0’ 기술이 적용돼 있는 상황이다. 직접 생육 상태를 측정해 수기로 작성하거나 경험과 눈대중에 의존해야 했기 때문에 정확한 생육 정보를 얻는 데는 어려움이 있었다.
 

스마트팜 2.0 기술을 적용할 경우 사람의 눈에는 보이지 않는 작물 크기의 미미한 차이까지 포착할 수 있다. 10개 지표에 대해 누적 수집한 작물 생육 정보를 토대로 최적의 수확 시기 및 예상 수확량 예측도 가능하다. 이는 향후 장기적인 생산성 향상과 품질 개선을 위한 연구에도 활용할 수 있다.

 

 

연구원들이 ‘작물 생육측정 기반 스마트팜 2.0’ 앱으로 수집한 토마토의 생육 정보를 토대로 예측한 수확량 그래프를 살펴 보고 있다. - 한국과학기술연구원 제공
연구원들이 ‘작물 생육측정 기반 스마트팜 2.0’ 앱으로 수집한 토마토의 생육 정보를 토대로 예측한 수확량 그래프를 살펴 보고 있다. - 한국과학기술연구원 제공

● 3D 영상 카메라로 과실 부피도 정확히 측정

 

만약 스마트폰에 3차원(3D) 영상을 촬영할 수 있는 깊이 인식 카메라가 탑재돼 있으면 2D 사진을 사용할 때보다 더 정밀한 측정이 가능하다. 2D 사진을 활용할 경우 과실의 가로 세로 직경을 분석해 그 크기를 추정하지만, 3D 영상을 사용하면 소프트웨어(SW) 모델이 과실의 입체 구조를 인식해 정확한 부피를 계산해 준다. 줄기의 휘어짐, 가려진 꽃, 과실의 부피(체적) 등 단면 이미지로는 알기 어려운 정보까지 얻을 수 있는 셈이다.

 

노주원 KIST SFS융합연구단장은 “이번에 개발된 기술은 국내 스마트팜을 생육 정보 중심의 스마트팜 2.0으로 전환시켜 주는 출발점”이라며 “고품질, 고수확 작물 재배 등 국내 농업 기술의 한 단계 도약을 위한 기반 기술이 되리라 기대한다”고 말했다.

 

메일로 더 많은 기사를 받아보세요!

댓글 0

작성하기

    의견쓰기 폼
    0/150