[6월호 기획특집] 빅데이터와 AI를 활용한 한돈산업의 미래

2016년 알파고가 이세돌 9단을 꺾은 상징적인 사건을 계기로 대한민국은 정부와 민간 모두 인공지능(AI)에 지대한 관심을 보여 왔다. 자율주행, 배송, 보안, 군사 등 산업 전반에 인공지능을 도입하여 혁신을 일으키는 AI+X의 움직임이 현재까지 이어지고 있으며, 이러한 혁신의 바람은 축산업에도 불고 있다.

온갖 ICT 장비에 ‘인공지능’, ‘AI’란 단어가 수식어처럼 붙는 요즘, 필자는 실제로 축산업 분야의 어려움과 문제를 해결하는데 ‘구체적으로 어떤’ 인공지능이 쓰이는지, 그리고 이 기술들의 현재 수준이 어디까지 왔는지 설명하려 한다. 또한 축산업을 위한 인공지능 기술이 지금보다 더 발전한다면 축산업이 맞이하게 될 혁신들에 대해서도 이야기해 보고자 한다.

축산 동물을 살펴보는 인공의 눈, 머신비전(Machine Vision) 기술 

한의학에서는 “몸이 천 냥이면 눈이 구백 냥(眼十中九)”이라는 말이 있다. 눈은 사람이 지닌 감각기관 중에서 가장 방대한 양의 정보를 받아들이는 곳이니 보는 것이 그만큼 중요한 능력이란 의미일 것이다. 사람이 하는 대부분의 작업이 그렇겠지만, 축산업 역시 현장에서 작업자가 업무를 처리하는데 있어 가장 중요한 능력은 농장 내 동물과 설비 등을 살펴보는 ‘눈’이 아닐까 싶다.

여기서 언급한 눈을 보다 정확히 재정의하자면 영상을 받아들이는 ‘안구’, 그리고 안구와 연결되어 받아들여진 영상의 의미를 파악해 내는 ‘뇌’가 결합하여 정보를 처리하는 ‘영상분석 능력’으로 설명할 수 있다. 

이 영상분석 능력은 카메라와 인공지능 기술을 결합하여 인공으로 모사할 수 있는데, 이것이 머신비전(Machine Vision) 기술이다. 머신비전 기술의 응용범위는 그야말로 무궁무진한데, 앞차와의 거리를 인지하는 운전자의 눈을 대체할 수 있고, 적과 아군의 군복을 식별하는 군인의 눈을 대체할 수도 있다. 이러한 논리로 머신비전은 축산 현장의 경험 많은 작업자의 눈 역시 대체할 수 있다. 

그렇다면 머신비전으로 구현된 축산 작업자의 눈은 어떤 일을 할 수 있을까? 농장의 규모와 니즈에 따라 다소 차이가 있겠지만, 머신비전의 업무와 축산 현장의 업무 간의 연결고리를 정리해 보면 다음과 같이 정리할 수 있다.

▲ (그림 1) 머신비전 기술과 축산 응용 및 효과의 상관관계도
▲ (그림 2) 동물분석에 핵심적인 머신비전 세부기술인 검출, 추적, 식별

(그림 1, 2)에서 눈치 빠른 독자들은 이해했겠지만 머신비전 기술이 하는 일은 아주 자명하다. 화면속에 있는 동물(소, 돼지, 닭 등)의 영역을 검출하고, 각 동물들의 움직임을 쫓아가며 각 동물의 행동을 알아채는 것이다. 이 정도의 능력은 축산 현장을 처음 본 보통 사람도 할 수 있으니 별것 아니라 생각할 수도 있겠다. 하지만 사람 작업자가 따라가기 어려운 머신비전의 진짜 가치는 쉬지 않고 끊임없이 동물 한 마리 한 마리의 정보를 기록하는 능력에 있다. 

한 두 마리 반려동물의 상태를 수시로 파악하는 것도 쉽지 않은데, 머신비전은 적절한 카메라 설비만 되어 있다면 농장에서 수백에서 수만 마리의 개체별 상태를 반려동물보다도 정확히 파악하고 기록하고, 필요하다면 작업자에게 알릴 수 있는 능력을 제공한다. 그렇다면 현재의 머신비전 기술은 축산업에 어떤 형태로 어느 수준까지 적용되었는지 몇 가지 사례를 통해 살펴보고자 한다.

▲ (그림 3) 신경망 구조 탐색 방법 기반 양돈 객체검출 기술 구동의 예 (출처 : Riekert. et. al, Automatically detecting pig position and posture by 2D camera imaging and deep learning, Computers and Electronics in Agriculture, Elsevier, 174, (2020))

먼저 거의 모든 머신비전 분야의 근간 기술인 객체검출 기술을 동물에 적용한 연구들이 다수 발표되었다. 2020년 독일의 University of Hohenheim 연구팀이 발표한 내용에 따르면, 신경망 구조 탐색 방법(Neural Architecture Search)을 접목한 고성능 양돈 객체검출 신경망을 개발하였으며, 검출의 정확성이 80.02% 수준이라고 보고하였다. 

머신비전을 이용해 동물의 자세를 추정하는 연구들이 활발히 진행 중이다. 2019년 중국 Shanghai Dianji University에서 발표한 내용에 따르면, 인간의 자세를 추정하는데 주로 쓰여온 16점의 관절을 동물에 적용하여 화면에 비친 동물의 상태를 파악할 수 있다. 같은 원리로 이러한 연구들은 소와 돼지 모두의 자세 파악에 요긴하게 쓰일 수 있으며, 분만과 발정징후 탐지를 위한 행동분석 목적의 후속 연구가 활발히 진행 중이다.

▲ (그림 4) 소 자세 추정 기술의 구동 예 (출처 : Li. et. al, Deep cascaded convolutional models for cow pose estimation, Computers and Electronics in Agriculture, Elsevier, 164(2019))

현재의 머신비전 기술은 모든 종류의 축종에 동일한 기술이 적용되지는 않는다. 다양한 이유가 있겠지만, 사람의 눈으로 구분이 모호하거나 판단이 어려운 장면은 머신비전에도 동일하게 작용하기 때문에 기술을 도입하고자 하는 농장의 구체적인 목표와 목적에 적합한 기술을 활용하는 것이 중요하다. 본지의 취지에 맞추어 현재까지 알려진 양돈 분야에 특화된 머신비전 기반 양돈관리 솔루션들을 소개한다.

▲ (그림 5) 머신비전 기술을 활용한 복도 출하관리 솔루션 구동 예

양돈장 복도마다 설치되는 양돈 재고관리 솔루션은 머신비전 기술을 양돈 분야에 가장 직관적으로 이용한 사례일 것이다. 잦은 돈군 이동 과정에서 작업자들이 일일이 돼지의 마릿수를 정확히 측정하기 어려운 문제를 인공지능 카메라가 손쉽게 해결해 줄 수 있다.

주목할 만한 점은 복도라는 환경의 특수성을 활용하여 간단한 영상처리 기법을 적용하면 체중계나 특별한 센서 없이도 지나가는 돼지들의 무게 역시 측정할 수 있다는 점이다. 이 모두 머신비전 기술의 도움이 필수적이다.

▲ (그림 6) 머신비전 기술을 활용한 돈사 사육관리 솔루션 구동 예

복도 관리가 가능하다면 기술적으로 돈사 내 관리도 가능하다. 돈사의 일정 구역을 담당하는 카메라들이 머신비전 기술과 연결되어 돼지들의 재고두수와 활동성, 일당증체량, 사료섭취 횟수 등의 평시 정보를 측정하며, 꼬리물기, 위축, 폐사 같은 이상 사건의 기록 및 알람을 수행할 수 있다.

이 외에도 축종별, 사육단계별로 현업에서 어려움을 겪어온 다양한 문제를 해결하는데 머신비전 기술을 활용하기 위한 노력이 전 세계적으로 계속되고 있다.

내 농장에 대어보는 청진기, 머신리스닝(Machine Listening) 기술 

앞에서 살펴본 머신비전이 사람의 시각능력을 모사한 인공지능 기술이라면, 머신리스닝(Machine Listening)은 사람의 청각능력을 모사하는 인공지능이다. 머신리스닝 분야 역시 100년 이상 연구되어 온 전통적인 연구 분야로서 근래 딥러닝으로 대표되는 인공지능 기술의 확산과 더불어 그 성능이 비약적으로 향상되었다.

집안 곳곳에 설치된 스마트 스피커, 자동차, 스마트폰 등에 숨어있는 음성비서가 대표적인 머신리스닝 기술의 예로서, 이는 기계가 사람의 음성을 인식하고 대응하는 능력을 갖춘 수준까지 도달했음을 단적으로 보여준다. 사람의 귀를 모사하는 이러한 능력이 축산업에 어떻게 쓰일 수 있을까?

답은 간단하다. 현장의 작업자나 수의사가 귀로 듣고 느끼는 울음소리의 변화와 패턴을 식별하는 능력을 대신하여 사용될 수 있다. 동물들이 내는 울음소리나 기침소리는 건강상태의 변화를 반영하기 때문에 질병예측이나 발정탐지의 수단으로 연구되어 왔다. 현재까지 연구되어 온 축산업 관련 머신리스닝 연구들은 다음과 같다.

2021년 중국의 하얼빈 북동농업대학 연구진은 돈사 내 소리의 스펙트로그램을 Convolutional Neural Network(CNN)으로 분석하여 아픈 돼지의 기침소리를 탐지하는 연구 결과를 공개하였다. 

▲ (그림 7) CNN 기반 돈사 내 돼지 기침소리 감지 기술의 흐름도 (출처 : Yin, Yanling, et al. “Recognition of sick pig cough sounds based on convolutional neural network in field situations.” Information Processing in Agriculture 8.3 (2021): 369-379.)

기술의 핵심은 돈사 안에서 발생하는 돼지 울음, 쇠 부딪히는 소리, 기계 구동음, 작업자 소리 등 다양한 잡음이 존재하는 조건 속에서 오로지 돼지의 기침소리만을 감지하는 것이다.

특정 패턴의 소리를 찾는 연구는 인공지능 활용 이전에도 많은 시도가 있었지만, 머신리스닝 기술의 도입이 현장의 복잡한 잡음들 속에서 원하는 소리 패턴을 찾아내는 정확성을 대폭 높여 주었기에 돈사에서의 응용도 가능하게 되었다고 볼 수 있다. 해당 연구에 의하면, 돈사 내 기침소리 감지 정확성은 96%에 달한다고 한다.

소의 울음소리 역시 머신리스닝 기술로 분석하려는 시도가 있었다. 2021년 한국과학기술연구원(KIST) 연구진은 CNN 기반 mel frequency cepstral coefficient(MFCC) 분석 모델을 활용하여 소의 울음소리를 배고픔, 평시, 발정, 기침의 4종류로 구분하여 식별하는 연구 결과를 공개하였다. 해당 연구에서 한우농장 내부에 다수의 마이크 센서를 설치하고 이 신호들의 분석 결과를 스마트폰으로 모니터링할 수 있게 시스템을 구성하였다.

▲ (그림 8) 딥러닝 기반의 한우 음성 분류 시스템 (출처 : Jung, Dae-Hyun, et al. “Deep learning-based cattle vocal classification model and real-time livestock monitoring system with noise filtering.” Animals 11.2 (2021): 357)

연구 결과에 따르면, 탐지 정확성은 평균 81.96% 수준으로 정확성이 일부 개선된다면 국내의 한우/젖소 농가에서 농장 내 상황을 관리하는데 매우 요긴하게 사용될 것으로 기대된다.

축산 분야를 타게팅한 머신리스닝 기술은 정확성과 실증 규모 등에서 아직 사업화 이전의 수준에 머물지만 하나의 마이크만으로 카메라보다 약 10배 이상 넓은 영역을 감지할 수 있다는 특징 때문에 잠재력이 매우 큰 분야이다. 현장 전문가들의 노하우와 경험이 머신리스닝 기술과 융합된다면, 머신리스닝 기술은 대단히 저렴한 비용으로 24시간 우리 농장에 상주하는 인공지능 수의사 역할을 해낼 것으로 기대된다.

손 대지 않고도 동물의 생체정보를 알아차리는 초능력, 센서융합(Sensor Fusion) 기술 

지금까지 이야기한 인공지능은 인간의 눈과 귀를 모사한 기술이었다면, 본절에 다룰 인공지능은 인간의 오감에서 얻을 수 없는 센서정보를 다루는 지능에 대해 이야기해 보려 한다. 센서의 종류를 나열하자면 압력센서, 온습도센서, 자이로센서 등등 그 종류가 끝도 없겠지만, 축산업 분야에 국한하여 활용되는 센서를 꼽자면 ‘3D 센서’와 ‘열화상 센서(Thermal imaging sensor)’를 들 수 있다. 

3D 센서는 일반 카메라와 달리 촬영한 대상의 3차원 정보를 취득하여 이를 무수한 3차원의 점(point)으로 받아들이는 역할을 하는데, 대표적인 3D 센서로는 LiDAR, ToF카메라, 깊이카메라 등이 있다. 3D 센서는 동물의 부피를 잴 수 있어 비접촉 체중 측정을 위한 수단으로 각광받으며 축우, 양돈 분야에서 적극적인 연구가 이루어지고 있다.

▲ (그림 9) 깊이카메라를 활용한 모돈 무게 측정 기술의 동작 예 【좌 : 모돈의 포인트 클라우드, 우 : 모돈 영역 검출 후 무게 측정】 (출처 : Cang, Yan, Hengxiang He, and Yulong Qiao. “An intelligent pig weights estimate method based on deep learning in sow stall environments.”IEEE Access 7 (2019): 164867-164875.)

2019년 하얼빈공대에서 발표한 연구에 의하면, 스톨 사육하는 모돈의 상부에 깊이카메라를 설치하고 이를 머신비전 분석 기술과 연계하여 모돈 개체별 무게를 측정할 수 있다고 한다. 기술의 원리는 깊이카메라에 비친 모돈의 영역을 머신비전 기술로 추출한 뒤 해당 영역 안의 3차원 점 집합인 포인트 클라우드(Point-cloud)를 통해 모돈의 부피를 계산하고, 이를 무게 정보로 환산하는 데 있다.

연구 결과에 따르면, 무게 측정 오차는 평균 0.644kg에 불과하여 종래의 체중계를 대체할 수 있는 수준이라고 한다. 열화상 센서는 비접촉으로 사물의 표면 체온을 측정하고 이를 이미지 형식으로 보여주어 주로 설비의 이상온도 변화 지점을 찾거나 야간에 체온을 발생시키는 동물을 찾는 용도로 쓰였다.

또한 열화상 센서는 2020년부터 전 세계를 강타한 코로나19의 확산을 막는 수단으로서 비접촉으로 사람의 체온을 체크하는 용도로 빠르게 확산되어 왔다.

▲ (그림 10) 열화상 센서기반 비접촉 소 체온 측정 기술 동작 예 【좌 : 소 개체 인식, 우 : 소 안구 영역 체온 측정】(출처 : Guo, Shih-Sian, et al. “Development of an Automated Body Temperature Detection Platform for Face Recognition in Cattle with YOLO V3-Tiny Deep Learning and Infrared Thermal Imaging.” Applied Sciences 12.8 (2022): 4036.)
▲ (그림 10) 열화상 센서기반 비접촉 소 체온 측정 기술 동작 예 【좌 : 소 개체 인식, 우 : 소 안구 영역 체온 측정】(출처 : Guo, Shih-Sian, et al. “Development of an Automated Body Temperature Detection Platform for Face Recognition in Cattle with YOLO V3-Tiny Deep Learning and Infrared Thermal Imaging.” Applied Sciences 12.8 (2022): 4036.)

재미있는 점은 사람의 체온을 측정하는데 유용함을 증명한 열화상 센서 기술은 코로나가 종식되어가는 현 시점에서 축산 분야의 동물 체온을 측정하기 위한 수단으로 각광받고 있다는 점이다. 이미 중국, 유럽 등지의 연구팀을 중심으로 가축의 체온을 비접촉으로 측정하는 연구가 진행되었다.

2022년 대만의 국립가오슝대학 연구진이 발표한 최신 연구에 따르면, 열화상 센서와 머신비전 기술을 융합하여 소의 표면 중 체내 체온과 높은 상관성을 지니는 안구의 국소 체온을 측정하는 것이 가능하다고 한다. 그 원리는 영상 속 소의 눈알의 위치를 머신비전 기술로 파악하고, 이 좌표에 해당하는 열화상 화소값을 분석하여 소의 개체별 체온을 측정하는 방식이다. 

여기까지 내용을 본 독자들은 센서 기술들이 종래의 영상 및 머신비전 기술들과 융합하여 새로운 응용 기술이 되는 점을 느꼈을 것이라 생각한다. 본절의 소제목인 ‘센서융합’의 보완 설명을 해 보려고 한다. 

3D 센서나 열화상 센서 모두 사람이 얻을 수 없는 놀라운 정보를 제공하지만, 이 정보를 가공하여 원하는 형식으로 가공하는 지능적 분석이 이루어지지 않는다면 그저 수천, 수만 개의 숫자를 뱉는 관측도구에 지나지 않는다.

즉 축산 분야에서 비접촉 무게 측정이나 체온 측정과 같은 유용한 기능을 구현해 내기 위해서는 각 센서의 정보를 목적에 맞게 해석하는 인공지능의 존재가 필요하다. 재미있는 점은 이러한 인공지능의 구조가 가장 처음 소개한 머신비전 분야에 쓰인 기술들과 원리와 구조가 대단히 비슷하다는 점이다. 

카메라+3D 센서, 혹은 카메라+열화상 센서와 같이 일반 영상과 센서 정보를 융합(Fusion)했을 때 비로소 해석의 범주가 대단히 넓어지며 유의미한 응용기술을 개발할 수 있는 가능성이 열린다.

일례로 3D 센서와 카메라를 융합한다면 수십 마리의 동물들과 기자재 속에서 관심개체에 대한 정확한 무게 측정이 가능하며, 열화상 센서와 카메라를 융합하여 축종별로 체온 신뢰성이 높은 영역의 국소체온을 재는 식으로 응용이 가능하다. 이 외에도 언급되지 않은 다양한 형태의 센서들 간의 융합은 무한한 가능성을 지니며, 축산 현장의 어려움을 해소해 줄 혁신적인 제품 개발에 활용될 것으로 전망한다.

인공지능 기술이 바꿔나갈 축산업의 미래

지금까지 언급한 기술들만으로 축산업의 미래를 바꿀 수 있을까? 필자의 의견을 조심스레 밝히자면 “큰 기여는 하겠지만 이 기술들만으로는 어림없다”고 말할 수 있겠다.

앞서 소개한 인공지능 기술들은 분명 기술적으로 대단히 큰 도약이자, 일부는 현재 축산 작업자의 업무를 상당부분 감소시킬 수 있다. 하지만 보다 근원적인 문제인 사료값 폭등, 환경규제, 전염병 위험, 노동력 감소 등 축산업이 맞이하고 있는 어려운 여건들을 모두 극복하고자 한다면 인공지능 기술의 발전만으로는 부족하다.

진정 지속 가능하고 성장 가능한 축산업을 영위하고자 한다면 지금까지 구축된 축산업의 밸류체인이 인공지능 기술들을 받아들일 준비를 해야 한다. 타 산업분야에 비해 축산업은 현실적인 한계로 인해 숫자와 기록보다 감과 경험에 의존하는 이른 바 ‘정보화 회색영역’들이 다수 존재한다.

이러한 영역들에 우선적으로 구체적이고 효과적인 인공지능 솔루션을 과감히 도입함으로써 기존의 관습을 타파하고 데이터로 운영하는 데이터 기반 축산업(Data-driven Livestock Business)으로의 체질 개선을 이뤄내야 한다. 

그리고 이러한 변화를 이끌어 나가기 위해서 축산, 수의, ICT, 그리고 인공지능 분야 각계의 전문가 집단이 유기적으로 협력해야만 한다. 이러한 노력을 다시 말하자면 ‘축산업과 인공지능의 융합’으로 정의할 수 있을 것이다.

몇 가지 사례를 상상해 보자면, 인공지능 카메라와 급이기를 연계하여 작업자의 일체 조작 없이 개체별로 최적의 맞춤 급이를 해 주는 ‘지능형 급이 시스템’, 동물들의 집단 움직임과 내부 온/습도, 가스 농도를 복합 분석하여 사계절 내내 동물들이 최적의 환경에서 지낼 수 있도록 하는 ‘지능형 환기 제어 시스템’, 개체별 발정징후와 분만기록 등을 통합 분석하여 최적의 작업 동선을 제시하는 ‘지능형 생산관리 시스템’ 등을 들 수 있다. 

축산업과 인공지능의 융합은 분명히 어려운 일이지만 데이터 기반 축산업이 제공할 과실은 상상을 초월할 것이다. 시설원예 스마트팜이 생장 전 과정을 데이터로 관리하면서 도입 이전 대비 생산성 44.6% 개선, 조수익 40.5% 상승이라는 놀라운 효과를 얻었다고 한다.

이러한 선례에서 볼 수 있듯이 측정된 수치를 바탕으로 한 의사결정과 생산성 최적화는 농장별 생산효율을 극대화시킬 수 있을 것이다. 효율 극대화는 초과수익 증대와 농장 규모화로 이어질 것이며, 농장 규모화와 인공지능의 결합은 필연적으로 ‘축산농장 무인화’라는 종착역을 향해 발전하리라 예상한다.

한 가지 확실한 점은 인공지능의 발전이 축산 전문가를 대체할 수는 없을 것이다. 인공지능은 단지 더 많은 동물을 더 건강하게 키울 수 있는 유용한 도구로써 발전할 것이고, 현장의 긴급 사항에 대응하며 생산계획을 세우기 위해서는 축산 전문가들의 역할은 더 중요해질 것이다. 

국내 축산농가가 인공지능 기술의 직접적인 혜택을 받기까지는 아직 넘어야 할 많은 장애물들이 도사리고 있다. 하지만 인공지능 기술의 적극적이고 올바른 도입을 위한 연구와 투자가 집중적으로 이루어진다면 국내 축산농가가 합리적인 비용으로도 축산 개체관리를 관리할 수 있는 수단이 생길 것이고, 나아가 전 세계 축산 농업의 관리 방법에 혁명을 일으키는 보편적 방법을 확보할 수 있을 것이다.

코로나19와 우크라이나 전쟁 등 세계적 식량 위기를 불러일으킬 거대한 사건들이 발발하는 지금, 우리 축산농가에게 이로운 인공지능 기술 개발을 위한 각 분야의 노력이 모여 곧 다가올 축산업 인공지능 혁명은 대한민국에서 시작되기를 바라는 소망과 함께 본 글을 마친다. 


▣ 전광명 대표이사
인트플로우
▣ 문의사항
상기 원고에 대한 궁금한 사항은 글쓴이 메일로 문의바랍니다.
글쓴이 E-mail : kmjeon@intflow.ai
▣ 출처 
피그앤포크한돈 2022년 6월호 284~293p

저작권자 © 한돈뉴스 무단전재 및 재배포 금지