윤영기(YOON, Young-Ki)
newton@eqboard.com

Deep Learning이라는 기능을 내장된 로봇-청소기인 경우, 약간 불편한 부분이 있습니다.
2000년초에 로봇-청소기는 대부분이 약간 고성능 MCU를 사용하는 제품이 주류였다면, 현재는 Application processor급의 제어 장치를 사용하는 것 같습니다.
MCU 수준에서 OpenCV와 같은 이미지 인식 시스템을 구동하기 힘들고, 구현할 수 있는 범위가 제한됩니다.
하지만 AP급으로 구현하면 제한이 없다고 볼 수 있습니다.
AP 가격이 떨어진 것도 한 몫을 하기도 합니다.
이해하기 쉽게 스마트폰 하나가 로봇-청소기에 들어 있다고 생각하시면 됩니다.

AP의 대표적인 장치는 ‘raspberry pi’가 있습니다.
Google는 이 장치에서 인공지능을 사용할 수 있도록 코드를 개방하고 있습니다.
CSI(Camera Serial Interface)를 지원하고, WiFi도 지원하기에 다양한 것을 만들 수 있습니다.

불편한 부분에 대하여 간단히 설명하고자 하면, ‘이 물체가 뭘까?’를 청소기가 인식하는 과정입니다.
청소하다 보면, 벽이나 책상, 문과 같은 고정된 것은 Map data에 고정물로 등록하고, 개나 고양이, 전선, 책 등은 임시 회피로 인식해야 합니다.

초창기 청소기는 터치 센서를 이용하여, 물체를 감지하고 일정 각도로 회피하도록 했습니다.
그 후 초음파-센서와 같은 근거리에서 물체 유무와, 크기를 인식하게 된 후로는 회피 동작이 부드럽게 됩니다.
하지만 이런 센서는 특정 각도에서는 물체를 인식되지 않고, 움직이는 동물에 대하여 오동작을 하는 경우가 발생됩니다.
현대의 로봇-청소기는 카메라로 물체의 특성을 분석하여 청소하기에 매우 우수한 단계까지 왔습니다.
여기서 카메라로 촬영된 물체가 뭐인지 어떻게 알까요?
알기 좋은 답은, 테슬러의 자율 주행 시스템을 생각해 보는 것이 좋습니다.
테슬러는 자동차에서 촬영된 영상을 인공지능 센터로 보내어, 차량의 주위 상태를 다시 자동차에 보내, 자율 주행을 하도록 합니다.
로봇-청소기의 기능(ROS2)도 이와 유사하게 유사합니다.
만약 당시의 로봇-청소기가 WiFi를 연결해야 하는 제품이라면 Google이나 Baidu의 인공지능 센터로 이미지를 보낼 것입니다.
그 결과, 이런 것은 사람, 이런 것은 개, 고양이 등으로 특성 값을 청소기에 보내어, 향후 운영에 사용합니다.
또한 벽과 소파 사이에 들어간 경우 후진으로 빠져 나오는 것도 판단도 할 수 있습니다.

<TensorFlow로 구동되는 AI 로봇 청소기> 를 첨부합니다.

By neoy2g