단순한 기계 장치와 로봇은 분명 다릅니다. 기계와 로봇을 구분하는 핵심은 바로 스스로 인지와 판단을 할 수 있는지 여부에 달려있습니다. 이렇게 스스로 인지와 판단을 하려면 로봇에는 인간의 두뇌와 비슷한 사고를 할 수 있는 장치가 달려 있어야 합니다.
이러한 장치 역할을 바로 ‘AI’가 하게 되는 것입니다. 그래서 로봇과 AI는 매우 밀접한 관련을 맺고 있습니다. 로봇을 연구하는 학자들은 일반적인 AI와 구별하기 위해서 로봇에 쓰이는 인공지능 기술을 ‘로봇지능’이라고 부른다고 합니다.
현재 AI 기술은 다양한 분야에서 활용되고 있는데, 특히 자율주행, 작업처리 능력, 로봇의 의사 결정 능력, 로봇과 인간의 상호작용, 에너지 효율성 강화 등에서 두각을 보이고 있습니다. 이러한 AI의 기술 진보는 진정한 로봇의 등장을 앞당길 수 있을 것입니다.
최근 생성형AI 분야에서 널리 쓰이고 있는 것은 챗봇 형태의 AI인데, 예를 들면 오픈AI의 챗GPT, 구글이 개발한 바드 등이 있지요. 이러한 챗봇들은 아직까지는 디지털 공간 내에서 작동되고 있습니다.
또한 그동안의 로봇 프로그래밍은 엔지니어가 로봇의 언어로 코딩해 명령을 입력하고 로봇의 피드백을 관찰해 수정하는 작업을 반복하는 수준에 머물러 있었습니다. 그러니까 일련의 동작들을 프로그래밍하고 로봇은 외부 변수와 역할에 따라 프로그래밍된 동작을 수행하는 수준이었다는 것입니다. 이는 스스로 인지하고 사고하는 진정한 로봇은 아닌 것이지요.
하지만 챗봇AI를 구동하는 대규모언어모델(LLM)을 로봇에 적용할 수만 있다면, 자연어 명령만으로 로봇을 조종하거나 창작활동을 하는 것이 가능해질 수 있습니다. 예컨대 AI를 로봇에 적용해 기계가 사람처럼 인식하고 행동할 수 있도록 유도하고 챗GPT처럼 자연어 명령만으로 로봇을 조종하는 것이 가능해지는 것입니다. 유저가 로봇에게 구도로 명령하면 이를 인식하고 그에 맞는 행동을 스스로 인식하고 행동에 옮기는 것입니다.
그래서 최근에는 오픈AI의 GPT와 같은 생성형AI를 로봇에 접목하는 시도가 이뤄지면서 변화가 일어나고 있습니다. 프로그램과 프로그램을 잇는 ‘GPT 애플리케이션 프로그램 인터페이스(API)’를 로봇 두뇌에 연결해 사람 대신 AI가 로봇에 명령어를 내려주는 것입니다.
엔비디아는 최근 로봇을 훈련하기 위한 알고리즘을 자동으로 생성하는 AI 에이전트 ‘유레카(Eureka)’를 공개했습니다. 오픈AI의 LLM GPT-4의 자연어 기능과 강화학습을 결합해 로봇이 복잡한 기술을 배울 수 있도록 돕습니다. 사람처럼 손가락으로 펜을 돌리거나, 서랍과 캐비닛 열기, 공 던지기와 잡기, 가위 사용 등 30여 가지 작업을 수행할 수 있다고 회사측은 밝혔습니다.
앞으로 빅테크의 생성형AI를 튜닝해 하드웨어(로봇)의 동작을 제어하는 서비스를 내놓는 스타트업도 더욱 많이 생겨날 것으로 예상됩니다. 청소 로봇과 서빙 로봇 등 이미 실생활에 많이 보급된 로봇들에게 먼저 적용될 확률이 높습니다.
분석업체 넥스트MSC에 따르면, AI로봇 시장은 2021년 956억6000만 달러에서 연평균 32.95% 성장해 2030년 1847억달러로 2배 가까이 커질 것으로 예상합니다. 넥스트MSC는 “AI로봇은 딥러닝을 사용해 명시적인 지시를 따르지 않고도 학습하고 적응하는 로봇”이라면서 “사무실 서비스에 AI 로봇을 활용하는 사례가 확대되면서, 시장 성장이 더욱 가속화되고 있다”고 분석했습니다.
고차원의 ‘로봇 두뇌’ 개발 경쟁도 치열합니다. 특히 로봇만을 위한 AI가 속속 개발되고 있습니다. 도요타연구소(TRI)는 지난 9월 AI를 통해 로봇을 고도화하는 교육 기법을 공개하면서 이를 로봇용 ‘대규모행동모델(Large Behavior Model)’로 정의했습니다.
현 단계에서 AI는 로봇을 위한 코드를 일일이 작성하거나, 동작을 프로그래밍해온 로봇 공학자들의 어려움을 덜어주고 있는데, 여기서 더 나아가 고도의 두뇌(LBM)를 장착한 로봇이 속속 개발되고 있다는 설명입니다.
LLM이 챗GPT와 같은 대화형AI에 혁명을 일으켰듯 LBM이 로봇 분야에서 새로운 기술 충격을 가져올 것으로 예측됩니다. LBM이 대중화되면 로봇은 이제 단순히 물건을 집어 새로운 위치에 내려놓는 수준에서 벗어나 AI를 통해 로봇이 일상적인 상황을 예측하고 사람과 상호 작용할 수 있는 시대가 열릴 것입니다.
실제로 구글은 지난해 7월 로봇을 위한 AI 모델인 로보틱스 트랜스포머2(RT-2)를 공개했습니다. 프로그래밍이나 별도의 훈련 없이도 스스로 학습해 명령을 이해하는 로봇 특화 AI모델로 지난해 공개한 RT-1의 업그레이드 버전입니다.
전 버전인 RT-1의 경우 물건을 들어 옮기고 서랍을 여는 작업을 수행하기 위해 엔지니어의 프로그래밍 작업이 일일이 필요했는데, RT-2는 할 일을 일일이 입력하지 않아도 인터넷상 이미지와 텍스트를 바탕으로 스스로 기술을 습득해 실행 방법을 찾아낸다고 합니다.
예를 들어, 로봇에게 ‘못을 박고 싶은데 망치가 없다’고 말하면 카메라 센서로 물건을 인식해 주변에 있는 돌덩이를 집어주는 식입니다. 구글은 이를 ‘시각-언어-행동’ 모델이라고 소개하고 있습니다. 이를 두고 뉴욕타임스(NYT)는 “RT-2가 LLM을 일종의 인공두뇌처럼 사용하고 있다”고 분석했습니다. 구글은 당장 AI를 로봇을 출시하거나 판매할 계획이 없고, 해당 모델을 통해 실물 로봇을 훈련하고 있는 것으로 알려졌습니다. 스스로 인지하고 사고하는 AI 두뇌를 탑재한 로봇이 등장할 날이 멀지 않아 보입니다.
'돈이 되는 경제 이야기' 카테고리의 다른 글
셀트리온홀딩스 미국 나스닥 상장 추진, 현실적으로 가능한가? (9) | 2024.01.18 |
---|---|
스트리밍 플랫폼 전쟁, 네이버vs아프리카TV, 승자는 과연 누구? (4) | 2024.01.16 |
토스 2024년말 IPO 상장 추진, 토스는 과연 슈퍼앱이 될 수 있을까? (25) | 2024.01.14 |
정부 플랫폼 경쟁촉진법(플랫폼법) 제정 추진. 네카오 독주를 막을 수 있을까? (26) | 2024.01.13 |
스피치 잘하는 다섯 가지 요령(Feat. 리처드 브랜슨의 비어 매트 규칙) (31) | 2024.01.10 |
4가지 핵심 기술 키워드로 살펴보는 CES 2024 (32) | 2024.01.09 |
AI가 바꿔놓은 미래의 어느 직장인의 하루(Feat. CES 2024) (32) | 2024.01.08 |
스티브 잡스에게 배우는 스피치 스킬 , 3의 규칙 (33) | 2024.01.02 |
댓글