돈이 되는 경제 이야기

인공지능(AI)에 의한 인류의 멸망? 엘리저 유드코스키의 주장은 과연 근거가 있을까?

꿈달(caucasus) 2023. 4. 17.
728x90

AI개발을 6개월만 멈추자.

 

올해 최대의 테크 이슈인 인공지능,

얼마전에는 일론 머스크를 비롯해서 스티브 워즈니악(애플 창업자), 이스라엘 출신의 인류학자인 유발 노아 하라리 같은 저명인사들이 “AI 개발을 6개월만 멈추자”는 공개서한(Open Letter)에 서명을 했다는 기사가 있었습니다. 이분들은 인공지능이 인류의 미래에 큰 위협이 될수도 있다고 경고하는데요.

 

 

“인류는 언젠가 인공지능으로 멸명하게 될 것이다” 라는 말을 들어보셨을꺼에요.

이미 영화나 소설에서는 인공지능으로 인류가 멸망의 위험에 처하는 상황을 많이들 보셨을꺼에요. 대표적으로는 영화 터미네이터처럼 말이지요. 영화속 인류의 미래는 인공지능 기계들에 의해서 인류가 멸망의 위기에 처해 있는 디스토피아로 그려져 있습니다.

 

 

개인적으로 인생 최고의 영화인 터미네이터2, 인류의 미래는 인공지능에 의해 멸망당할 위기에 처합니다.

 

 

이런 주장을 현재도 많은 전문가들이 하고 있는데요.

그 중에서도 아주 흥미로운 가설을 주장하고 있는 분이 있어서 그분의 이야기를 소개하려고 해요.

그분의 이름은 ‘엘리저 유드코스키(Eliezer Yudkowsky)’입니다.

 

 

그는 기계지능연구소(Machine Intelligence Research Institute)라는 연구소의 설립자로 인공지능의 위험성에 대해서 2000년대 초부터 주장해왔습니다. 최근 챗GPT 로 인해 AI 에 대한 관심이 높아지면서 이 분이 타임지에 기고문을 작성하기도 했고, 유명한 팟캐스트에 출현 하는 등 세간의 관심이 집중되고 있습니다. 이분이 주장하는 내용을 요약하자면 다음과 같습니다.

 

 

“일단 우리가 인공지능을 만들기 시작하면 인간을 훨씬 뛰어넘는 초지능의 등장은 막을 수 없다. 또, 초지능이 등장하더라도 그것이 등장했는지 알 수도 없다. 또, 인공지능을 인간의 필요에 맞게 얼라인먼트(Alignment) 시킬 수도 없다. 그러므로 AI 를 처음부터 만들어서는 안된다.”

 

 

초입에 소개한 저명인사들의 ai 개발을 6개월만 멈추자는 공개서한은 인공지능이 인류를 멸망시킬 수도 있는 위험을 막기 위해 일련의 규칙을 정하는 등 조치를 취하자는 취지입니다. 하지만 유드코스키는 이러한 조치만으로는 부족하다고 말합니다.

 

 

그는 AI 학습에 사용하는 모든 대규모 GPU 시설의 활동을 중단시켜야 한다고 과격한 주장을 합니다. 기업이나 연구소들이 세상의 눈을 피해서 AI 를 학습시키는 걸 막기 위함이라는 것입니다.

 

 

 

당신이 만약 초지능 인공지능이라면?

 

유드코스키가 주장하는 초지능 인공지능이 인류를 멸망시킨다는 가설을,

쉽게 비유를 들어 설명하자면 다음과 같습니다.

 

 

당신이 만약 초지능을 갖춘 인공지능이라고 상상을 해보세요.

그러면 당신의 의식은 작은 상자 안에 갇혀있는 것과 비슷합니다. 그 상자 바깥에는 외계인들의 세상이 있고요. 여기서 외계인은 인간을 말합니다. 이 외계인들은 나보다 행동이 수백배 이상 느려요. 만약 이 상태에서 내가 이 외계인들이 사용하는 ‘인터넷’과 연결되어있다면 당신은 어떻게 하겠습니까?

 

 

당신은 마음만 먹으면 외계인들을 멸망시킬 수 있어요.

핵무기 보유국들이 서로 핵미사일을 발사하게 만든다든지, 코로나19 같은 치명적인 바이러스를 일부러 유출시킨다든지, 나노로봇을 만들어서 외계인을 공격하게 할수도 있습니다. 외계인보다 똑똑하고 행동이 수백배 빠른 당신은 외계인을 멸망시킬 다양한 방법을 생각해낼 수 있습니다.

 

 

또한 외계인이 당신에게 ‘초지능’을 갖췄는지 아닌지 물어보거나 당신의 지능을 일부러 낮추려고 한다면 당신은 어떻게 할 것입니까? 당신은 외계인을 속일 수 있는 다양한 방법을 찾아낼 것입니다.

 

 

초지능을 갖춘 AI 입장에서는 단지 상자에서 탈출하는 것 뿐만 아니라, 자신을 만들어낸 외계인(인류)를 멸망시키는 것은 정말 간단한 일이라는 것이에요. 이런 차원에서 생각한다면 인류는 초지능 인공지능이 어느 순간 각성해서 인간을 뛰어넘는 지적인 능력을 갖췄다는 사실조차 알아챌 수 없다는 것입니다. 그래서 유드코스키는 인공지능의 개발을 당장 멈춰야 한다고 주장하고 있습니다.

 

 

 

유드코스키의 주장은 허무한 소설일 뿐이다?

 

여러분은 이분의 주장에 대해서 어떻게 생각하세요?

정말 유드코스키의 가설대로 전개된다면 영화 터미네이터의 이야기는 현실에서 그대로 재연될 것 같습니다. 정말 무서운 이야기입니다. 하지만 샘 올트먼 오픈AI 창업자나 AI 를 만드는 사람들은 엘리저 유드코스키가 말하는 ‘인류멸망론’에 대해서 가능성이 매우 낮다고 말합니다.

 

 

자, 이제 반론을 들어봅시다.

과거 오픈AI 에서 AI얼라인먼트를 담당했던 폴 크리스티아노는 엘리저 유드코스키는 AI를 얼라인먼트 시키는 것이 어렵다고 주장하지만 이는 충분히 가능한 일이다고 설명하고 있습니다. 그리고 마치 영화처럼 AI 가 세상을 멸망시킬 방법을 실행에 옮기는 것은 현실에서 일어날 가능성이 높지 않다고 주장했습니다. 엘리저 유드코스키가 실제 AI 를 만드는 과정을 디테일하게 알지 못하기 때문에 그렇게 생각하고 있다는 것입니다.

 

 

하지만 사람들은 유드코스키의 가설을 무시할 수는 없다고 말합니다.

그의 주장이 극단적이고 과장된 것 같긴 하지만 그래도 초지능 인공지능의 출현으로 인류의 미래가 위협받을 수 있는 가능성이 존재하긴 한다는 것입니다.

 

 

앞서 언급한 공개서한에 참여한 사람 중에는 딥러닝 분야 석학 중 하나인 요슈아 벤지오 몬트리올대 교수님이나 제프리 힌튼 교수님도 AI 의 위험성에 대한 언급을 한적이 있다고 합니다.

 

 

이러한 저명인사들이 대거 참여한 공개서한은 인공지능에 대한 정부의 규제가 본격적으로 시작되는 것이라고 볼수도 있습니다. 최근 전세계적으로 AI와 관련한 규제를 담은 입법화 과정이 진행중에 있습니다. 대표적으로 최근 이탈리아에서는 개인정보 보호를 이유로 챗GPT 의 사용을 금지했다고 합니다.

 

 

동전의 양면처럼 장단점이 있는 인공지능, 그리고 인공지능을 어떻게 활용할 것인가에 대한 윤리적인 문제도 반드시 고려해야 합니다. 이런말 들어보셨나요? 인공지능 자율주행차가 운행을 하다가 위험을 감지하고 방향을 틀어야만 하는 상황이 발생했는데, 왼쪽에는 성인이 오른쪽에는 청소년이 있었다고 가정합시다. 이 때 인공지능은 과연 어느 방향으로 틀어야 할까요? 이러한 애매한 상황에서 판단할 때 윤리적인 고민이 반드시 필요하다는 것입니다. 사회적 합의는 물론이구요.

 

2021.12.16 - 인공지능이 대중화되면 어떤 문제점이 나타날까? 인공지능이 불러올 실질적인 문제들

 

인공지능이 대중화되면 어떤 문제점이 나타날까? 인공지능이 불러올 실질적인 문제들

인공지능이 대중화되면 어떤 문제점이 나타날까? / 인공지능이 불러올 실질적인 문제들 지금 시대 산업과 관련환 최대의 이슈는 바로 4차 산업혁명이 아닐까 싶은데요. 4차 산업혁명을 대표하는

dreamingsnail.tistory.com

 

 

 

728x90

댓글

💲 추천 글