지난주에 오픈AI의 이사회는 5일 동안 최종적으로 네 명의 CEO를 거쳤다. 이사회는 샘 알트먼이 거짓말을 했다고 의심했지만, 어떤 거짓말인지 혹은 거짓말을 했다는 것이 무슨 의미인지도 밝히지 않았다. 겉잡을 수 없이 커진 사태로 직원의 90% 이상이 샘 알트먼을 다시 데려오지 않으면 사임하겠다는 공개 서한에 서명했다. 실리콘밸리는 충격에 휩싸인 채 이 모습에 모두 집중했다. 하지만 결국 수요일에 알트먼이 돌아왔고, 세 명의 외부 이사 중 두 명이 교체되었고, 모두가 그제야 잠을 청할 수 있었다.
오픈AI 이사회와 그 특이한 비영리와 영리 조직의 하위 분할 지배 구조가 목적에 부합하지 않기 때문에 이런 혼란이 일어났다고 말하기 쉬울 것이다. 또한 이번 일을 낸 외부 이사회 멤버들이 (추정) 900억 달러(약 117조 원) 규모의 회사를 감독할 적절한 배경이나 경험이 없다고 지적할 수도 있다. 오픈AI는 (어쨌든) 지금 세상에서 가장 주목 받는 기술 혁신의 방향을 이끄는 기업이기에 더욱 그렇다. 물론 누군가는 이보다 더 심한 말로 욕을 할 수도 있겠고, 그 말들이 다 사실일 수도 있다. 하지만 그것 역시 현재의 상황을 설명하기엔 부족하다.
우리가 알기로는 (사실 내가 이렇게 말해야 하는 사실 자체도 문제이다), 오픈AI 내부의 근본적인 갈등은 많은 사람들이 지적하고 실제로 지난해 동안 조롱해 온 것이기도 하다. 오픈AI는 인간 지능과 유사한 것, 소위 'AGI(Artificial General Intelligence)', 일반 인공 지능 개발을 하기 위해 설립되었다. AGI의 개발은 몇십 년이 아니라 이제 몇 년 안에 가능하다고 예상되고, 이는 매우 긍정적인 효과를 가져올 수도 있지만, 동시에 민주주의와 우리 사회 전반, 나아가 인류 자체에 매우 위험할 수도 있다고 우려된다.
오픈AI가 가진 이상한 조직 구조의 이유는 바로 이 위험을 통제하기 위해서이다. 알트먼은 이런 AI를 (역량이 닿는 한) 최대한 빠르게 개발하면서도, 이것이 매우 위험하다고 크게 자주 말하고 다녔다. 그리고 정부가 이를 구축하는 모든 시도를 통제하기 위해 개입해야 한다고까지 했다. 어느 쪽이 그의 진심일까?
테크 업계의 많은 사람들은 오픈AI가 이러한 우려를 제기하는 것이 경쟁자들을 의식한 것이라고 본다. 특히 (백악관이 지난달 발표한 AI 제재를 위한 행정 명령에도 포함된) 오픈소스 AI 모델에 대해서 그렇다. 사람들은 오픈AI가 정부들로 하여금 이런 경쟁을 차단하게끔 만들려는 의도가 있다고 보는 것이다.
사실일 수도 있다. 하지만 개인적으로 AGI의 완성이 가깝고 위험하다고 주장하는 사람들도 진실되었다고도 생각한다. 그리고 바로 그렇기에 그들이 이를 개발하려는 욕망은 그들의 그런 생각에 충돌한다고 생각한다. 이것이 오픈AI에서 일어난 일에 대한 가장 좋은 설명 같다. 조심스럽고 느리게 개발하고 싶어 하는 사람들이 조심스럽지만 빠르게 개발하려는 사람들을 상대로 쿠데타를 시도한 것이다.
AGI에 대해 논의할 때 문제와 갈등의 일부는 그것이 추상적인 개념이고, 명확한 혹은 이해가 잘 되는 이론적 모델이 없다는 점에서 기인하다. (1960년대 달 탐사를 위한) 미국의 아폴로 프로그램의 엔지니어들은 달이 얼마나 먼지, 로켓의 추력이 얼마나 되는지 알았지만, 우리는 AGI가 얼마나 멀리 있는지, 오픈AI의 대규모언어모델이 얼마나 그에 가까운지, 그것이 그곳에 도달할 가능성이 있는지도 알지 못한다.
머신러닝 과학자들이 이에 대해 논쟁하는 영상을 몇 주 동안 봐도 그들도 모른다는 결론을 내릴 수 있다. 챗GPT는 5년 후나 50년 후에 터미네이터로 확장될 수도 있고, 아니면 전혀 그렇지 않을 수도 있다. 이것은 1920년대의 비행기를 보고 그것이 궤도에 진입할까 걱정하는 것과 같을 수 있다. 우리는 (아직 아무것도) 모른다.
이런 사실은 AI 위험에 대해 논하는 대화의 대부분을 은유를 찾는 사냥으로 만들어 버린다('핵무기'나 '(지구를 향하는 거대한) 운석', 혹은 ‘아폴로 프로그램’과 같다고 말하는 것이다). 또는 잊혀진 대학 철학 수업을 끄집어내거나(“파스칼의 내기!”, “플라톤의 동굴!”), 권위에 의한 논쟁으로 돌아가기도 한다(제프리 힌튼(Geoffrey Hinton)이 걱정하고 있다! 얀 르쿤(Yann LeCun)은 그렇지 않다!). 결국, 이것은 내가 본능적으로 위험에 대해 어떻게 느끼는지에 달려있다. 무엇이 가까워졌는지 알 수 조차 없다면, 그것이 걱정해야 할 이유인가, 아니면 걱정하지 않아도 될 이유인가? 정답은 없다.
불행히도 '파멸론자들'에게는 지난주의 사건들이 모든 것을 더 빨리 진행시켰다. 이제 사임한 이사 중 한 명은 오픈AI를 폐쇄하는 것이 그들의 임무와 일치한다고 말했다(안전이 최우선이므로). 그러나 오픈AI의 API(응용 프로그래밍 인터페이스)를 기반으로 AI 기반 제품을 구축하고 있던 수백 개의 회사들은 대안을 찾기 위해서도 분주하다. 시장의 오픈AI 경쟁자들로부터 뿐만 아니라 아무도 통제하지 않는, 그리고 계속 증가 중인 오픈소스 프로젝트들로부터도 말이다. AI는 이제 더 빠르게 움직이고 더 분산되며 덜 통제될 것이다. 실패한 쿠데타는 종종 그들이 막으려고 했던 것을 가속한다.
파멸론자들에 대한 일반적인 비판은 강력한 소프트웨어 하나와 몇몇 뛰어난 엔지니어들이 세상을 변화시킬 수 있다는 그들의 생각이 순진하고 단순한 기술 유토피아주의의 또 다른 형태라는 것이다. 이들의 이런 생각은 권력과 복잡성 그리고 인간 시스템의 실제 모습을 이해하지 못한 것이다.
오픈AI 이사회의 파멸론자들은 정확히 이런 모습을 보여주었다. 그들은 권력이 어떻게 작동하는지 전혀 이해하지 못했다.
|