누가 승리했느냐보다 중요한 것
2023년 11월 27일 월요일
지난주 세계를 뒤흔든 오픈AI 사태는 샘 알트먼이 CEO로 복귀하고, 새로운 이사진을 구성하는 것으로 일단락되었죠. 테크 업계에 속해 있지 않더라도 대부분의 사람들에게는 AI 개발에 대한 환기를 할 수 있는 시간이었고,  AI를 직접 개발하거나 이를 활용한 제품을 개발하는 모두가 업계의 미래 모습을 바꿀 수 있는 사건에 촉각을 곤두세우는, 올해가 얼마 안 남은 시점에서 터진 '올해의 사건'으로 기록할 일이었다고 할 수 있습니다.

사건 이후 곳곳에서 여진은 여전히 이어지는 중입니다. 대표적인 AI 과학자들인 제프리 힌튼(Geoffrey Hinton, AI의 위험성에 대해서 가장 크게 경고 중인, 얼마 전까지 구글의 AI 연구를 이끈 'AI의 대부'라고도 불림)과 얀 르쿤(Yann LeCun, AI는 안전하게 개발될 수 있다고 말하는, AI 개발을 옹호하는 메타의 수석 AI 과학자)도 엑스(구 트위터)에서 주말 동안 다시금 논쟁을 펼쳤고, 이들에 견주는 AI 석학인 앤드류 응(Andrew Ng)도 참전하면서 이들이 주장하는 바를 또 환기하는 계기가 되기도 했죠. 

앞으로도 AI 개발에 대한 우려는 일각에서 지속 제기될 것으로 보입니다. 하지만 이제 모두의 초점은 AI 개발의 속도가 과연 어찌 될 것인지로도 옮겨왔다고 봐도 무방합니다. 난데없이 이루어진 오픈AI 이사회의 샘 알트먼 축출 사태는 충분한 준비 없이 이루어졌고, 그들의 궁극적인 목적을 전혀 달성하지 못한 채 끝이 났죠. 오히려 이런 이들의 시도는 앞으로 샘 알트먼과 같이 AI 개발의 속도를 높이면서도 안전하게 개발하겠다는 논리를 더 강하게 만드는 결과를 가져왔습니다.

오늘은 이런 결과를 초래한 이번 사태에 일단은 마침표를 찍고 넘어가기에 좋은 칼럼이 있어 소개를 합니다. 커피팟에서도 때로 인용을 하는 테크 애널리스트인 베네딕트 에반스가 파이낸셜 타임스에 기고한 칼럼 <이번 전투에서 패배한 건 AI 파멸론자들이다>입니다. 일단 (전쟁(War)이 아니라) 전투(Battle)라고 표현을 했는데요.

현재 상황을 정리하고, 어떻게 이번 사태가 오픈AI를 넘어 전 업계의 AI 개발을 서두르게 만들 것인지에 대한 이야기를 전합니다. 대중들은 여전히 AI의 발전 정도를 모르는 상황이고, 무슨 일이 일어났는지도 여전히 추정이 되어야만 하는 상황인데, 한 가지 확실한 건 AI 개발만큼은 훨씬 더 빨라질 것이라는 것입니다.

개발을 옹호하는 사람들과 개발을 경계하는 사람들, 양쪽에서 수많은 논평이 쏟아졌습니다. 하지만 이번 사태를 객관적으로 바라보고 현재의 상황을 인지하기에 적합한 글이라 생각되어 전합니다.
대규모언어모델(LLM)은 우리가 하는 말을 실제로 '이해하는' 것일까요? 어쨌든 이런 공개적인 논쟁과 논의는 아주 중요하고, 지속되어야 할 것으로 보입니다.
+
이번 주에는 [키티의 빅테크 읽기]를 통해서도 '빅테크'인 오픈AI와 샘 알트먼을 앞으로 어떻게 바라봐야 하는지에 대한 인뎁스를 전합니다. 그리고 또 새로운 롱폼 아티클도 전해드립니다. 미래에 역사로 기록될 현재의 비즈니스 사건에 대한 이야기를 전하는데요. 역시 최근 일어난 사건을 토대로, 시장을 어떻게 바라봐야 하는지에 대한 소중한 시선을 담았어요. 재미와 유익함 보장합니다 :)

우선 내일은 정기 뉴스레터로 찾아올게요!
이번 전투에서 패배한 건 AI 파멸론자들이다
실패한 쿠데타는 보통 그들이 막으려던 것을 가속한다. 오픈AI 사태가 바로 이런 사례이다.
- 베네딕트 에반스 -
샘 알트먼은 오픈AI와 자신을 AI 개발의 상징으로 굳힌 (불과 11월 첫째 주의) 데브데이(DevDay) 때보다 강하게 돌아왔다.
지난주에 오픈AI의 이사회는 5일 동안 최종적으로 네 명의 CEO를 거쳤다. 이사회는 샘 알트먼이 거짓말을 했다고 의심했지만, 어떤 거짓말인지 혹은 거짓말을 했다는 것이 무슨 의미인지도 밝히지 않았다. 겉잡을 수 없이 커진 사태로 직원의 90% 이상이 샘 알트먼을 다시 데려오지 않으면 사임하겠다는 공개 서한에 서명했다. 실리콘밸리는 충격에 휩싸인 채 이 모습에 모두 집중했다. 하지만 결국 수요일에 알트먼이 돌아왔고, 세 명의 외부 이사 중 두 명이 교체되었고, 모두가 그제야 잠을 청할 수 있었다. 

오픈AI 이사회와 그 특이한 비영리와 영리 조직의 하위 분할 지배 구조가 목적에 부합하지 않기 때문에 이런 혼란이 일어났다고 말하기 쉬울 것이다. 또한 이번 일을 낸 외부 이사회 멤버들이 (추정) 900억 달러(약 117조 원) 규모의 회사를 감독할 적절한 배경이나 경험이 없다고 지적할 수도 있다. 오픈AI는 (어쨌든) 지금 세상에서 가장 주목 받는 기술 혁신의 방향을 이끄는 기업이기에 더욱 그렇다. 물론 누군가는 이보다 더 심한 말로 욕을 할 수도 있겠고, 그 말들이 다 사실일 수도 있다. 하지만 그것 역시 현재의 상황을 설명하기엔 부족하다.

우리가 알기로는 (사실 내가 이렇게 말해야 하는 사실 자체도 문제이다), 오픈AI 내부의 근본적인 갈등은 많은 사람들이 지적하고 실제로 지난해 동안 조롱해 온 것이기도 하다. 오픈AI는 인간 지능과 유사한 것, 소위 'AGI(Artificial General Intelligence)', 일반 인공 지능 개발을 하기 위해 설립되었다. AGI의 개발은 몇십 년이 아니라 이제 몇 년 안에 가능하다고 예상되고, 이는 매우 긍정적인 효과를 가져올 수도 있지만, 동시에 민주주의와 우리 사회 전반, 나아가 인류 자체에 매우 위험할 수도 있다고 우려된다.

오픈AI가 가진 이상한 조직 구조의 이유는 바로 이 위험을 통제하기 위해서이다. 알트먼은 이런 AI를 (역량이 닿는 한) 최대한 빠르게 개발하면서도, 이것이 매우 위험하다고 크게 자주 말하고 다녔다. 그리고 정부가 이를 구축하는 모든 시도를 통제하기 위해 개입해야 한다고까지 했다. 어느 쪽이 그의 진심일까?

테크 업계의 많은 사람들은 오픈AI가 이러한 우려를 제기하는 것이 경쟁자들을 의식한 것이라고 본다. 특히 (백악관이 지난달 발표한 AI 제재를 위한 행정 명령에도 포함된) 오픈소스 AI 모델에 대해서 그렇다. 사람들은 오픈AI가 정부들로 하여금 이런 경쟁을 차단하게끔 만들려는 의도가 있다고 보는 것이다.

사실일 수도 있다. 하지만 개인적으로 AGI의 완성이 가깝고 위험하다고 주장하는 사람들도 진실되었다고도 생각한다. 그리고 바로 그렇기에 그들이 이를 개발하려는 욕망은 그들의 그런 생각에 충돌한다고 생각한다. 이것이 오픈AI에서 일어난 일에 대한 가장 좋은 설명 같다. 조심스럽고 느리게 개발하고 싶어 하는 사람들이 조심스럽지만 빠르게 개발하려는 사람들을 상대로 쿠데타를 시도한 것이다.

AGI에 대해 논의할 때 문제와 갈등의 일부는 그것이 추상적인 개념이고, 명확한 혹은 이해가 잘 되는 이론적 모델이 없다는 점에서 기인하다. (1960년대 달 탐사를 위한) 미국의 아폴로 프로그램의 엔지니어들은 달이 얼마나 먼지, 로켓의 추력이 얼마나 되는지 알았지만, 우리는 AGI가 얼마나 멀리 있는지, 오픈AI의 대규모언어모델이 얼마나 그에 가까운지, 그것이 그곳에 도달할 가능성이 있는지도 알지 못한다.

머신러닝 과학자들이 이에 대해 논쟁하는 영상을 몇 주 동안 봐도 그들도 모른다는 결론을 내릴 수 있다. 챗GPT는 5년 후나 50년 후에 터미네이터로 확장될 수도 있고, 아니면 전혀 그렇지 않을 수도 있다. 이것은 1920년대의 비행기를 보고 그것이 궤도에 진입할까 걱정하는 것과 같을 수 있다. 우리는 (아직 아무것도) 모른다.

이런 사실은 AI 위험에 대해 논하는 대화의 대부분을 은유를 찾는 사냥으로 만들어 버린다('핵무기'나 '(지구를 향하는 거대한) 운석', 혹은 ‘아폴로 프로그램’과 같다고 말하는 것이다). 또는 잊혀진 대학 철학 수업을 끄집어내거나(“파스칼의 내기!”, “플라톤의 동굴!”), 권위에 의한 논쟁으로 돌아가기도 한다(제프리 힌튼(Geoffrey Hinton)이 걱정하고 있다! 얀 르쿤(Yann LeCun)은 그렇지 않다!). 결국, 이것은 내가 본능적으로 위험에 대해 어떻게 느끼는지에 달려있다. 무엇이 가까워졌는지 알 수 조차 없다면, 그것이 걱정해야 할 이유인가, 아니면 걱정하지 않아도 될 이유인가? 정답은 없다.

불행히도 '파멸론자들'에게는 지난주의 사건들이 모든 것을 더 빨리 진행시켰다. 이제 사임한 이사 중 한 명은 오픈AI를 폐쇄하는 것이 그들의 임무와 일치한다고 말했다(안전이 최우선이므로). 그러나 오픈AI의 API(응용 프로그래밍 인터페이스)를 기반으로 AI 기반 제품을 구축하고 있던 수백 개의 회사들은 대안을 찾기 위해서도 분주하다. 시장의 오픈AI 경쟁자들로부터 뿐만 아니라 아무도 통제하지 않는, 그리고 계속 증가 중인 오픈소스 프로젝트들로부터도 말이다. AI는 이제 더 빠르게 움직이고 더 분산되며 덜 통제될 것이다. 실패한 쿠데타는 종종 그들이 막으려고 했던 것을 가속한다.

파멸론자들에 대한 일반적인 비판은 강력한 소프트웨어 하나와 몇몇 뛰어난 엔지니어들이 세상을 변화시킬 수 있다는 그들의 생각이 순진하고 단순한 기술 유토피아주의의 또 다른 형태라는 것이다. 이들의 이런 생각은 권력과 복잡성 그리고 인간 시스템의 실제 모습을 이해하지 못한 것이다. 

오픈AI 이사회의 파멸론자들은 정확히 이런 모습을 보여주었다. 그들은 권력이 어떻게 작동하는지 전혀 이해하지 못했다.
  오늘 커피팟 어땠나요?


good@coffeepot.me

© COFFEEPOT 2023


구독자 정보 혹은 구독 상태 변경을 원하신다면