챗GPT는 우리 삶을 뒤집어 놓을까요?
지금을 읽고 싶은 사람들의 미디어 이야기, 어거스트

안녕하세요! 오늘의 에디터 찬비입니다.


새해의 버즈워드는 역시 챗GPT(ChatGPT)와 생성형 AI입니다. 챗GPT는 놀라운 성능으로 출시된지 두 달도 되지 않아 '구글이 끝났다'는 기사가 발행되고, 올해의 기술은 (다시) AI가 될 것이라는 예측 나올 정도로 반응이 뜨겁습니다. 하지만 벌써부터 일부 기기에서는 챗GPT 사용을 금지하기도 하는 등 우려하는 목소리도 들려오고요.


오늘은 챗GPT와 이를 둘러싼 하입(hype)을 살펴봅니다.

👋 오늘의 에디터 : 찬비
비록 아직 챗GPT가 레터를 대신 써줄 순 없지만 . . .
오늘의 이야기
1. 챗GPT가 그렇게 대단해?
2. 열광과 우려가 동시에
3. GPT-4를 맞이하는 우리의 자세

🙄 챗GPT가 그렇게 대단해?

지난해 11월 30일, 오픈AI(OpenAI)가 새로운 챗봇인 챗GPT를 대중에게 무료로 공개한 후, 빠르게 사람들의 반응을 얻고 있습니다. 오픈AI의 CEO인 샘 알트먼은 트위터를 통해 공개 5일 만에 사용자 수가 백만 명을 돌파했다고 알리기도 했는데요, 아마 여러분 중에서도 이미 써보신 분들도 있으실 거예요. (혹시 아직이라면 여기에서 가입 후 테스트해볼 수 있어요!)

(출처: 오픈AI 블로그)

챗GPT는 2020년에 공개돼 놀라운 성능으로 화제를 모았던 GPT-3와 거의 비슷한 GPT-3.5를 기반으로 하고 있는데요, GPT-3.5는 GPT-3와 성능은 거의 유사하지만 농담을 하는 등 사람과 더 자연스럽게 대화할 수 있도록 개량되었다고 해요. 챗GPT로는 크게 네 가지를 할 수 있습니다.


  • 특정 개념 설명하거나 자료 요약하기 (예: 양자역학에 대해 간단히 설명해줘)
  • 아이데이션 (예: 10살 아이를 위한 생일파티에 무얼 하면 좋을까?)
  • 프로그래밍에 도움받기 또는 코드 에러 수정하기
  • 콘텐츠 생성하기


챗GPT가 공개된 직후 트위터를 비롯한 각종 SNS에서는 다양한 챗GPT 활용 케이스가 공유되었어요. 하이쿠를 짓기도 하고, 내가 짠 코드의 에러를 찾아주기도 하고, 특정 유명인의 말투로 이야기하기도 하고, 특정 증상을 쓰면 맞는 진단을 해주기도 하더라고요. 그중 제가 재미있게 보았던 것 중 하나는 해리포터 텍스트 게임! 해리포터를 배경으로 하고, 4가지 선택권을 줄 수 있도록 게임을 만들어보라는 지령에 따라서 아래처럼 챗GPT가 바로 만들어주었다고요. 정말 세상 참신하지 않나요.

(출처: 트위터)

챗GPT 공식 사이트에 따르면 챗GPT의 중요한 특징이자 강점 중 하나는 연속성이에요. 이전에 했던 질문을 기억할 수 있고, 추가 질문을 하게 되면 이전의 답변을 수정/개량할 수도 있습니다. 또한 안전성에도 신경을 많이 썼습니다. 부적절한 질문을 하는 경우 (사용자를 혼내면서까지) 답변을 거부하고, 정치적인 질문에는 의견을 제시하지 않도록 훈련된 것으로 보여요.


그럼에도 모델이 완전하진 않아서 다양한 제한점과 문제점이 이야기되는데요, 가장 치명적인 단점은 그럴듯하지만 틀린 답변을 하기도 한다는 거예요. 챗GPT의 답변에 출처 같은 것이라도 달려있으면 구별하기 편할 텐데, 현재는 학습에 사용한 데이터에 소스가 따로 명시되지 않았기 때문에 당장 개선하긴 어려운 문제라고 해요. 또한 현재 모델은 2022년 초에 학습이 끝난 GPT-3.5를 기반으로 하고 있기 때문에 실시간 정보를 반영하지 못하기도 하고, '부적절한 질문'을 우회적으로 하면 결국 미처 검열하지 못한 편견과 고정관념을 드러내기도 한다네요. (한국어는 시간도 오래 걸리고 좀 부족하기도 하고요.)

(출처: ChatGPT)
모델을 사용하기 쉽고 무료인 웹 인터페이스로 제공한 것은 위와 같은 제한점을 파악하고 개선하기 위해서입니다. 어떤 부분에서 모델이 미진한지, 그리고 어떻게 사람들이 악용할 수 있는지를 파악하기 위해서요. 무료이고 쉽기 때문에 사람들 역시 빠르게 반응했던 것 같고요. 대중에게 오픈하는 것에 대한 비용은 상당한 것으로 알려져 있는데요, 한 쿼리당 2센트가량으로 예측된다고요. (현재는 백만 명을 훌쩍 넘은 사람들이 사용하고 있을 텐데, 그럼 한 사람당 10개씩만 쿼리를 날린다고 생각해도 🤔)

챗GPT를 공개한 오픈AI는 ‘범용인공지능(AGI)이 인류에게 이익이 되도록’ 하는 것을 목표로 하는 AI 연구 스타트업입니다. 국내에는 일론 머스크가 초기 투자한 것으로 더 많이 알려졌지만, Y 콤비네이터(Y Combinator)의 전 CEO였던 샘 알트먼이 현재 CEO를 맡고 있습니다. 


구글 딥마인드의 연구원 리처드 서튼은 “지난 70년간의 AI 연구에서 얻은 가장 큰 교훈은 컴퓨팅 자원을 활용하는 것이 가장 효과적이며 성과에 큰 차이를 낸다는 것"이라고 이야기하기도 한 만큼 현재의 AI 모델은 크기를 키우는 것이 매우 중요해요. 오픈AI 역시 2018년부터 GPT(Generative Pre-trained Transformer)라는 언어모델을 차근차근 한 걸음씩 성장시켜왔습니다. 매개변수가 1억 1,700만 개 규모였던 GPT-1은 2019년 공개된 GPT-2에서 15억 개로 증가했고, 2020년 GPT-3에서는 100배 증가한 1,750억 개가 되면서 그만큼 퀄리티도 훨씬 높아졌다고 해요. 


그리고 GPT-3.5 기반인 챗GPT는 사람들의 피드백을 활용한 강화학습(Reinforcement Learning from Human Feedback)의 방식을 사용했습니다. 먼저 AI 트레이너가 작성한 '사람들의 질문-AI의 답변 데이터'를 기존 데이터와 합쳐서 모델이 대화 형식으로 이야기하도록 파인튜닝했고, 모델이 생성한 여러 답변에 대해 AI 트레이너가 매긴 순위를 보상모델로 활용했다고 합니다. 심플하게 들릴 수도 있지만 “실제로 유의미한 성능 증가를 이루어 낼 스케일의 데이터를 생성하려면 꽤나 많은 리소스가 투입되었을 것"이라고 합니다.


오픈AI는 텍스트 모델인 GPT 외에도 이미지 모델인 DALL-E(달리) 역시 보유하고 있는데요, 작년에는 달리 2를 필두로 다양한 이미지 생성 AI가 공개되어 화제를 모으기도 했어요. 미드저니 인공지능연구소에서는 미드저니를, 스테빌리티AI에서는 스테이블 디퓨전을 공개했죠. 가입만 하면 각 서비스를 누구든 사용할 수 있게 되면서 이미지 생성 기술이 보편화되어 버렸습니다. 실질적인 유용성이 없어 멀게만 느껴졌던 메타버스, 블록체인, 크립토와 같은 기술과는 달리 AI는 이제 손에 잡힐 만큼 가까워져 버렸고, 그래서 2023년에 주목할 기술이 AI라는 이야기가 계속 나오고 있는 거죠.


이미 오픈AI는 2019년에 마이크로소프트로부터 10억 달러를 투자받았었는데요, 이번에 추가로 100억 달러를 투자하겠다는 제안을 한 것으로 알려졌어요. MS 오피스와 검색엔진 Bing 등에 챗GPT를 탑재하는 것을 고려하고 있다고도 하고요. 오픈AI 외에도 생성형 AI에 대한 투자사들의 관심이 높아지는 추세라고 합니다.

🧐 열광과 우려가 동시에

구글과 메타도 계속해서 언어모델을 개발해오고 있었어요. 하지만 안전성과 같은 이슈로 모델을 공개하지 않아서 챗GPT 수준의 관심을 받지 못했습니다. 구글은 언어모델 람다(LaMDA)를 개발하고 있지만, 작년에 람다가 살아있다는 주장하는 직원을 해고하는 이슈를 포함한 안전성 문제로 아직 공개하지는 못했습니다. 메타 역시 챗GPT 공개 며칠 전에 갈락티카(Galactica)라는 과학적 지식을 제공하는 모델을 공개했지만, ‘소련이 최초로 곰을 우주에 보내는 데에 성공했다'는 허위 사실을 주장하는 논문을 쓰고, 인종차별적 표현이나 음모론에 가까운 정보를 산출한다는 비판을 받자 바로 데모를 중단했고요. 성능도 안전성도 어느 정도 이상인 챗GPT의 공개는 분명 크게 열광할 만한 일이 확실합니다.

(출처: 인디펜던트)

챗GPT가 가져올 가장 커다란 변화로 예측되는 것은 검색 인터페이스예요. 인디펜던트지에서는 ‘구글은 끝났다(Google is done)’이라는 자극적인 제목과 함께 챗GPT가 구글의 검색엔진 서비스를 대체할 수도 있을 것이라는 예측을 하기도 했어요. 지금까지는 키워드를 입력하고 결과로 나열된 웹페이지를 클릭해 필요한 정보를 찾아야 했다면 이제는 대화를 통해서 원하는 정보를 직접 얻는 형식으로 검색할 수도 있다는 거예요. 거기에 챗GPT는 앞에 검색한 내용을 기억해 다음 답변에도 반영할 수 있기 때문에 사용자의 의도를 더 잘 유추할 수도 있는 거죠.


직접 저격당한 구글 역시 위기감을 느끼고 있다고 해요. 뉴욕타임스에 따르면 구글의 모회사 알파벳의 CEO 순다르 피차이가 ‘코드 레드'를 선언하고 챗GPT의 잠재적 위험을 해결하라는 지시를 내렸다고요. 디인포메이션은 구글이 챗GPT에 대응하기 위해 구글이 링크를 표시하는 대신 산문으로 응답하는 기능을 도입하리라 전망하기도 했어요.


비슷하게 AI를 도입한 검색엔진들도 하나둘 등장하고 있어요. 전 구글 임원이었던 스리드하르 라마스와미가 창립한 구독 검색엔진 니바(Neeva)는 지난 6일, 니바AI(NeevaAI)를 미국 내에서 오픈한다고 발표했어요. GPT-3를 기반으로 하는 이 서비스는 현재 챗GPT의 문제점인 출처의 문제와 실시간이 아닌 점을 모두 해결했다고 이야기합니다. perplexity.ai 역시 검색 결과를 요약해 제시하고, 출처를 통해 내용의 진위를 확인할 수 있게 했어요. 챗GPT의 등장으로 검색 인터페이스가 큰 영향을 받게 될 것으로 보입니다.

(출처: perplexity.ai)

챗GPT에 대한 열광이 큰 만큼 우려도 상당한데요, 학생들이 각종 리포트와 과제에 챗GPT를 쓰는 케이스가 증가하면서 교육적인 면에서의 문제가 가장 먼저 불거졌습니다. 예를 들어 ‘챗GPT가 우리 삶에 미칠 영향'에 대한 에세이를 써오라는 과제를 받았다면, 챗GPT 이전의 우리는 온라인에서 검색하고, 신뢰할 수 있는 웹페이지를 찾아 내용을 읽고, 그것을 내 언어로 정리해서 썼을 거잖아요? 지금은 그냥 챗GPT에게 써달라고 하면 간단히 해결되는 거예요. 신뢰도를 판단하는 것, 글을 읽고 이해하는 것, 이해한 정보를 나의 언어로 정리하는 것을 할 필요가 없게 되어버리는 거죠.


동시에 챗GPT가 주는 결과물이 정확하지도, 완전하지도 않다는 문제점도 있죠. 뉴욕시에서는 학교 기기와 네트워크에서 챗GPT 사용을 금지해버렸어요. ‘학생들의 학습에 부정적인 영향을 주며, 안전성과 내용의 정확성에 대한 우려가 있다'는 이유에서요. 미국 개발자들의 지식인과 같은 플랫폼인 스택 오버플로우(Stack Overflow)에서는 챗GPT를 활용해 불완전하거나 틀린 답을 입력하는 사용자들이 늘어나자 챗GPT를 활용한 답변을 입력한 사용자를 일시적으로 제재하기도 했어요.

(출처: Unsplash)  

만약 챗GPT의 사용이 좀 더 보편화된다면 어떨까요? 어떤 글을 AI가 썼고, 어떤 글을 진짜 사람이 썼는지 모르게 된다면요? CNET에서는 지난 11월부터 AI가 작성한 기사를 최소 73개 발행한 것으로 밝혀졌어요. 기사의 하단에는 작은 글씨로 ‘AI가 작성을 도왔으며 사람 에디터가 팩트체크 및 편집을 했다'라고 적혀있다고 해요. 발행된 73개의 콘텐츠는 CNET의 주요 기사는 아니고 금융 관련 주제를 설명하는 콘텐츠(explainer)라고 하는데요, 구글에서 사람들이 많이 검색하는 키워드를 담고 있다고 해요. 주요 목적은 같은 페이지에 달아둔 광고를 노출하는 것이고요. 


플랫포머의 캐이시 뉴튼은 우리가 앞으로 이런 애매한 콘텐츠를 자주 접하게 될 수 있다고 이야기합니다. AI가 어느 정도 그럴듯하게 작성한 글을 사람이 조금 편집하거나 거의 손대지 않는 글이요. 관련한 규제 같은 것이 생기지 않는 이상 이 글이 AI가 작성했는지 사람이 작성했는지도 모르게 될 거예요. CNET의 콘텐츠는 효율적이고 정확하게 독자의 궁금증을 해소하면서 제휴 링크를 노출하는 데에만 쓰이고 있는데요, 만약 실제로 어떤 의도를 가지고 콘텐츠를 양산하게 된다면 어떨까요? 예를 들면, 러시아가 미국 대선에 개입했듯이 말이에요.


스탠포드 인터넷관측소와 조지타운 대학교의 보안 및 신흥 기술 센터에서 공개한 논문에서는 언어모델을 활용해서 선전 작업을 할 때의 영향을 예측했어요. 핵심은 이거예요: 훨씬 더 낮은 비용으로 작업할 수 있게 되면서 더 많은 사람들이 더 다양한 방식을 활용해 효과적인 선전 작업이 가능해질 것이라는 것. 최악의 시나리오에서는 SNS를 비롯한 온라인에 허위 정보나 음모론을 퍼뜨리는 봇들이 너무 많아져서 어떤 정보도 믿지 않는 상황이 올 수도 있다고 이야기하고 있습니다.

🤓GPT-4를 맞이하는 우리의 자세

언어 모델은 앞으로 계속 점점 더 놀라워질 거예요. 일단 오픈AI는 GPT-4를 조만간 공개할 것으로 알려져 있어요. GPT-4의 경우, 매개변수가 1조 개 이상이 될 것으로 알려져 있는데요, 현재의 챗GPT도 놀라운데 GPT-4가 등장하면 얼마나 더 놀라운 일들을 해낼 수 있을지 궁금합니다.


하지만 GPT-4를 맞이하기 전에 우리는 어떻게 해야 할까요? 위에서 이야기한 수많은 우려와 아포칼립스 시나리오를 어떻게 하면 방지할 수 있을까요? 일단, 이에는 이, 눈에는 눈과 같은 느낌으로 AI가 생성한 콘텐츠인지 여부를 판단하는 모델들이 등장하고 있어요. 하지만 이런 탐지 모델도 계속해서 발전해야 짚어낼 수 있겠죠.


하지만 무엇보다 플랫폼에서 AI가 만든 콘텐츠에 대해 어떻게 할 것인지에 대한 정책적인 논의가 필요해요. 사람만 이용할 수 있도록 별도의 제한을 둘 것인지, AI가 쓴 텍스트에는 AI가 썼다고 표시해두어야 할지, AI가 만들었다는 것을 숨기는 웹페이지로의 연결을 막을 것인지 등에 대해서 논의해야죠. 텍스트는 길이가 짧을수록 AI가 생성한 콘텐츠인지 알 수 없기 때문에 어쩌면 플랫폼과 오픈AI가 협업을 통해서 AI가 생성했는지 여부를 판단해야 할 수도 있습니다. 


그리고 (예상하셨겠지만) 미디어 리터러시 교육이 더욱 중요해집니다. 미디어 리터러시를 높이기 위해서는 교육하는 방식 역시 크게 변해야 할 수 있어요.칼럼에서 체리 쉴즈 선생님은 기술을 막는 것보다는 기술을 제대로 이용하는 법을 가르치는 것이 훨씬 중요하다고 이야기해요. 마치 구글이 등장하면서 구글에서 잘 검색하는 방법을 가르쳤듯이 학생들이 AI 모델을 잘 활용하고, 더 깊게 탐구할 방법을 고민해 가르쳐야 한다고요.


앞으로도 기술은 더 빨리 변하고 발전할 거예요. 새로운 기술을 금방 익히고 써먹는 것만큼이나 어떻게 해야 '잘' 이용할 수 있는지를 고민하는 것도 중요해지는 것 같아요. 우려하는 점을 한 바닥이나 써버렸지만 전 사실 올해 연말이 기대돼요. 챗GPT가 결국 우리의 삶을 얼만큼 바꾸었을지, 연초와 달리 연말에는 전혀 다른 방식으로 정보를 습득하고 있을지 궁금하네요. 

 💭  오늘의 콘텐츠 추천

캐나다 체크인 | 어색해보이던 공손, 인숙의 목소리에…

에디터 <찬비>의 코멘트

저의 요즘 토요일 루틴 중 하나는 ⟪캐나다 체크인⟫ 보면서 눈물 찔끔 흘리기예요. ⟪캐나다 체크인⟫은 ⟪서울체크인⟫의 속편 같은 시리즈로, 이효리님과 함께 봉사해온 고인숙님 두 분이 캐나다로 입양 보냈던 강아지들을 만나러 떠난 로드트립을 담은 프로그램이에요. 1-2년 만에 다시 만나서 기억 못 할 법한데도 뚱하던 강아지들이 갑자기 기억하고 꼬리를 세차게 흔들며 다가가서 뽀뽀하는 모습을 보면 감동하지 않을 수 없고, 단순히 여행하려고 갔으면 가지 않았을 아름다운 캐나다 서부를 보는 맛도 쏠쏠합니다.


이 클립 찾으려고 유튜브를 보다가 발견한 댓글에 따르면, 캐나다로 우리나라 강아지들이 많이 입양되는 이유가 캐나다 안에서는 유기견이 거의 없기 때문이래요. 입양할 때도 마당은 있는지, 강아지를 계속 보살필 수 있는지를 엄격하게 확인하고 입양하게 된다고요. 강아지들이 버려지지 않는 세상이 왔으면 좋겠다는 소망을 해보았습니다. 그리고 곧 미국이나 캐나다에 갈 일이 있으시다면 ⟪캐나다 체크인⟫을 보시고, 강아지 이동봉사를 하시는 것도 추천해 드려요!

☕️ 오늘의 레터가 좋았다면 커피값 후원하기
💌 오늘의 레터를 피드백해주세요! 
💜  어거스트 구독하 : 어거스트 구독 링크를 복사해 친구들에게 알려주세요!
💌  협업문의  augustletter08@gmail.com
Edited by  Zoe • 한새벽 • 구현모 • 후니 • 찬비 • 구운김 • 식스틴 • Friday
Copyright © AUGUST All rights reserved. 수신거부