오픈AI가 챗GPT 첫선을 보인 지 아직 2년이 채 안됐습니다. 2022년 11월30일 처음 공개됐으니 이제 겨우 1년8개월차입니다. 그런데 그간 챗GPT가 얼마나 발전했는지를 돌이켜보면 깜짝 놀랄 만한 수준입니다. 이 속도라면 조만간 인간의 능력을 추월할 수 있을 듯합니다. 어쩌면 이미 인간의 능력을 초월한 듯합니다. 적어도 대형언어모델(LLM)에서는 말이지요. 인터넷 상의 모든 공개된 정보를 습득하고 전 세계 각국의 언어로 이야기할 수 있으니까요.
상황이 이렇다보니 ‘이러다가 AI가 인간을 지배하는 시대가 오는 것 아니야’ 하는 우려가 커지기 시작했습니다. 과거 ‘터미네이터’ 같은 영화를 거론하면서 그냥 농담삼아 하던 이야기가 최근에는 점점 진지하게 거론되고 있습니다.
인간과 AI의 공존에 관한 연구를 오랫동안 한 인물이 있습니다. 바로 세계적인 AI석학으로 손꼽히는 스튜어트 러셀(Stuart Russell) UC버클리 전기·컴퓨터공학과 교수입니다. 이번 지식인 코너에서는 바로 이 러셀 교수에 대해 이야기할까 합니다. 러셀 교수는 다가오는 9월 세계지식포럼에도 참여해 강연할 예정입니다. 아마도 구글 모기업인 알파벳의 인공지능 연구기업 딥마인드의 CIO(최고기술책임자) 릴라 이브라힘과 ‘인간과 AI가 어떻게 공존할 것인가’ ‘AI 윤리’에 대해서 대담할 것으로 보입니다.
러셀 교수는 2016년 ‘인공지능:현대적 접근방식’이라는 책을 냈습니다. 아직도 AI의 교과서라고 불리는 책입니다. 이 때만 하더라도 러셀 교수는 AI의 위험보다 효용성에 대해 훨씬 더 무게를 실은 것으로 보입니다. 그는 책과 당시의 강연에서 “특정 목표가 아닌 다양한 목표, 즉 범용 AI시대가 다가오고 있다”면서 “범용AI는 인간에게 실제로 많은 잠재력을 가져다 줄 수 있다”고 했습니다. 또 “인공지능 알고리즘이 개선되면서 사람들의 지식을 더 빠른 속도로, 또 효과적으로 학습하게 될 것이고 이는 인간에게 지금까지 제공했던 것 이상의 더 많은 혜택을 가져올 것”이라며 “질병, 빈곤 등 인류가 겪었던 문제 해결을 위한 용도로 사용 가능할 것”이라고 했습니다. 그리고 “인공지능의 학습 속도는 연구자들이 생각하는 것보다 더 빠를 수도 있다”고 진단했습니다.
이미 8년 전에 LLM 모델을 기반으로 한 범용AI의 탄생을 예견했으며, 학습을 통해 더 빨리 학습하는 지금과 같은 상황을 예상하고 있었던 셈입니다. 이 때에도 AI의 위험성에 대한 우려가 아주 없었던 것은 아니지만, 러셀 교수는 “최적화된 AI 알고리즘이 인간의 혜택과 합치되지 않을 때 문제가 발생할 수 있는 것은 사실”이라면서도 “AI 위험에 대한 논쟁은 실제보다 훨씬 과장돼 있고, 인간이 AI에 대해 두려워하는 것은 일부 마케팅에 이용당하고 있기 때문”이라고 했습니다.
시간이 흘러 5년이 지나고 2021년에 러셀 교수는 새로운 책을 하나 펴냅니다. ‘어떻게 인간과 공존하는 인공지능을 만들 것인가’라는 책입니다. 제목에서도 알 수 있듯이 이제는 AI의 목표와 인간의 혜택이 일치하지 않을 수 있다는 전제를 깔고 있습니다. AI의 위험 내지는 AI윤리에 대한 고민이 시작된 것으로 보이지요. |