어제 오후에는 AI계의 석학인 서울대 한보형 교수님을 만나 인터뷰를 할 수 있는 시간을 가졌어요. 한 교수님은 서울대 컴퓨터 비전연구실에서 컴퓨터 비전과 로봇비전에 대한 연구를 하고 계시는데요. 올해 불어 닥친 인공지능 트렌드에 대해서 많이 여쭤볼 수 있었어요. 짧고 굵게 소개를 해드릴게요.
😀 안녕 하세요! 연구자들이 요즘에는 어떤 인공지능 영역에 관심이 많나요.
👨🏻🦱 많은 연구자들이 초거대 인공지능을 만드는데 관심이 많아요. 인공지능 초창기에는 특정 문제를 풀려고 할 때만 학습을 시켰는데요. 그 단계를 지나자 적당히 큰 모델을 만들어 학습을 시켰죠. 또 이를 전이학습 (부족한 데이터를 보완하고자, 특정 분야에 훈련시킨 인공지능을 다른 분야에 투입하는 것)시켜 최적화하는데 집중을 했었어요.
🤔 그러면? 요즘에는 어떤가요?
👨🏻🦱 요즘에는 모든 종류의 데이터를 집어넣어도 학습이 되는 범용 인공지능을 만들려는 움직임이 매우 활발해요. 당연히 더 많은 데이터를 입력하면 학습 효과가 좋겠죠? 하지만 이런 움직임 반대편에는 이제 인공지능이 당초 원하는 대로 학습이 된 것인지 분석하는 분야가 부상하고 있어요. 이를 통해 학습을 시키더라도 미니멀 하게 하는 것이죠. (비용과 효율을 고려!)
🤔 음...장점과 단점은 무엇일까요?
👨🏻🦱 사실 초거대 인공지능은 성능이 좋겠죠? 하지만 만약에 학습을 하고자 한 의도대로 안 됐으면 어떻게 될까요. 요즘 연구들을 살펴 보면 실험으로는 좋은 결과 값을 얻었지만, 인과 관계가 명확치 않은 것이 종종 있어요.
📙 용어: 초거대 인공지능
인간의 뇌를 모방한 인공지능이에요. 대용량 연산이 가능한 컴퓨팅 인프라를 토대로 스스로 데이터를 학습하고 판단하는 인공지능을 가리켜요. 인공지능을 학습시키는 매개변수가 천억 단위가 넘어가고, 운용하는데 일반 서버 약 3000대를 사용하는 전력이 필요한 것으로 알려져 있어요.
🤔 그럼 교수님은 어떤 연구에 관심이 많나요.
👨🏻🦱 가장 좋은 것은 이론적으로 견고하면서도 한편으로는 실용적인 것이겠죠? 그래서 모델 컴프레션(compression)에 관심이 많아요. 즉 작은 모델로 큰 모델과 유사한 성능을 낼 수 있는지 따져보는 것이죠. 컴퓨터 비전을 완벽하게 구사하는 방안도 연구 중입니다. 사람의 눈은 완벽하지 않잖아요? 예를 들어 착시 같은 것도 있을 수 있고요. 인공지능도 마찬가지거든요.
😂 좀 더 구체적으로 예를 들어주실래요?
👨🏻🦱 음... 자율주행 차에 달린 카메라가 무엇인가를 찍는다고 해볼게요. 만약에 움직임인 모션이 많거나 해서 오류가 있다고 하면 어떨까요. 자율주행 차는 안전을 위해 충분히 안전하게 운행을 해야겠죠? 때문에 보다 완벽한 인공지능을 만드는 것이 중요해요.
😂 들어도 어려운 말씀인 것 같아요.
👨🏻🦱 그럼 반도체를 예를 들어볼게요. 만약에 반도체의 오류를 잡는 인공지능이 있다면, 당연히 질 좋은 사진 정보가 있다면 금상첨화겠죠. 하지만 질 좋은 사진을 인공지능에 쓰려면 막대한 비용이 들어요. 그래서 오늘날 비전 시스템은 적정 수준에서 효율적으로 경제적인 효과를 함께 주는 것이 목표에요.
🤔 다른 질문을 할께요. 학생들이 관심 많은 영역이 있을까요?
👨🏻🦱 이미지 생성에 대해 학생들이 관심이 많아요. 대표적인 것이 디퓨전(확산) 모델이에요. 하얀 종이에 무엇인가를 그려나간다고 해보면, 처음 그리는 것처럼, 노이즈가 있는 상태에서 시작해 이미지를 계속 정교화 하는 것이 디퓨전 모델이인데요.
🤔 좀 더 말씀을 해주세요.
👨🏻🦱 쉽게 말해 백지에서 한 그림을 그리는 과정을 1000개의 과정으로 나눠 그린다면 쉬워요. (오른쪽에 나무가 있고 사과가 달려 있는데 나무 아래에는 강아지가 있다고 한다면, 이를 1000번에 걸쳐 나눠서 그리는 것이죠. 그만큼 가능성이 많다보니 결과 값이 다양하게 나타나요.) 현재는 인공지능이 중간 중간에 어떤 그림을 그리는지 확인하고 있어요.
👨🏻🦱 만약에 다양성(diversity)인 다이버시티를 줄인다면 그림 숫자는 줄겠지만 속도는 빠르죠? 이런 과정에서 중간에 나오는 그림들을 확인을 해봤어요. 오른 쪽을 보는 얼굴이라고 입력했는데 중간 과정에서는 정면을 보는 얼굴을 인공지능이 그리더라고요. 보다 적확하게 필요한 것만 그릴 수 있을 정도로 다양성을 줄인다면 비용을 크게 절약할 수 있을 것 같아요.
🤫 현실 세계의 인공지능엔 문제가 없을까요.
👨🏻🦱 있죠. 오버 컨피던스(over confidence) 문제입니다. (오버 컨피던스는 딥러닝 모델이 모르는 문제 또는 본질적으로 모호한 문제에 ‘모른다’고 답하는 것이 아니라, 모든 정답에 대해 과잉 확신을 가진 것을 뜻해요) 예를 들어 인공지능이 이건 100% 맞아! 라고 해도, 이게 100점이 아닐 수 있어요. 80점일 수 있죠. 그래서 이를 제대로 맞추는 것을 캘리브레이션(calibration)이라고 합니다.
🤫 음...이건 어디에서 쓸 수 있나요?
👨🏻🦱 현업에서 쓰려면 인공지능이 보통 95% 이상 정답을 낼 수 있어야 사용이 가능해요. 하지만 인공지능이 너무 확신에 차서, 자꾸 오답을 낸다면 어떨까요. 특히 생명에 직결된 헬스케어 분야에서 오진을 한다면 말이죠. 캘리브레이션이 잘 돼 있다는 것은, 95% 확신이라면 실제로 정확도도 95%가 되는 것을 뜻해요.
😞 늘 인공지능 인재가 부족하다고 하는데요. 특히 어떤 분야가 부족하나요.
👨🏻🦱 국내에서는 자연어처리 분야의 인력이 부족해요. 자연어처리는 텍스트를 인공지능이 학습해 다루는 것을 가리켜요. 자연어처리는 음성인식 챗봇 등 수요가 많은 것 같아요.
😃 세계적인 인재를 영입하려면 어떻게 해야 할까요.
👨🏻🦱 간단하죠! 그런 사람이 한국에 오더라도 할 만한 일을 줘야하는 것이죠. 한국에 와서 그 사람 수준에 맞지 않는 일을 한다면 아무래도 동기가 감소하겠죠? 손흥민을 데리고 와서 제대로 축구 경기에 내보내지 않는다면 어떻겠어요. 또 논문 편수 보다는 실제로 실적이 제대로 나오는지가 더 중요해요. |