미라클 모닝을 하는 일잘러들의 참고서
2022.8.10 | 492호 | 구독하기 | 지난호
안녕하세요!
실리콘밸리에 나와있는

한 주간 안녕하셨나요? 지난주에 고민을 털어 놓았는데요. 많은 독자님들께서 회신을 주셔서 감개무량했어요. “주제가 별로라는 답변에 크게 개의치 않았으면 한다”는 격려부터, “미라클레터 스타일로 해달라”는 조언까지 따스한 말씀에 감사드립니다. 미라클레터는 늘 독자님들의 의견에 귀를 기울이고 있는데요. 많은 분들께서 한꺼번에 답신을 주셔서 한 분 한분께 시간이 될때마다 답신을 드리도록 하겠습니다. 이 가운데 몇 가지만 말씀을 추려보면,

 

  • 다양하게 다뤄 주셔서 항상 고맙습니다.
  • 레터가 점점 풍성해지네요. 감사합니다.
  • 기쁘게 미라클레터를 기다리는 독자들이 더 많아요, 힘내세요. 감사합니다! :)
  • 싫어하는 소수의 사람들도 있지만 좋아하는 다수의 사람들도 있다는 걸 알아주세요.
  • 평소 관심 없는 분야들까지 미라클레터를 통해 배울 수 있어 좋았어요. 항상 정성스러운 글을 보며 많이 배우고 새로운 것들에 대해 관심을 가지며 성장하는 거 같습니다.
  • 대학생 1학년 때 구독을 해 미라클레터 덕분에 많은 성장을 했습니다. 주변의 잡음에 흔들림 없이 지금처럼 해주신다면 더욱 감사할 것 같습니다. 이미 최고라고 생각하는 미라클레터!

 

10분 중 8분은 현재 스타일대로 심층 레터를 보내달라는 말씀을 주셨고요. 나머지 분들은 제대로 된 심층 분석이 없다면, 차라리 다양한 소식이 좋다는 견해를 주셨어요. 독자님들의 뜻에 따라 편지를 드리려고 노력을 하겠습니다. 그래도 “따스함이 느껴지는 이성적인 글, 언제나 좋다”는 말씀을 듣고서는, 미라클레터가 추구하는 방향을 제대로 알아 주시구나하는 생각이 들어 무척 힘이 났어요. 그럼 힘내서 오늘 레터를 시작해 볼게요.

오늘의 에디션 

  1. 초거대AI 시대의 문제점
  2. 아날로그 방식으로 해결하자!

  3. AWS innovate 세미나 (광고)
  4. 3분만에 읽는 인공지능 역사

    초거대AI 시대의 문제점!

    AI 달리2가 그린 진주 귀걸이를 한 소녀의 모작
    원본은 가운데 그림

    초거대 인공지능 시대

    오늘날 인공지능은 바야흐로 초거대 시대를 맞고 있는데요. 대규모 데이터를 학습시켜서 보다 종합적으로, 자율적으로 생각하고 판단하는 인공지능을 만들려고 하고 있습니다. 예를 들어 올해 3월 엔비디아가 1초에 1840경번에 달하는 연산이 가능한, 세상에서 가장 빠른 슈퍼컴퓨터인 에오스를 개발하겠다고 선언한 것이 대표적이고요. 문장만 넣으면 그림을 척척 그려내는 오픈AI의 달리2 역시 좋은 사례입니다.

     

    하지만 엄청난 문제점

    하지만 이런 초거대 인공지능은 엄청난 문제점이 있어요. 컴퓨터로 두 개의 8비트 숫자를 더한다는 것은 약 50개에 달하는 트랜지스터가 필요하다는 뜻! 곱셈을 위해선 트랜지스터 1000개가 필요! 컴퓨터는 0과 1로 계산을 하는데요. 때문에 10진수를 2진수로 일일이 바꾸는 작업이 필요해요. 또 메모리에 입력했다 불러왔다 하는 작업이 필요합니다. 이를 폰 노이만 병목 현상이라고 불러요.


    📙용어사전 (폰 노이만 구조) 현대적 컴퓨터 이전엔 컴퓨터에는 스위치가 달려 있고 전선을 연결해 데이터를 주고받아 처리했어요. 하지만 폰 노이만이 저장된 프로그램(stored-program)이라는 개념을 제시한 뒤 급변! 오늘날과 같은 디지털 컴퓨터 형태가 탄생했어요. 명령어들을 메모리에 순차적으로 배열하고 필요할 때에 명령어를 불러와 CPU로 처리하는 방식입니다. 문제는? 메모리 값을 읽고 써야하기 때문에 데이터가 많으면 많을수록 엄청난 병목이 나타나고요. 막대한 에너지를 써야합니다.

     

    물론 오늘날 컴퓨터는 구조가 다소 바뀌었지만, 그래도 구조는 비슷해요. 즉 슈퍼컴퓨터처럼 엄청난 연산이 가능한 컴퓨터는 무지막지한 트랜지스터와 에너지가 필요하다는 뜻이죠. 당연히 발열이 엄청나겠죠? 스마트폰처럼요.

     

    그래서 다시 아날로그!

    실리콘밸리 레드우드시티에 있는 미틱(Mythic)이라는 스타트업이 얼마 전 아날로그 컴퓨터를 활용해 전력 소비는 낮으면서도 인공지능을 효율적으로 활용하는 칩을 선보여 센세이션을 일으켰어요. 현지에서는 무어의 법칙을 효과적으로 우회했다는 칭찬이!


    📙용어사전 (무어의 법칙) 마이크로칩의 밀도가 24개월마다 2배씩 늘어난다는 경험적 법칙인데요. 오늘날 반도체 크기가 너무 작아지면서, 이 이론에 한계에 부딪히고 있어요.

     

    🔎크게보기

    그런데, 미틱이 고작 3와트 전력을 쓰면서도 초당 25조회에 달하는 수학연산이 가능한 칩을 내놓았어요. 동일한 칩이 50~100와트 전기를 쓰는 것과 비교하면 엄청난 일이죠. 이게 무슨 마법과 같은 일이냐고요?

    아날로그 방식으로 해결하자!

    미틱의 공동창업자 마이클 헨리

    인공지능 돌리다 욕 먹었어요

    미틱은 2012년 데이브 픽과 마이클 헨리가 창업한 기업인데요. 미시간대와 버지니아공대를 다니던 청년들이 의기투합해 만든 스타트업입니다. 이들은 대학원 시절 이런 경험을 했대요.

     

    • 🤔 인공지능을 훈련시키려고 GPU 칩을 썼더니 캠퍼스 전기를 너무 많이 쓴다고 뭐라고 하네요.
    • 🤫 그래서 이런 생각을 했죠. 싸면서도 전기 덜 먹는 반도체는 없는 거야?

     

    마이크 헨리 공동창업자는 한 외신과 인터뷰에서 이런 말을 했어요. “많은 기업들이 칩에다가 10달러 이상을 지출하는 것을 원하지 않아요. 이들의 원하는 것은 이래요. 전력 소비는 몇와트 미만이어야 하고, 소프트웨어는 쉽게 연결되기를 바라죠. (그런 게 있음?)”

     

    아날로그의 재발견

    그래서 이들은 컴퓨터 역사를 다시 뒤져보기 시작했어요. 그리고 소자인 트랜지스터에 전류가 흐르는 방식을 면밀히 관찰을 했죠. 우리가 말하는 비트라는 것은 0과 1인데요. 트랜지스터가 0과 1을 표기하는 방식은 이래요. 전류가 흐르면 1입니다. 반대로 전압을 제거해 플로팅 게이트에 전류가 저장되면 0입니다. 저장된 값을 읽어 들여 0인지 1인지를 구별해요. 즉 엄청나게 많은 트랜지스터가 있어야 인공지능을 훈련시킬 수 있다는 뜻이죠.

     

    미틱의 창업자들은 이런 생각을 했대요. “응? 그냥 전자를 더 많이 넣어주면 될 것 같은데” 이들은 저항 값을 임의로 바꿀 수 있도록 해주는 가변저항을 쓰기로 했어요. 플로팅게이트에 전자를 넣어 직접 계산을 시도한 것이죠. 전자수가 늘어나면 저항이 높아지는데요. 옴의 법칙인 V(전압)=I(전류) X R(저항)을 활용했어요. 입력 값인 전압과 저항이 있으니 전류를 구할 수 있었는데요. 이를 인공지능에 필요한 행렬 곱셈을 할 수 있도록 설계!

     

    미틱은 고작 3와트를 소모해 초당 25조회의 연산이 가능한 칩을 만들 수 있었대요. 일반적인 디지털 시스템에서도 초당 25~100조 연산이 가능하지만 반도체값도 비싼데다 50~100와트를 소모한다는 점에서 매우 친환경적이고 가격 경쟁력이 있죠.

     

    🔎크게보기

    미틱은 인메모리 컴퓨팅을 극한으로 끌어올렸다는 평가를 받았어요. 또 앞으로 보안 카메라, 자율주행 시스템, 검사 장비에 사용될 수 있도록 하겠다는 포부를 밝혔고요. 물론 0과 1로 구성된 디지털 방식이 아니다 보니 문제가 있기는 해요. 항상 일정한 전자를 넣을 순 없으니 계산에 오류가 있죠. 하지만 오늘날 심층 신경망(DNN)은 사실 100% 정확한 계산이 필요 없어요.

    돌아온 AWS Innovate 온라인 세미나

    빅데이터와 차세대 인프라 특집!! 

    클릭하시면 등록 페이지로 이동.

    8월 23일, 25일 이틀 동안 개최

    AWS의 간판 온라인 컨퍼런스 중 하나인 AWS Innovate 8월에 열립니다! 이번에는 크게 '데이터' '인프라(For Every App)'라는 두 가지 주제로 각각 23() 25()에 개최됩니다. 이번 컨퍼런스는 역대 최대 규모라고 하네요! 🤩 오전 오후에 동일한 내용으로 두 차례 반복 진행되고 전문가와 1:1 Q&A와 참석 증명서도 발급받을 수 있다는 사실은 이미 알고 계시죠


    Data 특집은 누가 들으면 좋을까요? 

    • 빠르게 증가하고 복잡해지는 데이터에 관한 고민이 있는 분 😱
    • 최신 데이터 전략에 관심이 있는 분 😎


    3개의 트랙 17개 강연으로 데이터, 스토리지 및 데이터 분석 서비스 포트폴리오부터 각 서비스의 적용 방법, 실제 고객 성공 사례까지 수준별로 학습할 수 있어요! 윤석찬 AWS 수석 테크 에반젤리스트께서 '클라우드 기반 현대적 데이터 전략을 통한 비즈니스 성공 방정식'이라는 주제로 기조연설까지 준비했다고 하니 기술 혁신 전략이 궁금하신 분들에게 도움이 될 것으로 보이네요!


    For Every App 특집은 누가 들으면 좋을까요? 

    • 차세대 디지털 전환을 위한 인프라 전략이 필요한 비즈니스 및 IT 리더 🤓
    • 애플리케이션을 빠르고 안전하며 비용 효율적으로 전 세계에 서비스하고 싶은 개발자와 IT실무자 🤖


    차세대 디지털 전환을 위한 최신 기술 동향, AWS 인프라 전략, 클라우드-온프레미스-에지에서 워크로드를 비용 효율적으로 실행할 수 있는 방법을 AWS 전문가와 함께 자세히 학습할 수 있습니다


    두 개의 컨퍼런스지만 한 번만 등록하면 둘 다 들을 수 있다고 하네요. 참 편리하쥬? 아래 링크를 통해서 등록하실 수 있답니다. 👇👇👇👇 

    이 콘텐츠는 후원으로 제작되었습니다. 

    3분만에 읽는 인공지능 역사

    아날로그 컴퓨터로 만든 AI 퍼셉트론(왼쪽)
    말하고 쓸수 있다고 소개된 NYT기사(오른쪽)  

    두뇌 뉴런에서 모방

    인공신경망에 대한 아이디어는 인간의 뉴런 동작 원리에서 따왔어요. 사람은 어떻게 생각할까요? 어떻게 해서 사과를 보고 사과로 인식하고, 배를 보고 배로 받아들일까요. 그래서 초기 과학자들은 철저히 사람 두뇌에 있는 뉴런을 모방했어요. 사람 두뇌에 있는 뉴런은 무엇인가를 보았을 때 활성화되는데요. 그런데, 어떤 뉴런은 활성화되고 어떤 뉴런은 비활성화 상태에요. 그리고 이런 뉴런들이 모여서 다른 뉴런에 출력 값을 보내요. "이건 사과야"하고요. 중요한 것은 어떤 신호가 들어왔을 때, 뉴런은 신호의 세기를 감지해 활성화 또는 비활성화 된다는 점. 그리고 이를 디지털 컴퓨터 상에서 1과 0으로 표현할 수 있다는 점!

     

    아날로그 컴퓨터로 만든 AI

    뉴런을 모방하겠다는 아이디어는 무려 60년이 넘었어요. 1958년 코넬 항공 연구소의 프랑크 로젠블럿이 인간의 뇌신경을 모방한 인공신경 뉴런인 퍼셉트론(Perceptron)을 제시했어요. 강아지 사진을 보여주면 강아지인지, 사람 사진을 보여주면 남자인지 여자인지 분간을 하는 컴퓨터였는데요. 로젠블럿은 IBM이 개발한 디지털 컴퓨터를 사용하다 너무 느려 포기하고, 아날로그 컴퓨터를 사용한 것으로 유명해요. 당시 수많은 사람들은 곧 컴퓨터가 사람처럼 일을 할 것이라는 공포감에 질리기도 했고요.

     

    알고리즘 개발의 시대

    하지만 기대가 크다 보니 실망도 컸어요. 오류가 많아 순식간에 관심이 푹 꺼졌죠. 이를 두고 'AI 윈터'라고 부릅니다. 이후 인공지능 학계에서는 수많은 알고리즘 개선책이 쏟아졌어요. 그리고 수많은 시도들이 이어졌죠. 1989년 AT&T에서는 손으로 작성한 우편물의 우편번호를 자동으로 분류하는 프로그램이 나왔고, 1980년대에는 시속 2~3km지만 천천히 움직이는 자율주행 차도 나왔습니다. 모두 알고리즘을 개선한 덕분이고요.


    중요한 것은 데이터였다!

    그러던 중 어느날. 스탠포드대 연구원이었던 페이페이 리(인공지능의 대모)는 이런 생각을 했어요. "어 이건 알고리즘 문제가 아니라 데이터 양이 부족해서 인 것 같은데..." 그렇게 프로젝트를 시작했어요. 이름하여 이미지넷! 2010년부터 시작한 이미지넷은 1000개 꼬리표에 100만개 이미지를 인식해 그 정확도를 겨루는 컴퓨터 비전 대회인데요.

     

    알렉스넷이 쓴 역사

    2012년에 알렉스넷이 우승을 차지하면서 세간의 주목을 한 몸에 받았습니다. 컴퓨터 비전 오류 수준이 3.5%였는데요. 이는 사람의 인식 보다 더 정확하다는 뜻입니다. 당시 알렉스넷은 신경망을 8개 층으로 구성했는데요. 이 때문에 엄청난 연산 필요했어요. CPU만으로 감당이 안 되다보니, 병렬 연산에 유리한 GPU들을 대거 투입했죠. 이세돌 9단을 이긴 알파고는 13개 층으로 구성돼 있어요.

     

    🔎크게보기

    신경망은 뉴런을 닮았기 때문에 계산이 100% 정확할 필요는 없어요. 예를 들어 신호가 98%를 넘으면 활성화되고 3%면 비활성화 되는 구조라고 보시면 됩니다. 마치 딸기 냄새가 강하면 딸기라는 생각이 들고, 냄새가 거의 안나면 인식을 못하는 것과 같아요. 입력값은 입력층 은닉층에서 가중치와 함께 연산되면서 출력층으로 향하는데요. 수학적으로 이는 행렬곱으로 구할 수 있어요. 하지만 1번 곱할 때마다 트랜지스터 1000개가 작동... 아날로그 컴퓨터 업체인 미틱은 전자수를 주입해 계산을 직접 하다보면, 0과 1로 구성된 디지털 방식처럼 100% 정확하지는 않다고 솔직히 말했어요. 그럼에도! 행렬곱을 충분히 구할 수 있어, 인공지능 훈련을 하는데 적합하다고 강조해요. 물론 오류난 숫자를 계속 곱하다 보면 더 큰 오류를 초래할 수 있어 프로세스 중간에 디지털 칩을 배치해 해결.

    한줄 브리핑 📢

    • 미니언즈2로 150% 급등: 헬비즈라는 이탈리아 킥보드 업체의 주가가 미니언즈2로 150% 급등했는데요. 월가월부 라이브(좌표 👉클릭)를 통해 분석을 해드렸어요. 동전주식의 모든 것! 
    • 소프트뱅크 30조원 순손실 : 투자했던 테크기업들의 주가가 폭락하면서 소프트뱅크가 4~6월 3조1627억엔의 손실을 기록했어요. 분기기준 역대 최대규모. 
    • 아이폰14 인도에서 생산 : 애플의 차세대 스마트폰인 아이폰14가 인도에서 초도 생산될 것이라는 전망이 나왔어요. 중국과 갈등이 고조되면서 생산지를 다변화하겠다는 전략으로 풀이됩니다.

    오늘날은 인공지능으로 치면 여름 같아요. 더 자연스럽고 더 빠른 인공지능을 만들고자 하는 경쟁은 갈수록 치열해지고 있어요. 그래서 엄청난 연산을 할 수 있는 초거대 인공지능을 만드는 경쟁이 후끈 거리죠. 구글 메타 엔비디아 LG 카카오 네이버 등등 모두가 다요. 하지만 이런 초거대 인공지능은 엄청난 에너지가 필요해요. 그래서 오늘날 블록체인이 전력을 덜 쓰는 방식으로 바뀌고 있듯, 인공지능 역시 언젠가 그렇게 변할 것 같아요.

     

    디지털 시대에 역발상으로 아날로그 컴퓨터가 주목 받는 이유입니다. 오늘은 인공지능 시대에 부상하는 아날로그 컴퓨팅을 집중적으로 알아봤는데요. 다음번에는 커리어에 대한 이야기로 찾아뵐게요. 늘 응원합니다!

    진심을 다합니다
    이상덕 드림
    오늘 레터를 평가해주세요!
    MIRAKLE LETTER

    서울 중구 퇴계로 190 매경미디어센터
    매경미디어그룹
    miraklelab@mk.co.kr
    02-2000-2167