◆ 구독자 결제정보 노출, 개인정보 유출 사고일까?
ChatGPT 개발사인 오픈AI에 따르면 유료 버전 구독자 약 1.2%의 결제 관련 정보가 노출된 것으로 나타났어요. 최근 일부 이용자를 중심으로 본인 계정으로 접속한 웹페이지에서 다른 이용자의 이메일 등 구독 정보와 채팅 제목을 봤다는 주장이 제기된 바 있고요.
오픈 AI에서는 홈페이지를 통해 최근 일부 사용자들이 ChatGPT를 이용하는 동안 다른 사용자들의 개인정보를 열람할 수 있었다는 사실을 밝혔어요. 일부 사용자들이 다른 사용자들의 이름, 이메일, 주소, 신용카드 번호의 마지막 네 자리, 그리고 신용카드 만료일을 확인할 수 있었다고 해요. 오픈 AI는 이 문제가 라이브러리 버그로 인해 발생한 것으로 파악하고 해당 버그를 수정했으며, 영향을 받은 사용자들에게는 별도 통지 했다고 하고요. 이전에도 비슷한 문제가 있었을 가능성은 있지만, 아직 확인되지는 않았다고 해요.
◆ AI 챗봇 보안 위협, ChatGPT 탈옥 및 악용 증가
ChatGPT 탈옥은 개발사가 만든 안전장치를 무력화하는 것을 의미하며, 최근 탈옥을 시도하는 사용자들이 늘어나고 있다고 해요. 일부 다크웹 사이트를 통해 특정 질문을 입력하면 ChatGPT와 상식을 벗어난 대화도 가능하다고 주장하며 탈옥 사례를 공유하기도 했어요. 관련 분야 전문가에 따르는 "인간이 주도하는 강화학습 특성상 모든 사례를 다룬다는 것은 힘든 것이 현실"이라며 "어떻게 질문을 유도하는지 여부에 따라 답변은 달라질 수밖에 없다"고 말했어요.
일부 해커들은 ChatGPT를 이용한 악성코드 제작에도 관심을 보이고 있어요. 한 해킹포럼에는 'Chat GPT-멀웨어의 이점'이라는 글을 게제한 해커는 멀웨어 변종과 기법을 재현하기 위해 ChatGPT를 실험하고 있다고 주장하기도 했고요. 이에 대해 한 글로벌 보안기업 담당자는 "일부 구문이 수정될 경우 코드가 랜섬웨어로 바뀌는 것으로 확인됐다"며 이는 "초보 수준의 해커들에게 ChatGPT를 악용할 수 있는 실제 예제를 보여주는 것"이라고 경고 했어요.
◆ "AI 개인정보보호와 저작권 논란, 거버넌스의 중요성
AI 기술의 발전은 우리 삶을 편리하고 효율적으로 만들어주지만, 최근에는 이에 대한 우려도 함께 대두되고 있어요. 예를 들면, AI 학습 데이터에 개인정보가 포함되면 이를 다른 이용자가 질문을 통해 요청할 경우 개인정보가 공유되는 문제가 발생할 수 있어요. 이를 해결하기 위해서는 학습 단계에서 개인정보가 포함되지 않도록 대책 마련이 필요하고요.
또한, AI 관련 사고를 예방하기 위해서는 적절한 거버넌스를 구축하고, 저작권 논란 해결이 필요해요. AI는 예측하지 못한 오작동이 발생될 수 있기 때문에 모델, 소프트웨어 설계자, 데이터 관리자, 법률 검토자, 서비스 관리자 등이 AI 서비스의 전체 생명주기를 통제할 수 있도록 적절한 대응책을 마련하는 것이 필요해요.
<관련기사>
○ 챗GPT 4개월, 달라진 세상…빅테크부터 스타트업까지 ‘생성 AI’ 봇물 [기승전-플랫폼] (2023.03.27)
○ 대화형 AI의 아무말 대잔치 끝날까 (2022.02.29)
○ 윤리적 문제로 얼룩진 인공지능 챗봇 ‘이루다’ 서비스 일시 중단 (2021.01.14.)