'챗GPT 보안 가이드라인' 들여다보기
정부 부처나 지방자치단체에서 일하시는 분들은 지난 5월에 ‘챗GPT 등 언어 모델 AI 활용 시 보안 유의사항 안내’라는 공문을 받아보셨을 거예요. 최근 챗GPT 등 대형 언어모델 기반 인공지능 기술의 업무 활용도가 증가함에 따라 정보 수집·데이터 유출 등 보안 우려가 지속적으로 제기되고 있어 보안사항에 대하여 준수 요청을 하는 공문이었어요. 이런 공문에 이어 국가정보원은 <챗GPT 등 생성형 AI 활용 보안 가이드라인>을 배포하였다고 해요. 어떤 내용인지 한 번 들여다볼게요.
잘못된 정보 제공
이번 가이드라인에서는 보안 위협을 여러 유형으로 분류했어요. 유형들에 대해서 살펴보자면, 우선적으로 ‘잘못된 정보’를 꼽을 수 있어요. 저도 챗GPT의 도움을 받아 여행 계획을 세워보려다가 지도에 검색해도 나오지 않는 곳을 ‘반드시 가보아야 할 관광지’로 추천해 줘서 당황했던 적이 있어요. 이를 환각(Hallucination) 현상이라고 불러요. AI 모델의 결과물이 정확한 것처럼 생성되었으나 실제로는 거짓인 경우를 말하는 거죠. AI 모델은 새로운 콘텐츠를 생성할 수 있는 능력이 있기에 이러한 현상이 생기는데요, 이는 AI 모델의 신뢰성을 저하시키는 원인이 될 수 있어요.
데이터 유출
기관과 기업에서 가장 우려하는 보안 위협 중 하나가 데이터 유출 아닐까 해요. AI가 학습을 하는데 쓰이는 많은 양의 훈련 데이터에는 중요 정보들이 포함되어 있을 수도 있겠죠. AI 모델은 여러 단계의 추론 과정을 거치면서 입력 데이터에 따라 가장 신뢰도가 높은 문자열을 합성하여 답변을 해주는데, 이 문자열은 기존 훈련 데이터 부분, 혹은 전체를 그대로 답변에 포함할 가능성이 있어요. 이렇게 되면 사용기관의 중요한 내부 정보가 외부에 공개될 수도 있고, 기관뿐 아니라 사용자 개인의 정보가 노출될 수도 있어 위험해요. 가이드라인에서는 사용자는 AI 모델을 사용할 때 중요·기밀 정보는 입력하지 말아야 하고, 정보 보안 담당자는 이러한 정보 유출을 방지하기 위해서 적절한 대책과 수단을 마련해야 한다고 당부했어요.
이외에도 AI 모델 악용, 유사 AI 모델 서비스 빙자, 플러그인 취약점 등의 여러 보안 위협에 대해 이야기하고 있어요. 주요 원인과 보안 위협들이 한 눈에 파악하기 쉽게 표로 정리가 되어 있어요. 생성형 AI의 보안 위협은 종류도 무척이나 다양한 만큼 이에 대응할 가이드 라인도 체계적으로 구축이 되어 있어야 한다고 생각해요.
안전한 사용을 위한 가이드라인
이어서 AI의 안전한 사용을 위해 가이드라인이 구체적인 내용들과 주제별로 정리가 되어 있어요. 대표적으로 개인정보 및 기관 내 민감 정보 처리와 관련한 주제 먼저 살펴볼게요. 관련 질문을 하면 대답을 해주는 형식으로 적혀 있는데요. 답변은 ‘서비스와 대화 시 주민등록번호, 신용카드 정보, 비밀번호 등의 개인 정보뿐만 아니라 소속기관의 내부 민감 정보를 입력하지 않도록 주의해야 한다’라는 내용을 포함하고 있고 세부 사항 또한 답변 아래 표로 정리가 되어있어요.
약 50페이지로 구성되어 있는 이번 가이드라인은 방대한 양이 아니라 부담 없이 읽어보기 좋은 것 같아요. 3월쯤에 기관들이 챗 GPT 이용 지침을 신설하고 있다는 기사를 접했었는데 이렇게 가이드라인이 나온 것을 보니 반가운 맘과, 많은 분들이 꾸준하게 생성형 AI와 관련해서 보안 대책을 강구하고 있다는 생각에 고마운 마음이 들기도 해요. 그렇게 해서 나온 결과물인 만큼 저희가 현명하게 이용해야 할 것 같아요. 챗GPT를 이용하시는 분이라면 꼭 한번 참고하시고 이용하시는 걸 추천드릴게요!
<관련기사>
○ "국가기밀 샐라"…챗GPT 시대 미리 대비해야 (2023.07.03.)
○ 거짓도 사실처럼 답변하는 인공지능 '챗GPT' (2022.12.06.)
○ AI・데이터분야 개인정보 보호 체계 강화한다 (2021.12.09.)