도입부에서 언급한 두 사건은 지금 AI 생태계 전반에서 벌어지고 있는 책임 공백을 대표적으로 보여주는 사례입니다. AI 기술의 급속한 확산 속도를 기존 법·제도의 대응 속도가 따라가지 못하면서 전 세계적으로 비슷한 유형의 충돌들이 나타나고 있는 것이죠.
스탠포드 HAI는 올해 발간한 ‘2025 AI 인덱스’를 통해 생성형 AI 관련 글로벌 민간 투자가 339억달러(약 50조원)로 지난해 대비 18% 늘어났다고 분석했습니다. 생성형 AI 모델 학습 규모와 활용 속도가 폭발적으로 늘어나면서 콘텐츠 유통량 또한 기하급수적으로 늘어나고 있는데요. 이 확산 속도를 따라잡을 수 있는 책임과 투명성 기준은 여전히 과도기에 머물러 있습니다.
그 대표적 사례가 게티이미지와 스태빌리티AI의 소송전입니다. 이 사건은 저작권 침해 여부 뿐 아니라 AI 학습 과정의 책임을 누구에게 물어야 하는가에 대한 것이었습니다. 법원의 결론은 기술 구조가 가진 한계를 드러냈습니다. 법원은 학습 데이터가 어디서 확보됐는지, 어떤 절차로 모델에 반영됐는지를 명확히 특정하기가 어렵다는 이유로 저작권 침해 주장을 대부분 받아들이지 않았습니다.
게이티미지는 판결 후 공식 성명을 통해 “AI 시대에 최소한의 투명성 기준이 마련되지 않으면 창작자의 권리 보호가 불가능해진다”고 강조했죠. 이 소송이 상징성을 지니는 이유는 기존 저작권 체계가 AI 모델의 내부 학습 메커니즘을 설명하기 위해 설계된 것이 아니라는 사실을 드러낸 첫 판례기 때문입니다.
피해가 드러났지만 책임이 특정되지 않는 경우도 있죠. 미국 아이와주 고교에서 발생한 딥페이크 사건은 이를 보여줍니다. 학교와 지역사회는 피해자를 보호하기 위해 즉각 조치를 취해야했지만 이미지 생성자, 최초 유포자, 확산 경로가 명확히 파악되지 않았죠. 미국 온라인 안전센터는 “AI 기반 성착취물은 기존 범죄보다 추적이 어렵고 플랫폼별 조치 기준도 통일돼 있지 않다”고 지적했습니다.
이처럼 AI가 개입하는 순간 책임 사슬은 끊어집니다. 모델이 학습한 데이터의 출처를 확정하기 어렵고, (콘텐츠의)생성 과정이 명확히 알려져있지 않으며, 유통 과정은 플랫폼 알고리즘과 사용자가 결합된 복합 경로로 이뤄집니다. 그러다보니 피해가 발생해도 각 주체가 다양한 이유로 서로에게 책임을 떠넘길 수 있는 것이죠. 기술이 개입하는 순간 생산자와 유포자, 책임자의 연결이 끊어지는 ‘책임의 공백’ 상황이 나타날 수 있는 것입니다.