심리치료에서 AI를 얼마나 활용하게 될까

이 뉴스레터 구독자 중 다수는 심리치료자로 일하고 있거나 임상/상담심리를 공부 중인 학생입니다. 여러분은 심리치료에서 AI를 어느 정도까지 활용하게 될 거라고 예상하시나요?


활용 가능성이 무궁무진하지만 누구도 섣불리 AI를 활용하기 어려운 이유는 프라이버시 이슈를 어떻게 해결할 것인지 합의가 이루어지지 않은 상황과도 관련 있을 것입니다. 내담자의 동의를 얻은 상태로 음성을 텍스트로 변환하는 데 AI를 활용하는 정도가 일반적인 것 같습니다(ex. 클로바노트).


이번 뉴스레터에서는 정신건강 영역에서 AI의 활용이 어느 정도 수준으로 이루어지고 있는지, 앞으로의 활용 가능성은 어떠한지 간단하게 살펴보는 시간을 갖고자 합니다.


정신건강 관련 챗봇 서비스의 명과 암

위 영상에 출연한 Alison Darcy는 Woebot이라는 상담 챗봇을 개발한 CEO입니다. 60 Minutes이라는 CBS 간판 시사 프로그램에 출연한 것을 보면 업계에서 유명한 인물인 것 같네요. Woebot은 인지행동치료 이론을 기반으로 하여 사용자의 정신건강을 증진하기 위한 목적에서 개발된 챗봇입니다.


이러한 정신건강 챗봇은 높은 비용, 사회적 낙인에 대한 우려, 심리상담소를 찾기 어려운 지역 특성 등 여러 장벽으로 인해 정신건강 서비스를 찾기 어려운 사람에게 가능한 한 가지 대안입니다.


2021년 기준으로 미국 성인의 22%(5600만 명)가 정신건강 챗봇을 사용한 경험이 있다고 응답한 바 있습니다. 팬데믹 기간 중에 정신건강 챗봇의 사용이 급격하게 증가한 것으로 보이고, AI의 기술 발전 속도가 빨라질수록 사용자는 더 급격하게 증가할 것으로 예상됩니다.


다만 정신건강 챗봇의 여러 장점이 있음에도 불구하고 생성형 AI의 특성상 잘못된 정보를 주기 쉽습니다. 섭식장애를 지닌 환자에게 체중 감량에 초점 맞춘 솔루션을 제공하여 문제가 된 일이 미디어의 조명을 받기도 했습니다. 또한 사용자 말의 뉘앙스를 제대로 이해하지 못해 사용자의 정신건강에 오히려 악영향을 미칠 여지도 많습니다. 이에 따른 피해는 고스란히 사용자가 경험하게 됩니다.


Woebot을 개발한 Alison Darcy도 60 Minutes에서 이러한 문제를 심각하게 받아들이고 있고 사용자 안전을 최우선으로 고려하기 위해 다양한 노력을 기울이고 있다는 논지로 말하네요. 자사 홈페이지에 다음과 같은 내용을 강조해 놓았습니다.


[AI 요약] 여러 가드레일을 통해 사용자의 안전을 우선시하고, 직접적인 반응을 유도하기보다는 이해를 높이기 위해 AI를 사용하며, AI 개발에 임상 전문가를 참여시킵니다. 엄격한 테스트와 지속적인 평가가 필수적이며, AI 사용 및 데이터 처리의 투명성이 보장되어야 합니다.


정신건강 관련 챗봇이 우후죽순 개발되고 있으나, 그 효과성은 대부분 제대로 검증되지 않았다고 봐도 무방할 것 같습니다. 전통적인 의료 기기에 적용되는 엄격한 FDA 감독을 받지 않는 상황과도 관련 있습니다. 즉, 미국에서도 이렇다 할 명확한 법적 규제는 아직 마련되지 않은 상황인 것 같고, 정신건강 관련 서비스에서 챗봇의 역할을 어디까지로 규정할 것인지 명확한 규제 프레임워크가 필요하다는 데로 중지가 모아지는 상황 같습니다. 영국은 국가 건강 서비스에 챗봇이 포함돼 있고, 현재 28만 명의 환자가 이용 중이라고 합니다. 호주도 조만간 공식 보건 시스템의 일부로 챗봇이 도입될 예정인 듯합니다. 영국과 호주는 챗봇 규제의 법적 근거가 마련돼 있는지 궁금하네요.


어찌 됐든 간에 정신건강 챗봇의 주요한 역할 중 하나는 전문가의 도움이 필요한 사람을 식별하여 심리치료로 이어질 수 있게 돕는 것이어야 하지 않을까 싶습니다.


개인 맞춤형 심리치료의 도래

특정 심리치료의 효과성을 확인하고 싶을 때 사용하는 연구 방법 중 하나가 RCT(Randomized Controlled Trial)입니다. 가령, 우울증을 지닌 사람에게 인지행동치료가 효과적인지 여부를 검증하기 위해서 DSM-5 주요우울장애 진단에 부합하는 사람을 여럿 모집합니다. 다른 정신장애를 지니지 않은 순수한 주요우울장애 환자를 모집하여 매뉴얼화된 인지행동치료를 받는 집단과 치료를 받지 않는 집단으로 랜덤하게 환자를 나눕니다. 이후 치료 받은 집단에서 주요우울장애 증상이 개선되었음이 확인된다면 매뉴얼화된 인지행동치료는 주요우울장애에 효과적이라고 결론내릴 수 있습니다. 동일한 연구 방법으로 반복 검증을 시도한 다른 연구들에서도 같은 결과가 도출된다면 인지행동치료의 효과성은 더 탄탄하게 입증되는 셈이겠죠.


하지만 이러한 연구 방법의 맹점이 여럿 있습니다. 주요우울장애만 지닌 환자는 드물 뿐만 아니라 심리치료라는 것이 매뉴얼대로 진행되는 경우 또한 거의 없다는 점입니다.


증상 심각도, 공존하는 정신장애나 신체 질환, 이전 치료 경험, 문화적 배경, 성격 특성 등 주요우울장애를 경험하는 한 개인의 맥락은 심리치료의 성과에 큰 영향을 미치는 변수입니다. 인지행동치료를 하는 심리치료자 개인의 특성, 치료자와 환자의 상호작용 양상 또한 심리치료의 성과에 영향을 미칩니다.


요점은 치료 성과에 영향을 미치는 수많은 변수를 고려하여 개인에게 최적화된 심리치료의 형태를 구성하는 데 AI가 큰 도움이 될 수 있다는 것입니다. 위 영상에서 인터뷰이로 나오는 Danilo Moggio 박사는 환자가 복용하는 다수의 약물 사이의 잠재적 상호작용을 AI가 모니터링하여, 의사가 모든 약물의 부작용과 약물 상호작용의 수많은 경우의 수를 전부 기억할 수 없는 상황에서 도움을 준다고 설명합니다. 이와 마찬가지로, AI 기술을 사용하면 심리치료자가 더욱 수월하게 내담자가 지닌 다양한 개인 내외적 변수와 변수 간 상호작용을 고려하여 치료 전략에 대한 결정을 내릴 수 있습니다. 치료의 진행을 모니터링하고 내담자의 변화에 따라 후속 치료 계획을 추천 받는 것도 가능하다는 설명입니다.


초진단적 접근을 비롯하여, 과학적 근거에 기반한 심리치료는 점점 더 개인 맞춤화된 방향으로 나아가는 중입니다. AI 기술의 비약적인 발전은 이러한 흐름에 더 큰 추진력을 부여할 것 같네요.


이해를 도모하고자 AI를 활용한 개인 맞춤화된 심리치료의 대략적인 과정을 챗지피티로 아래와 같이 생성해 봤습니다.



가상의 내담자 김민수

내담자: 35세 남성, '김민수'

주요 증상: 우울증, 불안, 대인관계 어려움


AI를 활용한 김민수 님의 심리치료 과정


  1. 초기 평가:


  2. 개인화된 치료 계획 수립:


    • 치료 전략 제안: AI는 김민수의 증상 및 특성을 고려하여 적합한 치료법(예: 인지행동치료, 대인관계 치료)을 추천.

    • 변수 고려: 김민수의 생활 방식, 사회적 지원, 스트레스 요인 등 다양한 개인 내외적 변수를 반영한 맞춤형 치료 계획 작성.

  3. 치료 진행 중 모니터링:


    • 세션 분석: 매 상담 후, AI가 상담 내용을 분석하여 김민수의 정서적 변화 및 치료 반응을 평가.

    • 실시간 피드백: 치료자가 김민수의 진행 상황을 AI를 통해 모니터링하며, 필요 시 즉각적인 피드백 및 조언을 제공.

  4. 후속 치료 계획:


    • 데이터 업데이트: 김민수의 치료 경과 데이터를 지속적으로 AI 시스템에 입력.

    • 예측 및 추천: AI가 김민수의 치료 반응을 예측하여, 다음 단계의 치료 방법을 추천. 예를 들어, 초기 치료가 효과적이었다면 유지 프로그램을 제안하거나, 추가적인 치료 필요 시 다른 접근법을 추천.

  5. 결과 평가 및 조정:


    • 효과 평가: 정기적인 평가를 통해 김민수의 전반적인 심리적 상태를 분석하고, 치료의 효과를 객관적으로 평가.

    • 계획 조정: 필요 시 AI의 분석 결과를 바탕으로 치료 전략을 조정하여 김민수의 회복을 최적화.

이 과정을 통해 AI는 김민수의 개인적 특성과 변화하는 상황에 맞춘 정밀한 치료를 가능하게 하며, 치료자가 보다 효과적인 의사 결정을 내릴 수 있도록 지원합니다.


심리치료 회기 안에서 치료자는 어떤 식으로 AI를 활용하게 될까

뉴스레터의 처음 질문으로 돌아와 봅니다. 이 뉴스레터를 준비할 때 가장 궁금했던 부분은 심리치료를 하고 있는 우리가 앞으로 어느 정도까지 AI를 활용하게 될까 하는 점이었습니다.


AI 기술의 발전 속도가 무서울 정도지만, 이를 심리치료 실무에 적용하는 것은 아직 걸음마도 떼지 못한 상태인 것 같습니다. 내담자의 프라이버시를 지키는 것이 심리치료자의 가장 중요한 윤리적 강령이기 때문에 AI를 활용하여 내담자의 개인 데이터를 분석할 수 있을지, 분석할 수 있다 하더라도 개인정보를 어떻게 보호할 것인지에 대한 수차례의 공개적인 토론이 필요할 수 있습니다. 전문가 집단에서 합의된 가이드라인이 나오더라도 국가 차원에서의 법적 근거가 마련되기까지 또 다시 시간이 걸릴 것 같습니다.


다만 개인정보 보호라는 윤리적인 문제를 잠시 제쳐 두고 AI 활용 가능성을 상상해 보는 것은 가능할 것 같다고 위 유튜브 영상에서 인터뷰이로 나오는 미국의 공인 심리치료자 Heather Hessel 박사가 말합니다. "지혜롭고 열정 넘치는 사람들이 윤리적 문제를 해결하기 위한 방법을 찾을 것으로 생각합니다." 테크 분야에서 20년 정도 일하다가 뒤늦게 심리치료자의 길을 걷게 된 독특한 이력을 지닌 분입니다.


Hessel 박사는 상담 회기 분석 및 피드백 등에 AI를 활용하는 시나리오를 말합니다. 수퍼바이저 역할이 아니라 컨설턴트 역할을 AI에게 위임할 수 있다고 봅니다. 특히 심리치료자 개개인이 지닌 이론적 지향에 따라 상담자-내담자 상호작용을 분석하고 보완점에 관한 피드백을 받는 데 AI를 활용할 수 있다고 말합니다. 가령 인지행동치료 접근을 선호하는 심리치료자의 경우에는 치료자 자신 혹은 내담자의 인지적 왜곡을 식별하고 대안 반응을 만드는 데 AI를 활용할 수 있습니다.


회기를 어떤 식으로 분석할 수 있을지 관심을 갖고 검색하다가 심리상담과 AI의 접목이라는 주제에 관심을 갖고 기술 개발해 온 카이스트 박사 출신의 박성준 님 2019년도 브런치 글을 보게 됐습니다. 자연어처리를 비롯하여 생소한 개념이 많아 글을 온전히 이해하지 못했으나, AI 기술은 내담자 반응의 유형을 분류하여 상담 과정에서 반복적으로 나타나는 주요 주제나 패턴을 식별하는 데 도움이 된다는 내용인 것 같습니다. 시간 효율적으로 상담을 리뷰하고, 내담자의 말에서 주목해야 하는 부분에 주의의 초점을 맞추도록 상담자를 도울 수 있다는 내용 정도로 이해했습니다.


상담 회기 내용 분석뿐만 아니라, 심리치료 과정에서 임상가의 AI 활용 가능성은 우리가 상상하는 것 그 이상으로 열려 있을지 모릅니다. 어느 가능성이 현실이 되든 간에 Hessel 박사의 말처럼 심리치료자로 트레이닝 받는 과정에서 AI 기술의 치료적 활용을 배우는 것이 디폴트가 될 날이 머지 않은 것으로 보입니다. 심리치료의 효과는 결국 인간과 인간의 상호작용 양상, 특히 내담자에 대한 심리치료자의 언어적/비언어적 태도에 상당 부분 달려 있다고 보기 때문에 심리치료를 AI가 완전히 대체할 것이라고 생각지 않습니다. 다만 AI는 중요한 심리치료의 보조 역할을 맡게 될 것이고, 내담자를 전체론적 관점에서 이해할 수 있게 도울 것입니다. 지금처럼 AI 기술 발전의 과도기에 있을 때 AI에 대한 배움을 지속하는 것이 추후 유능한 심리치료자로 성장하는 데 중요한 밑거름이 될 것이라고 봅니다.


  
심리학 관련 영어 콘텐츠를 한 편 요약하여
격주로 월요일 아침 7시에 보내드립니다.
어떤 의견이라도 좋습니다.
여러분이 들려주시는 목소리가 뉴스레터를 발행하는 힘이 됩니다.  
뉴스레터 발신자: 오송인
이메일 주소: xinlisupreme@naver.com
블로그: slowdive14.tistory.com
stibee

이 메일은 스티비로 만들었습니다