![Designed by Freepik](https://contents-cdn.viewus.co.kr/image/2025/02/CP-2023-0441/image-e597476a-7225-4ffb-9e78-4f3d0b7b508e.jpeg)
챗GPT와 같은 생성형 인공지능(AI) 기술은 인간의 심리를 치료하는 데 기여할 수 있을까? 현재의 심리치료가 어떻게 이루어지는지, 그 과정을 면밀히 살펴보면 ‘충분한 잠재력이 있다’라고 말할 수 있다. 미국 오하이오 주립대학 연구팀이 발표한 최근 논문에서 내린 결론이다.
생성형 AI의 심리치료 능력
미국 오하이오 주립대학에서 최근 오픈 액세스 저널 「플로스 정신건강(PLOS Mental Health)」에 발표한 연구가 있다. 심리치료 전문가가 작성한 답변과 챗GPT가 작성한 답변을 비교하는 실험에서, 챗GPT가 작성한 답변이 사람들로부터 더 높은 평가를 받았다는 것이 핵심이다.
AI가 ‘심리치료’를 할 수 있을까? 이는 생성형 AI가 등장하기 한참 전부터 주목도 높은 이슈로 꼽혀왔다. 심리치료는 인간의 정신세계에 관한 지식과 그에 대한 고도의 훈련을 필요로 하는 전문 영역이다. 인간의 복잡성은 인간 스스로도 아직 완벽히 이해하지 못한 영역이다. 그런데 인간이 창조한 AI가 할 수 있을까?
한때 ‘감정과 공감의 영역’은 AI가 넘어올 수 없을 거라 생각했던 적도 있었다. 물론 이제는 그것도 철 지난 이야기다. 생성형 AI가 작성했는지, 실제 사람이 작성했는지를 밝히지 않고 평가했을 때, AI가 작성한 결과물이 더 좋은 평가를 받았다는 사례는 상당히 많다.
오하이오 주립대학 연구팀은 800여 명 이상의 참여자를 대상으로 한 연구에서 이러한 사례를 한 건 더 추가했다. 참여자들에게 총 열여덟 쌍의 커플을 대상으로 진행했던 심리치료 에피소드를 제시했다. 여기에는 실제 전문 치료사가 쓴 것과 챗GPT가 쓴 것이 함께 섞여 있었다. 예상했겠지만, 참여자들은 누가 쓴 것인지를 거의 구분하지 못했다.
![인공지능이 감정을 '느끼지는' 못해도, 분석해서 이해할 수는 있다 / Designed by Freepik](https://contents-cdn.viewus.co.kr/image/2025/02/CP-2023-0441/image-da35e4bd-93dc-4731-8481-b6b0a1377c2b.jpeg)
인공지능의 충분한 잠재력
세계적인 수학자이자 컴퓨터과학자로 꼽히는 앨런 튜링은 이미 오래 전, 1950년 논문을 통해 ‘인간이 쓴 답변과 기계가 쓴 답변을 구분할 수 없을 것’이라고 예측한 바 있다. 1960년대에 개발된 초기 인공지능 프로그램 ‘엘리자(ELIZA)’도 자연어 처리 기술을 바탕으로 사용자와 ‘대화’를 할 수 있었다.
당시 엘리자는 입력된 문장을 분석하고 적절한 답을 생성하는 방식으로 작동했다. 지금의 생성형 AI는 그보다 더 고도화돼 있지만, 기본 메커니즘 자체는 비슷하다. 다만, 엘리자는 실제로 감정을 이해하거나 심리치료의 역할을 수행할 수는 없었다.
하지만 중요한 포인트는 엘리자의 능력이 어느 정도 수준이었는지가 아니다. 오늘날 우리가 직면해 있는 “AI가 심리상담사 역할을 할 수 있을까?”라는 질문이, 이미 수십 년 전에 제기됐었다는 것이 포인트다.
물론 그 당시에는 “불가능하다”라는 결론이 나왔다. 하지만 지금은 어떤가? 여전히 똑같은 결론인가? 그간 적지 않은 시간을 들여 답을 찾는 과정을 거쳐왔고, 수많은 가설과 그에 따른 검증이 이루어졌다. 그 과정에서 폐기된 가설도 적지 않겠지만, 어찌됐든 그 당시와 똑같은 결론을 되풀이하지는 않을 것이다.
가까운 예로, 지난 1월 말에 캐나다 토론토 대학에서 발표한 연구 결과만 봐도 그렇다. 챗GPT로 하여금 감정과 관련된 문제에 대해 ‘공감 반응’을 하도록 하고, 그에 대한 답변을 작성하도록 했다. 그런 다음 이것을 인간이 작성한 답변과 함께 제시하고, 어느 쪽이 더 ‘잘 공감하고 있다’고 생각하는지를 물었다.
당연히 어느 쪽이 누가 작성한 것인지 알리지 않은 블라인드 테스트 방식이었다. 그 결과를 굳이 또 언급하지는 않겠다. 누가 봐도 예상할 수 있을 테니까.
![인공지능은 이미 수십 년 전부터 인간에게 질문을 던져왔다 / Designed by Freepik](https://contents-cdn.viewus.co.kr/image/2025/02/CP-2023-0441/image-c8ade077-a198-42d1-9802-2fede7e485fc.jpeg)
챗GPT의 심리치료 가능성
챗GPT가 잠재력을 인정받는 이유는 무엇일까? 그에 대한 답을 내리기 위해 연구팀은 챗GPT의 답변을 분석해보았다. 그 결과 챗GPT가 생성한 답변은 우선 인간 심리치료사가 작성한 답변보다 ‘분량이 많은’ 경향이 있었다. 분량이 많다고 꼭 좋은 답변이라는 보장은 없지만, 일반적으로 분량이 많으면 일단 ‘구체적이다’라는 인상을 주기 쉽다.
연구팀은 같은 조건에서 비교해보기 위해, 분량을 일정하게 통제하고 다시 답변을 요청했다. 그러자 챗GPT의 답변에는 인간 치료사보다 더 많은 단어(주로 명사와 형용사)를 사용하는 경향이 나타났다.
일반적으로 명사는 사람이나 장소, 특정 사물 등을 가리키고 설명할 때 사용한다. 그래서 보통 어떤 문장의 주어 또는 목적어로 많이 쓰인다. 형용사는 그 명사들을 꾸미는 역할을 주로 한다. 이는 어떤 상황을 보다 ‘구체적으로’ 설명하는 수단이다.
이런 점을 고려하면 챗GPT의 답변은 대체로 ‘더 구체적인 문장을 쓴다’라고 요약할 수 있다. 문장이 구체적이라는 것은, 어떤 상황의 전체적인 맥락은 물론 세부적인 사항까지 광범위하게 파악했을 가능성이 크다는 의미가 된다.
구체적으로 작성된 답변이 더 높은 평가를 받는 것은 이상한 일이 아니다. 연구팀은 이러한 결과를 토대로 “챗GPT가 기존의 심리치료 과정을 개선할 수 있는 잠재력을 가지고 있다”라고 보았다.
챗GPT의 가능성, 인정해야 빠르다
생성형 AI가 의료에 있어서도 유용하게 사용될 수 있다는 증거는 갈수록 늘어나고 있다. 설령 부족함이 있더라도 기술의 연구와 발전이 계속되는 한 그리 오래지 않아 보완될 가능성이 높다. 그렇다면 실제 현장에 자연스레 도입되는 것은 시간문제라고 보는 것이 타당하다.
‘인간의 영역’을 따로 나눠서 지키려 노력하는 것은 장기적으로 별 의미가 없어 보인다. 하나의 영역 안에서 AI가 더 잘할 수 있는 역할을 맡기거나, AI의 도움을 받을 수 있는 부분을 인정하다 보면, 자연스럽게 인간이 더 잘할 수 있는 것도 보이지 않을까.
이러한 논리를 토대로, 연구팀은 정신건강 전문가들이 기술 분야에 대한 이해력을 더 넓혀야 한다는 의견을 피력했다. 자신의 역할에 대해 견고한 책임감을 가지고 있는 정신건강 전문가가 나서서, 생성형 AI 모델의 심리치료 훈련에 적극적으로 관여해야 한다는 것이다.
이는 바꿔 이야기하면, 전문가들의 개입이 있건 없건 생성형 AI의 발전은 계속될 거라는 메시지일 수 있다. 한편, 책임감 있는 감독 없이 만들어진 AI는 오히려 위험을 초래할 수 있다는 경고로 볼 수도 있다.
연구팀은 “‘AI 열차’가 역을 떠나기 전에 중요한 질문을 던져야 한다”라며 “우리의 연구로 인해 정신건강 전문가와 대중들이 ‘마땅히 해야 할 질문들’을 던져야겠다고 자극받기를 바란다”라고 이야기했다. AI 기술은 일부 사람들이 인정하지 않더라도 점점 삶에 녹아들 것이라는 점, 그렇기 때문에 마냥 거부할 것이 아니라 적극적으로 나서야 한다는 점을 담은 메시지다.
![어떤 형태로든, 인공지능은 결국 '심리치료의 영역'에 발을 들여놓게 될 것이다 / Designed by Freepik](https://contents-cdn.viewus.co.kr/image/2025/02/CP-2023-0441/image-6aa52ccc-30e6-4050-b076-9f629ef717cc.jpeg)
- 일상 속 화학물질 걱정, 스트레스 덜 받으려면?
- 절대음감, 타고나지 않아도 얻을 수 있다?
- 자가포식 활성화, 난임·불임 문제 해결책 될 수 있어
- 화장실 휴지&물티슈 사용, 장기적 건강 문제 될 수 있어
- 어린이 다발성 경화증, 햇빛 쬐면 재발 위험 낮아질 수 있어
댓글0