토론토 대학교 스카버러 캠퍼스 연구원들은 AI가 일반인과 전문 위기 대응자에 비해 더욱 공감적인 반응을 보인다는 사실을 발견해 정신 건강 관리 분야에서 AI의 역할에 대한 논의를 시작했습니다.
토론토 스카버러 대학 연구자들이 실시한 새로운 연구에 따르면, 인공 지능은 인간보다 공감을 표현하는 데 더 능숙할 수도 있습니다.
연구, 출판 커뮤니케이션 심리학 분야에서는 ChatGPT와 같은 AI 도구가 일반인과 훈련된 위기 대응자가 제공하는 것보다 동정심이 담긴 반응을 제공할 수 있다고 제안합니다.
Michael Inzlicht 연구실의 연구실 관리자이자 저자 Dariya Ovsyannikova는 "AI는 피곤하지 않습니다."라고 말했습니다. 보도 자료. “인간이 경험하는 감정적 긴장 없이 일관되고 고품질의 공감적 반응을 제공할 수 있습니다.”
이 연구에는 참가자가 AI, 일반인, 전문 위기 대응자의 서면 응답을 평가하는 4가지 별도의 실험이 포함되었습니다.
연구 결과에 따르면 AI가 생성한 응답은 더욱 공감적이고 세부 사항에 주의를 기울인 것으로 인식되어 배려, 확인, 이해의 느낌을 불러일으키는 것으로 나타났습니다.
공감은 다양한 환경에서 매우 중요한데, 특히 정신 건강 분야에서는 개인이 인정받고 연결되어 있다고 느끼는 데 도움이 됩니다. 그러나 공감을 일관되게 표현하는 것은 인간 간병인에게 감정적으로 지치게 할 수 있으며, 연민 피로와 같은 상태로 이어질 수 있습니다.
위기 전화 상담원으로 자원한 오브샤니코바는 이 분야의 전문가들이 겪는 감정적 피해를 강조합니다.
심리학 교수이자 연구의 공동 저자인 인즐리히트는 AI가 표면적인 연민을 전달하는 데는 효과적일 수 있지만 근본적인 정신 건강 문제를 해결하는 데 필요한 더 깊고 의미 있는 치료를 제공하는 능력은 부족하다고 지적합니다.
그는 보도자료에서 "AI는 인간의 공감을 보완하는 귀중한 도구가 될 수 있지만, 그 자체의 위험도 따른다"고 말했다.
가장 큰 우려 사항 중 하나는 감정적 지원을 위해 AI에 지나치게 의존하는 데 따른 윤리적 문제입니다. 이로 인해 개인이 인간 상호작용에서 물러나고, 그로 인해 외로움과 사회적 고립이 심화될 수 있습니다.
또한 AI가 생성하는 공감에 대한 초기 반응은 긍정적이었지만, 'AI 혐오'로 알려진 현상은 일부 참가자의 선호도가 AI에서 공감적 반응이 나왔다는 것을 알게 되자 바뀌었다는 것을 보여주었습니다.
이러한 회의론은 AI가 인간의 감정을 이해하는 데 대한 더 광범위한 사회적 우려를 보여줍니다.
그러나 AI와 상호 작용하는 데 더 익숙한 젊은 세대는 시간이 지남에 따라 이러한 기술을 더 신뢰하는 모습을 보일 수도 있습니다.
인츨리히트는 AI를 활용해 인간의 공감을 대체하는 것이 아니라 향상시키는 균형 잡힌 접근 방식의 필요성을 강조했습니다.
그는 "AI는 격차를 메울 수 있지만 인간의 손길을 완전히 대체해서는 안 된다"고 덧붙였다.
이 연구에 따르면, 더 많은 논의가 필요하지만, AI가 정신 건강 관리 분야에서 공감 능력 부족을 해소하는 데 도움이 될 수 있다는 점은 분명하지만, 실제로 도움이 필요한 사람들에게 도움이 되려면 신중하고 윤리적으로 통합해야 합니다.