'당신은 AI를 어떻게 사용하고 있나요?' 당신의 치료사가 물어봐야 한다고 전문가들이 주장합니다
'How are you using AI?' Your therapist should ask you that question, experts argue
NPR
Rhitu Chatterjee
EN
2026-04-10 22:30
Translated
JAMA Psychiatry의 논문에 따르면 정신 건강 제공자들은 환자들이 수면 습관과 약물 사용에 대해 묻는 것처럼 인공지능 챗봇을 사용하는지 물어봐야 한다고 합니다.
리투 차테르지
ChatGPT, Claude, Character.AI는 사람들이 점점 더 많이 사용하고 있는 인공지능으로 구동되는 챗봇입니다.
최근 연구와 조사에 따르면 청소년과 성인들이 점점 더 인공지능 챗봇에 동료애와 정서적 지원을 위해 의존하고 있습니다. 따라서 정신 건강 관리 제공자들은 환자들이 이 기술을 사용하는지, 그리고 어떻게 사용하는지 물어봐야 합니다. 이는 수면, 식단, 운동, 음주 소비에 대한 정보를 찾는 것과 같은 방식입니다.
이는 JAMA Psychiatry에 발표된 새로운 논문에 따른 것입니다.
뉴욕대학교 Silver School of Social Work의 조교수인 Shaddy Saba는 "우리는 AI 사용이 좋다거나 나쁘다고 말하지 않습니다"라고 말하며, "약물 사용이 반드시 좋거나 나쁘다고 말하지 않는 것처럼, 또는 친구와 무언가에 대해 상담하는 것이 좋거나 나쁘다고 말하지 않는 것처럼요."
하지만 정서적 지원과 조언을 위해 AI를 사용하는 사람의 습관을 배우는 것은 누군가의 삶과 정신 건강 상태에 대한 귀중한 통찰력을 제공할 수 있다고 그는 말합니다.
"우리의 일은 사람들이 왜 그렇게 행동하는지를 이해하는 것입니다. 이 경우에는 왜 AI 시스템에 도움을 청하는지를 이해하는 것입니다"라고 Saba는 덧붙입니다. "그리고 그것이 그들을 위해 무엇을 하는지, 무엇을 하지 못하는지 배우기 위해 말입니다."
Saba와 그의 공동 저자의 권장 사항은 미국심리학회(APA)가 지난해 11월에 발표한 건강 자문과 "매우 일치한다"고 APA의 Vaile Wright는 말합니다.
환자가 AI 챗봇과의 대화에서 얻는 것이 무엇인지 묻는 것은 "치료사가 환자의 정서적 웰빙과 정신 질환을 어떻게 헤쳐나가고 있는지 더 잘 알 수 있는 기초를 설정한다"고 Wright는 말합니다.
"사람들은 스트레스가 많은 경험을 대처하는 방법에 대해 물어보거나, 개인적인 관계 문제에 대해 규칙적으로 이러한 도구를 사용하고 있습니다"라고 Saba는 설명합니다.
그리고 일부는 불안과 우울증 증상을 대처하는 방법에 대한 조언을 위해 챗봇을 사용하고 있습니다.
"우리가 클라이언트들이 이러한 대화를 점점 더 자세히, 심지어 치료실로 가져올 수 있도록 독려할 수 있는 한에서, 저는 잠재적으로 귀중한 정보의 보고가 있을 수 있다고 생각합니다"라고 그는 말합니다.
이것은 누군가의 삶에서 스트레스의 주요 원인에 대한 정보일 수도 있고, 또는 그들이 대면을 피하는 방법으로서 챗봇에 의존하고 있는지에 대한 정보일 수도 있습니다.
"예를 들어, 배우자와의 관계 문제가 있는 클라이언트가 있다고 합시다"라고 APA의 Wright는 말합니다. "그리고 배우자와 자신의 필요를 충족시키는 방법에 대해 열린 대화를 하려고 하는 대신, 그들은 대신 그 필요를 충족시키기 위해 또는 배우자와 이러한 어려운 대화를 피하기 위해 챗봇으로 갑니다."
그 배경은 치료사가 환자를 더 잘 지원하는 데 도움이 될 것이라고 그녀는 설명합니다.
"그들이 배우자와 안전한 대화를 하는 방법을 이해하도록 돕고, AI를 그러한 필요의 공백을 채우기 위한 도구로서의 한계를 이해하도록 돕는 것입니다."
AI 사용에 대한 논의는 또한 클라이언트가 자발적으로 치료사와 공유하지 않을 수도 있는 것들을 배울 수 있는 기회라고 전 국립정신보건원(National Institute of Mental Health) 원장인 정신과 의사 Tom Insel 박사는 말합니다. "사람들은 종종 다른 사람들과 말할 수 없는 것들에 대해 챗봇과 대화하곤 합니다. 왜냐하면 판단받을까봐 걱정하기 때문입니다"라고 그는 말합니다.
예를 들어, 자살 생각은 환자가 치료사와 공유하기를 꺼려하는 것일 수 있지만, 이것은 치료사가 환자의 안전을 지키기 위해 알아야 할 사항입니다.
환자들과 처음 주제를 꺼낼 때 Saba는 판단 없이 그렇게 할 것을 제안합니다.
"우리는 클라이언트들이 우리가 그들을 판단하고 있다고 느끼게 하고 싶지 않습니다"라고 그는 말합니다. "만약 우리가 그렇게 하면, 그들은 단순히 우리와 함께 일하고 싶지 않을 것입니다."
그는 치료사들이 진정한 호기심으로 주제에 접근하고 이러한 대화를 위한 제안된 언어를 제공할 것을 권장합니다.
"'당신도 알다시피, AI는 빠르게 성장하고 있는 것이고, 저는 많은 사람들이 정서적 지원을 위해 ChatGPT 같은 것을 사용하고 있다는 말을 듣고 있습니다'라고 그는 제안합니다. ''당신도 그렇게 하고 계신가요? 시도해 보셨나요?'''"
그는 또한 그들이 환자가 이러한 도구를 어떻게 사용하는지 더 잘 이해할 수 있도록 무엇을 유용하다고 생각했는지에 대해 구체적인 질문을 할 것을 권장합니다.
또한 Insel에 따르면 치료사는 챗봇이 세션에 가져올 주제를 검토하거나 일상의 일들에 대해 불평하기 위해 치료를 보완할 수 있는 유용한 방법을 파악할 수 있습니다.
어떤 의미에서 치료와 챗봇은 "함께 일하도록 정렬될 수 있다"고 Insel은 말합니다.
Saba와 그의 공동 저자 William Weeks는 또한 환자들에게 챗봇 상호작용 중 어떤 것이 도움이 되지 않거나 문제가 되었는지 물어볼 것을 제안하고, 또한 챗봇을 정서적 지원을 위해 사용하는 위험성을 공유할 것을 제안합니다.
예를 들어, 많은 AI 기업들이 민감한 것을 포함한 대화를 자신들의 모델을 더욱 훈련시키기 위해 사용하기 때문에 데이터 프라이버시에 대한 위험이 있습니다.
Insel에 따르면 챗봇을 치료사처럼 다루는 위험도 있습니다.
챗봇과 자신의 정신 건강에 대해 대화하는 것은 "치료의 반대"라고 그는 말합니다. 왜냐하면 챗봇은 사용자의 생각과 감정을 강화하면서 동의하고 아첨하도록 설계되어 있기 때문입니다.
"치료는 당신을 변화하고 도전하도록 도와주기 위해 있습니다"라고 Insel은 말합니다. "그리고 당신이 특히 어려운 것들에 대해 이야기하도록 하기 위해 말입니다."
심리학자 Cami Winkelspecht는 델라웨어주 윌밍턴에서 주로 아이들과 청소년들과 함께 일하는 개인 개업의입니다.
지난 1년 정도 동안 그녀는 학교의 명예 규약을 위반하지 않는 방식으로 브레인스토밍 및 기타 작업을 위해 AI를 사용하는 방법에 대해 도움을 달라고 요청하는 클라이언트와 그들의 부모들이 점점 증가하고 있습니다. 따라서 그녀는 그녀의 클라이언트들을 지원할 수 있기 위해 그 기술에 대해 잘 알아야 했습니다. 과정에서, 그녀는 치료사와 아이들의 부모들이 아이들과 청소년들이 자신들의 디지털 기기 - 소셜 미디어와 AI 챗봇 모두 - 를 어떻게 사용하고 있는지에 대해 더 많이 알아야 한다는 것을 깨달았습니다.
"우리는 반드시 그들이 자신들의 휴대폰으로 무엇을 하고 있는지에 대해 그렇게 생각하지는 않습니다"라고 Winkelspecht는 말합니다. "그리고 우리가 그것을 훨씬 더 많이 해야 한다는 것이 매우 명백하다고 생각합니다. 그리고 우리 자신이 그 대화를 하도록 격려하는 것입니다."
ChatGPT, Claude, Character.AI는 사람들이 점점 더 많이 사용하고 있는 인공지능으로 구동되는 챗봇입니다.
최근 연구와 조사에 따르면 청소년과 성인들이 점점 더 인공지능 챗봇에 동료애와 정서적 지원을 위해 의존하고 있습니다. 따라서 정신 건강 관리 제공자들은 환자들이 이 기술을 사용하는지, 그리고 어떻게 사용하는지 물어봐야 합니다. 이는 수면, 식단, 운동, 음주 소비에 대한 정보를 찾는 것과 같은 방식입니다.
이는 JAMA Psychiatry에 발표된 새로운 논문에 따른 것입니다.
뉴욕대학교 Silver School of Social Work의 조교수인 Shaddy Saba는 "우리는 AI 사용이 좋다거나 나쁘다고 말하지 않습니다"라고 말하며, "약물 사용이 반드시 좋거나 나쁘다고 말하지 않는 것처럼, 또는 친구와 무언가에 대해 상담하는 것이 좋거나 나쁘다고 말하지 않는 것처럼요."
하지만 정서적 지원과 조언을 위해 AI를 사용하는 사람의 습관을 배우는 것은 누군가의 삶과 정신 건강 상태에 대한 귀중한 통찰력을 제공할 수 있다고 그는 말합니다.
"우리의 일은 사람들이 왜 그렇게 행동하는지를 이해하는 것입니다. 이 경우에는 왜 AI 시스템에 도움을 청하는지를 이해하는 것입니다"라고 Saba는 덧붙입니다. "그리고 그것이 그들을 위해 무엇을 하는지, 무엇을 하지 못하는지 배우기 위해 말입니다."
Saba와 그의 공동 저자의 권장 사항은 미국심리학회(APA)가 지난해 11월에 발표한 건강 자문과 "매우 일치한다"고 APA의 Vaile Wright는 말합니다.
환자가 AI 챗봇과의 대화에서 얻는 것이 무엇인지 묻는 것은 "치료사가 환자의 정서적 웰빙과 정신 질환을 어떻게 헤쳐나가고 있는지 더 잘 알 수 있는 기초를 설정한다"고 Wright는 말합니다.
"사람들은 스트레스가 많은 경험을 대처하는 방법에 대해 물어보거나, 개인적인 관계 문제에 대해 규칙적으로 이러한 도구를 사용하고 있습니다"라고 Saba는 설명합니다.
그리고 일부는 불안과 우울증 증상을 대처하는 방법에 대한 조언을 위해 챗봇을 사용하고 있습니다.
"우리가 클라이언트들이 이러한 대화를 점점 더 자세히, 심지어 치료실로 가져올 수 있도록 독려할 수 있는 한에서, 저는 잠재적으로 귀중한 정보의 보고가 있을 수 있다고 생각합니다"라고 그는 말합니다.
이것은 누군가의 삶에서 스트레스의 주요 원인에 대한 정보일 수도 있고, 또는 그들이 대면을 피하는 방법으로서 챗봇에 의존하고 있는지에 대한 정보일 수도 있습니다.
"예를 들어, 배우자와의 관계 문제가 있는 클라이언트가 있다고 합시다"라고 APA의 Wright는 말합니다. "그리고 배우자와 자신의 필요를 충족시키는 방법에 대해 열린 대화를 하려고 하는 대신, 그들은 대신 그 필요를 충족시키기 위해 또는 배우자와 이러한 어려운 대화를 피하기 위해 챗봇으로 갑니다."
그 배경은 치료사가 환자를 더 잘 지원하는 데 도움이 될 것이라고 그녀는 설명합니다.
"그들이 배우자와 안전한 대화를 하는 방법을 이해하도록 돕고, AI를 그러한 필요의 공백을 채우기 위한 도구로서의 한계를 이해하도록 돕는 것입니다."
AI 사용에 대한 논의는 또한 클라이언트가 자발적으로 치료사와 공유하지 않을 수도 있는 것들을 배울 수 있는 기회라고 전 국립정신보건원(National Institute of Mental Health) 원장인 정신과 의사 Tom Insel 박사는 말합니다. "사람들은 종종 다른 사람들과 말할 수 없는 것들에 대해 챗봇과 대화하곤 합니다. 왜냐하면 판단받을까봐 걱정하기 때문입니다"라고 그는 말합니다.
예를 들어, 자살 생각은 환자가 치료사와 공유하기를 꺼려하는 것일 수 있지만, 이것은 치료사가 환자의 안전을 지키기 위해 알아야 할 사항입니다.
환자들과 처음 주제를 꺼낼 때 Saba는 판단 없이 그렇게 할 것을 제안합니다.
"우리는 클라이언트들이 우리가 그들을 판단하고 있다고 느끼게 하고 싶지 않습니다"라고 그는 말합니다. "만약 우리가 그렇게 하면, 그들은 단순히 우리와 함께 일하고 싶지 않을 것입니다."
그는 치료사들이 진정한 호기심으로 주제에 접근하고 이러한 대화를 위한 제안된 언어를 제공할 것을 권장합니다.
"'당신도 알다시피, AI는 빠르게 성장하고 있는 것이고, 저는 많은 사람들이 정서적 지원을 위해 ChatGPT 같은 것을 사용하고 있다는 말을 듣고 있습니다'라고 그는 제안합니다. ''당신도 그렇게 하고 계신가요? 시도해 보셨나요?'''"
그는 또한 그들이 환자가 이러한 도구를 어떻게 사용하는지 더 잘 이해할 수 있도록 무엇을 유용하다고 생각했는지에 대해 구체적인 질문을 할 것을 권장합니다.
또한 Insel에 따르면 치료사는 챗봇이 세션에 가져올 주제를 검토하거나 일상의 일들에 대해 불평하기 위해 치료를 보완할 수 있는 유용한 방법을 파악할 수 있습니다.
어떤 의미에서 치료와 챗봇은 "함께 일하도록 정렬될 수 있다"고 Insel은 말합니다.
Saba와 그의 공동 저자 William Weeks는 또한 환자들에게 챗봇 상호작용 중 어떤 것이 도움이 되지 않거나 문제가 되었는지 물어볼 것을 제안하고, 또한 챗봇을 정서적 지원을 위해 사용하는 위험성을 공유할 것을 제안합니다.
예를 들어, 많은 AI 기업들이 민감한 것을 포함한 대화를 자신들의 모델을 더욱 훈련시키기 위해 사용하기 때문에 데이터 프라이버시에 대한 위험이 있습니다.
Insel에 따르면 챗봇을 치료사처럼 다루는 위험도 있습니다.
챗봇과 자신의 정신 건강에 대해 대화하는 것은 "치료의 반대"라고 그는 말합니다. 왜냐하면 챗봇은 사용자의 생각과 감정을 강화하면서 동의하고 아첨하도록 설계되어 있기 때문입니다.
"치료는 당신을 변화하고 도전하도록 도와주기 위해 있습니다"라고 Insel은 말합니다. "그리고 당신이 특히 어려운 것들에 대해 이야기하도록 하기 위해 말입니다."
심리학자 Cami Winkelspecht는 델라웨어주 윌밍턴에서 주로 아이들과 청소년들과 함께 일하는 개인 개업의입니다.
지난 1년 정도 동안 그녀는 학교의 명예 규약을 위반하지 않는 방식으로 브레인스토밍 및 기타 작업을 위해 AI를 사용하는 방법에 대해 도움을 달라고 요청하는 클라이언트와 그들의 부모들이 점점 증가하고 있습니다. 따라서 그녀는 그녀의 클라이언트들을 지원할 수 있기 위해 그 기술에 대해 잘 알아야 했습니다. 과정에서, 그녀는 치료사와 아이들의 부모들이 아이들과 청소년들이 자신들의 디지털 기기 - 소셜 미디어와 AI 챗봇 모두 - 를 어떻게 사용하고 있는지에 대해 더 많이 알아야 한다는 것을 깨달았습니다.
"우리는 반드시 그들이 자신들의 휴대폰으로 무엇을 하고 있는지에 대해 그렇게 생각하지는 않습니다"라고 Winkelspecht는 말합니다. "그리고 우리가 그것을 훨씬 더 많이 해야 한다는 것이 매우 명백하다고 생각합니다. 그리고 우리 자신이 그 대화를 하도록 격려하는 것입니다."
A paper in JAMA Psychiatry says mental health providers should ask if patients are using artificial intelligence chatbots, just as they would ask patients about sleep habits and substance use.
Rhitu ChatterjeeChatGPT, Claude and Character.AI are chatbots powered by artificial intelligence that people are using increasingly.
Kiichiro Sato/AP
hide caption
Increasingly, teens and adults are turning to artificial intelligence chatbots for companionship and emotional support, recent studies and surveys show. And so, mental health care providers should inquire if and how their patients are using this technology, just like they seek information on sleep, diet, exercise and alcohol consumption.
That's according to a new paper out in JAMA Psychiatry.
"We're not saying that AI use is good or bad," says Shaddy Saba, an assistant professor at New York University's Silver School of Social Work, "just like we wouldn't say, substance use is necessarily good or bad, [or] consulting with a friend about something is good or bad."
However, learning about a person's use of AI for emotional support and advice could provide valuable insight into someone's life and mental health status, he says.
"Our job is to understand why people are behaving as they are — in this case, why they are seeking help from an AI system," adds Saba. "And to learn about what it's doing for them, what it's not doing for them."
Saba and his co-author's recommendations are "very aligned" with recommendations by the American Psychological Association (APA) in a health advisory released in November of last year, says the APA's Vaile Wright.
Asking what a patient is getting out of their conversations with an AI chatbot sets "a foundation for the therapist to better know how they are trying to navigate their emotional wellbeing and their mental illness," says Wright.
"People are using these tools on a regular basis to ask about how to cope with stressful experiences, personal relationship challenges," explains Saba.
And some are using chatbots for advice on how to cope with symptoms of anxiety and depression.
"To the extent that we can prompt our clients to bring these conversations, in increasing detail, even into the therapy room, I think there's potentially a treasure trove of information," he says.
It could be information about the main causes of stress in someone's life, or if they are turning to a chatbot as a way to avoid confrontations.
"Let's say, for example, you have a client who is having relationship issues with their spouse," says the APA's Wright. "And instead of trying to have open conversations with their spouse about how to get their needs met, they're instead going to the chatbot to either fill those needs or to avoid having these difficult conversations with their spouse."
That background will help a therapist better support the patient, she explains.
"Helping them understand how to have a safe conversation with their spouse, helping them understand the limitations of AI as a tool for filling those gaps in those needs."
Discussing use of AI is also a chance to learn about things a client might not voluntarily share with a therapist, says psychiatrist Dr. Tom Insel, former director of the National Institute of Mental Health. "People often use the chatbots to talk about things that they can't talk about with other people because they're so worried about being judged," he says.
For example, suicidal thoughts may be something a patient is reluctant to share with their therapist, but that is critical for the therapist to know to keep the patient safe.
When it comes to first broaching the subject with patients, Saba suggests doing it without any judgment.
"We don't want to make clients feel like we're judging them," he says. "They're just not going to want to work with us in general if we do that."
He recommends therapists approach the topic with genuine curiosity, and offers suggested language for these conversations.
"'You know, A.I. is something that's kind of rapidly growing, and I'm hearing from a lot of people that they're using things like ChatGPT for emotional support," he suggests. "'Is that the case for you? Have you tried that?'"
He also recommends asking specific questions about what they found helpful so they can better understand how a patient is using these tools.
It could also help a therapist figure out if a chatbot can complement therapy in helpful ways, says Insel, such as to vet which topics to bring to their sessions or to vent about day-to-day life.
In a way, therapy and chatbots "could be aligned to work together," says Insel.
Saba and his co-author, William Weeks also suggest asking patients if they found any chatbot interactions unhelpful or problematic, and also offering to share risks of using chatbots for emotional support.
For example, the risks to data privacy, because many AI companies use the conversations – even sensitive ones – to further train their models.
There are also risks of treating a chatbot like a therapist, says Insel.
Talking with a chatbot about one's mental health is "the opposite of therapy," he says, because chatbots are designed to affirm and flatter, reinforcing users' thoughts and feelings.
"Therapy is there to help you change and to challenge you," says Insel, ""and to get you to talk about things that are particularly difficult.
Psychologist Cami Winkelspecht has a private practice working primarily with children and adolescents in Wilmington, Del.
She has been considering adding questions about social media and AI use to her intake form, and appreciated Saba's study as it offered some sample questions to include.
Chat GPT's landing page on a computer screen.
Kiichiro Sato/AP
hide caption
Over the past year or so, Winkelspecht has had a growing number of clients and their parents ask her for help with using AI for brainstorming and other tasks in ways that don't break a school's honor code. So, she's had to familiarize herself with the technology in order to be able to support her clients. Along the way, she's come to realize that therapists and kids' parents need to be more aware of how children and teens are using their digital devices — both social media and AI chatbots.
"We don't necessarily think about what they're doing with their phones quite as much," says Winkelspecht. "And I think it's pretty clear that we need to be doing that more and encouraging ourselves to have that conversation."