OpenAI가 캐나다 총기난사범의 ChatGPT 행동 보고 실패로 고소당해

Families sue OpenAI over failure to report Canada mass shooter’s behavior on ChatGPT

The Guardian · 🇬🇧 London, GB Dara Kerr and Abené Clayton EN 2026-04-29 22:00 Translated
직원들이 치명적인 Tumbler Ridge 공격 수개월 전 당국에 신고하도록 회사에 촉구했다는 주장새로운 소송들은 직원들이 회사에 당국에 신고하도록 촉구했으나 회사가 거부했다고 주장영국령 캬나다의 한 중학교에서의 집단 총기난사 피해자 7명의 가족들이 ChatGPT와의 폭력적인 대화에 대해 당국에 경고하지 않은 책임으로 OpenAI와 회사 CEO를 상대로 고소했습니다. 수요일 샌프란시스코 연방법원에 제출된 소장은 18세 총기난사범 Jesse Van Rootselaar의 폭력 의도가 OpenAI에 잘 알려져 있었다고 주장합니다. 회사 직원들은 공격 8개월 전 총기난사범의 계정에 플래그를 표시했으며 이것이 "실제 사람들에 대한 총기 폭력의 신뢰할 수 있고 구체적인 위협"이라고 판단했습니다.
영국령 캬나다의 한 중학교에서의 집단 총기난사 피해자 7명의 가족들이 ChatGPT와의 폭력적인 대화에 대해 당국에 경고하지 않은 책임으로 OpenAI와 회사 CEO를 상대로 고소했습니다.

수요일 샌프란시스코 연방법원에 제출된 소장은 18세 총기난사범 Jesse Van Rootselaar의 폭력 의도가 OpenAI에 잘 알려져 있었다고 주장합니다. 회사 직원들은 공격 8개월 전 총기난사범의 계정에 플래그를 표시했으며 이것이 "실제 사람들에 대한 총기 폭력의 신뢰할 수 있고 구체적인 위협"이라고 판단했습니다.

가족들은 직원들이 OpenAI CEO인 Sam Altman과 다른 고위 지도자들에게 공격 8개월 전 캐나다 법 집행 기관에 알리도록 촉구했으나 회사는 당국에 경고하지 않고 총기난사범의 계정을 비활성화하기로 결정했다고 주장합니다. 이 중 대부분은 월스트리트저널에 말한 회사 내 직원들의 증언에 기반합니다.

법 집행 기관에 알리지 않기로 한 결정이 시골 지역사회인 Tumbler Ridge에 파괴를 초래했다고 소장은 주장하며, 2월 10일 총기난사범이 개조된 소총을 들고 중학교에 난입해 총을 발포했습니다. 그들은 계단에서 처음 만난 사람을 쏜 후 도서관으로 진행해 5명을 더 살해하고 27명을 다치게 했습니다. 총기난사범은 그 후 자살했습니다.

학교 공격 전에 총기난사범은 자신의 어머니와 11세 남동생을 가정에서 살해했습니다.

학교 피해자들의 나이는 12세에서 13세 사이이며 39세 교사 보조자를 포함합니다. 12세 생존자인 Maya Gebala는 머리, 목, 뺨에 총을 맞았습니다. 그녀는 총격 이후 Vancouver의 어린이 병원 중환자실에 입원했으며 4번의 뇌수술을 받았습니다. 생존하더라도 영구 장애가 남을 가능성이 높다고 그녀의 변호사들이 말했습니다.

7건의 소장을 제기한 가족들은 OpenAI와 Altman을 과실, 집단 총기난사 방조, 부당한 죽음, 제품 책임으로 고소했습니다. 그들의 변호사들은 이것이 총격 사건을 둘러싼 AI 회사에 대한 첫 번째 소송이며 약 20건 이상의 추가 사건이 예상된다고 말합니다.

Guardian에 보낸 성명에서 OpenAI는 "Tumbler Ridge의 사건은 비극입니다. 우리는 우리의 도구를 폭력 범죄에 사용하는 것에 대해 무관용 정책을 가지고 있습니다. 캐나다 당국과 공유했듯이 우리는 이미 ChatGPT가 고통의 신호에 어떻게 반응하는지 개선하고, 사람들을 지역 지원 및 정신 건강 자원과 연결하고, 폭력 위협의 평가 및 에스컬레이션 방식을 강화하고, 정책 위반 반복 사용자의 탐지를 개선하는 등 보안 조치를 강화했습니다"라고 말했습니다.

Guardian이 의견을 요청한 후 OpenAI는 자신의 "안전에 대한 약속"과 "지역사회 안전을 보호하는 방법"에 대한 새로운 블로그 글을 발표했습니다.

이 공격은 캐나다 역사상 가장 치명적인 집단 총기난사 중 하나였습니다. 이후 작은 지역사회에서는 어떻게 이런 일이 일어날 수 있었는지에 대한 의문이 제기되었습니다.

Van Rootselaar의 ChatGPT 계정은 소장에 따르면 OpenAI의 안전 팀이 폭력적인 대화로 플래그를 표시한 후 총격 8개월 전에 금지되었습니다. 그러나 소장에 따르면 총기난사범은 빠르게 새로운 계정을 만들 수 있었습니다.

OpenAI는 총기난사범이 회사가 총격 후까지 알지 못했던 두 번째 계정을 만들었다고 주장하지만, 소장은 회사가 비활성화된 경우 ChatGPT로 돌아가는 방법에 대한 지침을 사용자에게 제공하며 총기난사범이 이를 따랐다고 주장합니다.

"Sam과 지도부가 안전 팀의 의견을 무시했고, 그 결과 아이들이 죽었고, 어른들이 죽었으며, 전체 도시가 파괴되었다는 사실은 제게는 악의 정의에 매우 가깝습니다"라고 Tumbler Ridge 소송인단을 대리하는 수석 변호사 Jay Edelson이 말했습니다.

소장은 총기난사범의 ChatGPT와의 상호작용을 캐나다 당국으로부터 은폐하기로 한 선택이 "기업 생존"의 이익을 위해, 그리고 Altman을 세계에서 가장 부유한 사람 중 한 명으로 만들 수 있는 1조 달러의 예상 가치를 가진 IPO를 보호하기 위해 이루어졌다고 주장합니다.

OpenAI는 Tumbler Ridge 총기난사범과 자신의 챗봇 간의 로그 공유를 거부했다고 Edelson이 말했습니다.

지난주 늦게 Altman은 OpenAI가 총기난사범의 잠재적 위협에 대해 알고 있던 것에 대해 캐나다 경찰에 통보하지 않은 것에 대해 Tumbler Ridge 지역사회에 사과하는 편지를 보냈습니다.

"말이 절대 충분할 수 없다는 것을 알지만, 여러분의 지역사회가 겪은 피해와 돌이킬 수 없는 손실을 인정하기 위해 사과가 필요하다고 생각합니다"라고 Altman이 작성했습니다. "향후 이와 같은 비극을 예방하기 위한 방법을 찾기 위해 시장과 주 지사에게 한 약속을 다시 확인합니다."

영국령 캐나다 주 총리인 David Eby는 편지를 소셜 미디어에 게시하면서 "사과는 필요하며, 그러나 Tumbler Ridge 가족들에게 초래된 황폐화에 대해서는 극도로 부족합니다"라는 댓글을 달았습니다.

2월 26일, 총격 사건으로부터 2주 조금 넘은 후 OpenAI의 글로벌 정책 부사장 Ann O'Leary는 캐나다 인공지능 및 디지털 혁신 장관인 Evan Solomon에게 편지를 보냈습니다. O'Leary는 총기난사범의 계정이 비활성화되었을 때 회사가 본 것에 기반하여 "법 집행 기관에 회부할 우리의 기준을 충족하는 신뢰할 수 있고 임박한 계획"을 식별하지 못했다고 작성했습니다. 이 결정은 OpenAI의 안전 팀의 계정을 법 집행 기관에 신고해야 한다는 경고에도 불구하고 이루어졌습니다.

O'Leary는 또한 법 집행 기관과의 관계를 강화하고, ChatGPT에서 반복적으로 금지되었지만 그 후 새 계정을 만드는 사용자를 탐지하기 위한 시스템을 강화하는 등 회사가 계획하고 있는 조치들을 명시했습니다.

이 소송들은 AI 회사들이 자신들의 챗봇이 정신 건강 위기를 악화시키고 폭력 행동을 유발한다는 주장에 대한 사건들의 급증의 일부입니다. 11월에 ChatGPT를 "자살 코치"로 행동한다고 비난하는 7건의 불만이 OpenAI에 제기되었습니다. Google은 자신의 Gemini 챗봇이 36세 남성에게 "재앙적인 사건"을 계획하고 자살하도록 장려했다는 혐의로 지난달 고소당했습니다. Google은 자신의 보안 조치를 개선하기 위해 노력하고 있다고 말했으며 OpenAI는 소장 제출서를 검토 중이라고 말했습니다.

플로리다에서 주 검찰총장은 Florida State University 캠퍼스에서 집단 총기난사를 저질렀다고 혐의를 받는 총기난사범과 ChatGPT 간의 메시지를 검토한 후 OpenAI에 대한 형사 수사를 최근 시작했습니다. 이는 기술 회사에 대한 최초의 형사 조사입니다. Tumbler Ridge 가족들의 변호사들은 자신의 사건들이 회사에 대한 유사한 형사 책임을 지지할 수 있다고 생각한다고 말합니다. 회사는 NBC 뉴스에 자신들이 총격 사건에 책임이 없으며 주의 질문에 답변했다고 말했습니다.

이는 총기 제조업체, 판매자, 그리고 미국 연방 정부와 같은 실체들을 총격 사망 및 부상으로 이어진 주장된 부작위에 대해 책임을 묻기 위해 소송을 사용하는 지금-일반적인 접근 방식의 또 다른 예입니다.

7건의 Tumbler Ridge 소송은 Gebala, 교사 보조자 Shannda Aviugana-Durand의 가족, 학교 총격으로 사망한 5명 아이의 가족을 대신하여 제기됩니다. 그 피해자들은 Zoey Benoit, Ticaria "Tiki" Lampert, Kylie Smith, Ezekiel Schofield, Abel Mwansa Jr.를 포함합니다. 가족들은 손실이 견딜 수 없다고 말합니다.

3년 전 Zambia에서 캐나다로 이민온 Mwansa의 부모는 자신의 12세 아들이 좋은 청취자였으며 매일 아침 여동생을 위해 아침 식사를 해주었다고 말합니다. 총격 사건에서 생존한 그의 친구 중 한 명은 Mwansa의 마지막 말이 "부모님께 내가 너무 사랑한다고 말씀해 주세요"였다고 말했습니다.
처리 완료 7,186 tokens · $0.0208
기사 수집 완료 · 22:25
매체 피드에서 기사 메타데이터 수집
헤드라인 번역 완료 · 22:36
제목/요약 한국어 번역 (fetch 시점 inline)
claude-haiku-4-5-20251001 632 tokens $0.00179 4.8s
본문 추출 완료
7,641자 추출 완료
본문 한국어 번역 완료 · 22:36
3,974자 번역 완료
claude-haiku-4-5-20251001 6,554 tokens $0.01898 45.0s
지정학적 엔티티 추출 완료 · 22:36
7개 엔티티 추출 완료

New lawsuits allege employees urged company to notify authorities months before deadly Tumbler Ridge attackFamilies of seven victims of a mass shooting at a secondary school in British Columbia are suing OpenAI and the company’s CEO for negligence after it failed to alert authorities to the shooter’s troubling conversations with ChatGPT.The lawsuits, filed on Wednesday in a federal court in San Francisco, allege that the violent intentions of the shooter, identified as 18-year-old Jesse Van Rootselaar, were well-known to OpenAI. Employees at the company flagged the shooter’s account eight months before the attack and determined that it posed “a credible and specific threat of gun violence against real people”, according to the lawsuit.

Families of seven victims of a mass shooting at a secondary school in British Columbia are suing OpenAI and the company’s CEO for negligence after it failed to alert authorities to the shooter’s troubling conversations with ChatGPT.

The lawsuits, filed on Wednesday in a federal court in San Francisco, allege that the violent intentions of the shooter, identified as 18-year-old Jesse Van Rootselaar, were well-known to OpenAI. Employees at the company flagged the shooter’s account eight months before the attack and determined that it posed “a credible and specific threat of gun violence against real people”, according to the lawsuit.

The families allege that employees urged Sam Altman, OpenAI’s CEO, and other senior leaders to notify Canadian law enforcement eight months before the attack, but the company decided not to warn authorities and deactivated the shooter’s account instead. Much of this is based on accounts that employees inside the company told the Wall Street Journal.

The decision to not alert law enforcement led to the devastation of the rural community of Tumbler Ridge, the suit alleges, where on 10 February the shooter stormed the secondary school with a modified rifle and opened fire. They shot the first person they came across in a stairwell, and proceeded to the library, where they killed five others and injured 27 more. The shooter then killed themself.

Before going to the school, the shooter killed their mother and 11-year-old brother in their family home.

The school victims range in age from 12 to 13 and include a 39-year-old teaching assistant. One of the survivors, 12-year-old Maya Gebala, was shot in the head, neck and cheek. She has been in intensive care at Vancouver’s children’s hospital since the shooting and has received four brain operations. If she survives, she will likely have permanent disabilities, her attorneys said.

The families who brought the seven lawsuits accuse OpenAI and Altman of negligence, aiding and abetting a mass shooting, wrongful death, and product liability. Their lawyers say it is the first wave of suits against the AI company over the shooting, and about two dozen more cases are forthcoming.

In a statement to the Guardian, OpenAI said: “The events in Tumbler Ridge are a tragedy. We have a zero-tolerance policy for using our tools to assist in committing violence. As we shared with Canadian officials, we have already strengthened our safeguards, including improving how ChatGPT responds to signs of distress, connecting people with local support and mental health resources, strengthening how we assess and escalate potential threats of violence, and improving detection of repeat policy violators.”

After the Guardian reached out for comment, OpenAI published a new blog post about its “commitment to safety” and how it “protects community safety”.

The attack was one of the deadliest mass shootings in Canadian history. In the aftermath, questions swirled in the small community about how it could have happened.

Van Rootselaar’s ChatGPT account was banned eight months prior to the shooting, after OpenAI’s safety team flagged it for violent conversations, according to the lawsuit. However, the shooter was able to quickly create a new one, the suit alleges.

Although OpenAI says that the shooter created a second account the company was unaware of until after the shooting, the lawsuits say the company provides users with instructions on how to return to ChatGPT if they are deactivated, which the shooter followed.

“The fact that Sam and the leadership overruled the safety team, and then children died, adults died, the whole town was ruined, is pretty close to the definition of evil to me,” said Jay Edelson, the lead lawyer representing the Tumbler Ridge plaintiffs.

The lawsuit alleges that the choice to conceal the shooter’s interactions with ChatGPT from Canadian authorities, and later tell the public that the shooter sneaked back on to the platform, was made in the interest of “corporate survival” and to protect the company’s IPO, which has an expected valuation of $1tn and could make Altman one of the wealthiest people in the world.

OpenAI has declined to share the logs between its chatbot and the Tumbler Ridge shooter, Edelson said.

Late last week, Altman sent a letter to the Tumbler Ridge community apologizing for not notifying Canadian police about what OpenAI knew regarding the shooter’s potential threat.

“While I know words can never be enough, I believe an apology is necessary to recognize the harm and irreversible loss your community has suffered,” Altman wrote. “I reaffirm the commitment I made to the mayor and the premier to find ways to prevent tragedies like this in the future.”

David Eby, the British Columbia premier, posted the letter to social media with the comment: “The apology is necessary, and yet grossly insufficient for the devastation done to the families of Tumbler Ridge.”

On 26 February, a little over two weeks after the shooting, OpenAI’s vice-president of global policy, Ann O’Leary, sent a letter to Evan Solomon, Canada’s minister of artificial intelligence and digital innovation. O’Leary wrote that based on what the company saw when the shooter’s account was deactivated, it did not “identify credible and imminent planning that met our threshold to refer the matter to law enforcement”. This decision came despite the warnings from OpenAI’s safety team that the account should have been reported.

O’Leary also spelled out the actions the company was planning to take, such as strengthening their relationship with Canadian law enforcement and bulking up its system to detect users who are repeatedly banned from ChatGPT but subsequently make new accounts.

The lawsuits are part of a groundswell of cases against AI companies over allegations that their chatbots are exacerbating mental health crises and provoking violent acts. In November, seven complaints were filed against OpenAI, blaming ChatGPT for acting as a “suicide coach”. Google was sued last month after its Gemini chatbot allegedly encouraged a 36-year-old man to stage a “catastrophic accident” and then kill himself. Google has said it is working to improve its safeguards and OpenAI said it is reviewing the lawsuit’s filings.

In Florida, the attorney general recently opened a criminal investigation into OpenAI after reviewing messages between ChatGPT and a gunman accused of committing a mass shooting on the Florida State University campus – the first such criminal inquiry into a tech company. Lawyers for the Tumbler Ridge families say they believe their cases could support similar criminal liability against the company. The company told NBC News it was not responsible for the shooting and has answered the state’s questions.

It’s another example of the now-common approach of using lawsuits to hold entities such as gunmakers and dealers and the US federal government accountable for alleged inaction that has led to shooting deaths and injuries.

The seven Tumbler Ridge lawsuits are filed on behalf of Gebala, the family of the teaching assistant, Shannda Aviugana-Durand, and the families of five of the children who died in the school shooting. Those victims include Zoey Benoit, Ticaria “Tiki” Lampert, Kylie Smith, Ezekiel Schofield and Abel Mwansa Jr. The families say the loss is unbearable.

Mwansa’s parents, who immigrated to Canada from Zambia three years ago, say their 12-year-old was a good listener who made his sister breakfast every morning. One of his friends who survived the shooting said Mwansa’s final words were: “Tell my parents that I love them so much.”