구글, 미국 펜타곤과의 기밀 AI 거래 체결 보도

Google reportedly signs classified AI deal with US Pentagon

The Guardian · 🇬🇧 London, GB Sanya Mansoor and agencies EN 2026-04-29 01:57 Translated
기술 회사는 광범위한 직원 반대에도 불구하고 미국 군부와 합의에 서명한 최신 실리콘밸리 기업입니다.
구글이 미국 펜타곤과 기밀 작업을 위해 인공지능 모델을 사용하기로 하는 거래를 체결한 것으로 보도되었습니다. 이 기술 회사는 미국 군부와 합의에 서명하는 실리콘밸리 기업들의 증가하는 목록에 합류했습니다.

이 합의에 따르면 펜타곤은 구글의 AI를 "합법적인 정부 목적"을 위해 사용할 수 있으며, 정보 보도에 따르면 기밀 사용을 위해 AI 모델을 공급하기로 한 OpenAI 및 일론 머스크의 xAI과 함께 나열됩니다. 구글과 다른 AI 기업들 간의 유사한 합의들은 펜타곤과 직원들의 상당한 반발을 촉발했습니다.

기밀 네트워크는 임무 계획 및 무기 표적화를 포함한 광범위한 민감한 작업을 처리하는 데 사용됩니다. 펜타곤은 2025년 Anthropic, OpenAI, 구글을 포함한 주요 AI 랩들과 각각 2억 달러 규모의 합의에 서명했습니다. 정부 기관은 OpenAI 및 Anthropic과 같은 주요 AI 기업들에 사용자에게 적용하는 표준 제한 없이 기밀 네트워크에서 도구를 사용 가능하도록 하도록 촉구해 왔습니다.

정보 보도에 따르면 구글의 합의는 정부의 요청에 따라 회사의 AI 안전 설정 및 필터를 조정하는 데 도움을 주어야 합니다.

계약에는 "당사자들은 AI 시스템이 적절한 인간의 감시와 통제 없이 국내 대량 감시 또는 자율 무기(표적 선택 포함)를 위한 것이 아니며 사용되어서는 안 된다는 데 동의합니다"라는 언어가 포함되어 있습니다.

그러나 보도에 따르면 이 합의는 합법적인 정부 운영상 의사결정을 통제하거나 거부할 권리를 구글에 부여하지 않습니다.

펜타곤은 이 문제에 대해 언급을 거절했습니다.

구글은 기밀 및 비기밀 프로젝트 모두에서 정부 기관을 지원한다고 말했습니다. 회사 대변인은 회사가 적절한 인간의 감시 없이 국내 대량 감시 또는 자율 무기에 AI를 사용하지 않아야 한다는 합의에 계속 헌신하고 있다고 말했습니다.

구글 대변인은 로이터에 "산업 표준 관행 및 약관과 함께 구글 인프라를 포함한 상용 모델에 대한 API 접근을 제공하는 것이 국가 안보를 지원하기 위한 책임감 있는 접근 방식을 나타낸다고 생각합니다"라고 말했습니다.

펜타곤은 미국인의 대량 감시를 수행하거나 인간의 개입 없이 작동하는 치명적 무기를 개발하기 위해 AI를 사용할 의도가 없지만 AI의 "합법적인 모든 사용"이 허용되기를 원한다고 말했습니다. Anthropic은 올해 초 AI에 대한 자율 무기 또는 국내 감시 사용에 대한 안전장치를 제거하기를 거부한 후 펜타곤으로부터 반발에 직면했으며, 부서는 Claude 제작자를 공급망 위험으로 지정했습니다.

펜타곤과의 구글의 합의는 직원들이 자신의 업무가 "비인도적이거나 극도로 해로운 방식"으로 사용될 수 있다는 우려에도 불구하고 이루어졌습니다.

월요일에 600명 이상의 구글 직원들이 CEO 순다르 피차이에게 보내는 공개 서한에 서명하여 구글과 펜타곤 간의 협상에 대한 우려를 표명했습니다.

그들은 "우리는 이 기술에 대한 우리의 근접성이 가장 비윤리적이고 위험한 사용을 강조하고 방지할 책임을 만든다고 느낍니다. 따라서 우리는 AI 시스템을 기밀 작업에 사용 가능하게 하지 말 것을 요청합니다"라고 썼습니다.

지난해 구글의 모기업 알파벳은 무기 및 감시 도구를 위한 AI 사용 금지를 해제했습니다. 회사는 회사가 "전체적인 해를 야기하거나 야기할 가능성이 있는" 기술을 추구하지 않을 것을 약속한 윤리 지침의 언어를 제거했습니다. 회사의 AI 리드인 Demis Hassabis는 블로그 게시물에서 AI가 "국가 안보" 보호에 중요해졌다고 말했습니다.

일부 구글 직원들은 당시 회사의 내부 메시지 보드에서 언어 변경에 대한 우려를 표명했습니다. 비즈니스 인사이더에 따르면 한 명은 "우리가 나쁜 놈들인가?"라고 물었습니다.

전쟁에서 AI와 기술의 사용은 이 문제에 대한 이전의 활동이 일부 성공을 거둔 구글 직원들에게 오랫동안 불안의 원천이었습니다. 2018년에 수천 명의 구글 직원들이 드론 감시 영상을 분석하기 위해 자신의 AI 도구를 사용한 펜타곤과의 계약에 대한 회사의 관여에 항의하는 서한에 서명했습니다. 광범위한 내부 반발 후에 구글은 그 해에 Project Maven 계약을 갱신하지 않기로 선택했으며, 논란이 많은 감시 분석 회사 Palantir가 인수했습니다.
처리 완료 4,145 tokens · $0.0116
기사 수집 완료 · 02:25
매체 피드에서 기사 메타데이터 수집
헤드라인 번역 완료 · 02:37
제목/요약 한국어 번역 (fetch 시점 inline)
claude-haiku-4-5-20251001 556 tokens $0.00159 3.8s
본문 추출 완료
4,381자 추출 완료
본문 한국어 번역 완료 · 02:37
2,097자 번역 완료
claude-haiku-4-5-20251001 3,589 tokens $0.00999 19.1s
지정학적 엔티티 추출 완료 · 02:37
2개 엔티티 추출 완료

Tech company is latest Silicon Valley firm to sign agreement with US military despite widespread employee oppositionGoogle has reportedly signed a deal with the US Pentagon to use its artificial intelligence models for classified work. The tech company joins a growing list of Silicon Valley firms inking agreements with the US military.The agreement allows the Pentagon to use Google’s AI for “any lawful government purpose”, the report from the Information added, putting it alongside OpenAI and Elon Musk’s xAI, which also have deals to supply AI models for classified use. Similar agreements, both at Google and other AI firms, have sparked significant disagreements with the Pentagon and major employee pushback.

Google has reportedly signed a deal with the US Pentagon to use its artificial intelligence models for classified work. The tech company joins a growing list of Silicon Valley firms inking agreements with the US military.

The agreement allows the Pentagon to use Google’s AI for “any lawful government purpose”, the report from the Information added, putting it alongside OpenAI and Elon Musk’s xAI, which also have deals to supply AI models for classified use. Similar agreements, both at Google and other AI firms, have sparked significant disagreements with the Pentagon and major employee pushback.

Classified networks are used to handle a wide range of sensitive work, including mission planning and weapons targeting. The Pentagon signed agreements worth up to $200m each with major AI labs in 2025, including Anthropic, OpenAI and Google. The government agency had been pushing top AI companies such as OpenAI and Anthropic to make their tools available on classified networks without the standard restrictions they apply to users.

Google’s agreement requires it to help in adjusting the company’s AI safety settings and filters at the government’s request, according to the Information report.

The contract includes language stating, “the parties agree that the AI System is not intended for, and should not be used for, domestic mass surveillance or autonomous weapons (including target selection) without appropriate human oversight and control”.

However, the agreement also says it does not give Google the right to control or veto lawful government operational decision-making, the report added.

The Pentagon declined to comment on the matter.

Google said it supported government agencies across both classified and non-classified projects. A spokesperson for the company said that the company remained committed to the consensus that AI should not be used for domestic mass surveillance or autonomous weaponry without appropriate human oversight.

“We believe that providing API access to our commercial models, including on Google infrastructure, with industry-standard practices and terms, represents a responsible approach to supporting national security,” a spokesperson for Google told Reuters.

The Pentagon has said it has no interest in using AI to conduct mass surveillance of Americans or to develop lethal weapons that operate without human involvement, but wants “any lawful use” of AI to be allowed. Anthropic faced fallout with the Pentagon earlier in the year after the startup refused to remove guardrails against using its AI for autonomous weapons or domestic surveillance, and the department designated the Claude-maker a supply-chain risk.

Google’s agreement with the Pentagon comes despite employees’ fears that their work could be used in “inhumane or extremely harmful ways”, as a letter from Google employees reads.

On Monday, more than 600 Google workers signed an open letter to the CEO, Sundar Pichai, expressing concerns about negotiations between Google and the Pentagon.

“We feel that our proximity to this technology creates a responsibility to highlight and prevent its most unethical and dangerous uses,” they wrote. “Therefore, we ask you to refuse to make our AI systems available for classified workloads.”

Last year, Google’s owner, Alphabet, lifted a ban on its use of AI for weapons and surveillance tools. The company removed language in its ethical guidelines that promised the company would not pursue “technologies that cause or are likely to cause overall harm”. The company’s AI lead, Demis Hassabis, said in a blogpost that AI had become important for protecting “national security”.

Some Google employees expressed their concerns about the change in language on the company’s internal message board at the time. One asked: “Are we the baddies?” according to Business Insider.

The use of AI and technology in war has long been a source of anxiety for Google employees, whose previous activism on this issue has seen some success. In 2018, thousands of Google employees signed a letter protesting against their company’s involvement in a contract with the Pentagon that used its AI tools to analyze drone surveillance footage. Google chose not to renew the Project Maven contract that year after sweeping internal backlash, and the controversial surveillance analytics company Palantir swooped in to take over.