O presidente dos Estados Unidos, Donald Trump, determinou o banimento da tecnologia da Anthropic em agências federais no dia 27 de outubro de 2023. Essa decisão foi tomada após a desenvolvedora do modelo Claude recusar as exigências do Pentágono para permitir o uso irrestrito de sua inteligência artificial (IA) em operações militares.
Apesar do veto, o governo dos EUA continuou utilizando a tecnologia da Anthropic. Horas após o anúncio, o Comando Central dos EUA empregou as ferramentas da Anthropic em ataques aéreos no Oriente Médio, realizando análises de inteligência e simulações de cenários de combate, conforme reportado pelo The Wall Street Journal.
Pressão do Pentágono e resposta da Anthropic
O conflito se intensificou quando o Secretário de Defesa, Pete Hegseth, estabeleceu um prazo para a Anthropic remover suas restrições de segurança. O CEO da empresa, Dario Amodei, se recusou a atender ao pedido do Pentágono, que solicitava “qualquer uso legal” da tecnologia. A Anthropic mantém cláusulas contratuais rigorosas que proíbem o uso de seus sistemas para vigilância doméstica em massa e o desenvolvimento de armas totalmente autônomas.
Em um comunicado, Amodei declarou que os sistemas de IA atuais não são confiáveis o suficiente para alimentar armamentos autônomos e que a empresa não fornecerá produtos que coloquem combatentes e civis em risco. Essa recusa levou Hegseth a classificar a startup como um “risco à cadeia de suprimentos”, pressionando fornecedores militares a abandonarem a tecnologia da Anthropic.
Concorrência e novos contratos
Com o rompimento das negociações, a OpenAI aproveitou a oportunidade para fechar um contrato com o Departamento de Defesa dos EUA. No mesmo dia do veto, o CEO Sam Altman anunciou o acordo para o uso de seus modelos em redes classificadas das Forças Armadas. A OpenAI defendeu que suas restrições são semelhantes às da Anthropic, proibindo vigilância em massa e exigindo supervisão humana no uso da força.
Apesar do banimento, a tecnologia da Anthropic continuou a ser utilizada em operações classificadas. O Claude foi empregado em operações contínuas contra o Irã, mesmo após o veto presidencial, e já era utilizado em aplicações na Venezuela desde 2024.
Sucesso do aplicativo Claude
A postura firme da Anthropic teve um impacto positivo no mercado consumidor. O aplicativo Claude alcançou a primeira posição na App Store dos EUA em 28 de outubro de 2023, superando concorrentes como o ChatGPT e o Google. Dados indicam um aumento de 60% no número de usuários gratuitos do Claude nos EUA, refletindo um recorde de acessos diários.
Opinião
O conflito entre a Anthropic e o governo dos EUA evidencia a complexidade da ética na tecnologia militar, onde a inovação se choca com a responsabilidade social.






