MTS

A Anthropic, rival da OpenAI, enfrenta restrições de uso de IA por órgãos federais dos EUA

EUA querem que empresa disponibilize o uso irrestrito de seus modelos de inteligência artificial para fins militares, incluindo vigilância em massa de cidadãos e sistemas de armamento autônomos

O presidente dos Estados Unidos, Donald Trump, disse nesta sexta-feira (27) que orientou todas as agências federais americanas a interromperem imediatamente o uso de programas de inteligência artificial da Anthropic, empresa americana que criou o Claude, rival do ChatGPT.

Em sua rede social, Trump fez referência ao bloqueio imposto pela Anthropic ao uso de seus modelos de inteligência artificial para vigilância em massa de cidadãos e sistemas de armamento autônomos.

Trump disse que os EUA não permitirão que a empresa dite como militares americanos vão agir e que essa decisão pertence aos líderes das forças armadas nomeados por ele.

“O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”, afirmou Trump.

“Estou ordenando que todas as agências federais do governo dos EUA cessem imediatamente todo o uso da tecnologia da Anthropic. Não precisamos dela, não a queremos e não faremos mais negócios com eles novamente”, continuou.

Segundo Trump, haverá um período de transição de seis meses para órgãos como o Departamento de Guerra, antigo Departamento de Defesa, deixarem de usar produtos da Anthropic em todos os níveis.

“A Anthropic deve se organizar e colaborar durante esse período de transição ou usarei todo o poder da presidência para obrigá-la a cumprir as determinações, com graves consequências civis e criminais”, disse Trump.

A empresa disse na quinta-feira (26) que, apesar da pressão, não permitiria o uso irrestrito de suas ferramentas pelo Departamento de Guerra. “Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”.

A Anthropic tem desde 2025 um contrato de US$ 200 milhões com o Pentágono para fornecer modelos de IA para uma série de aplicações militares.

O Claude, modelo de IA da Anthropic, foi usado pelo Exército americano na operação que levou à deposição do ditador venezuelano Nicolás Maduro, no início do ano, segundo o “The Wall Street Journal”.

A empresa proíbe o uso da IA para fins de violência, e o CEO Dario Amodei disse diversas vezes ter preocupações éticas com o uso governamental irrestrito de IA.

Ultimato

A declaração de Trump nesta sexta marca o prazo do ultimato definido pelo governo americano para que a empresa aceitasse o uso militar irrestrito de sua inteligência artificial pelo Pentágono.

A data foi anunciada na última terça-feira (24), após o director-executivo da Anthropic, Dario Amodei, se reunir com o secretário de Guerra, Pete Hegseth.

O Pentágono disse na terça que a Anthropic deveria aceitar suas condições ou enfrentar uma ordem de cumprimento forçado com base na Lei de Produção de Defesa, que dá ao governo federal poderes para obrigar uma empresa a priorizar as necessidades de segurança nacional.

O governo dos EUA também ameaçou considerar a Anthropic um risco para a cadeia de suprimentos, designação normalmente reservada a empresas de países adversários que poderia prejudicar a reputação da companhia e sua capacidade de trabalhar com o governo americano.

Amodei, da Anthropic, disse que os modelos foram usados pelo órgãos federais para defender o país, mas que a companhia estabelece uma linha ética em relação ao uso para a vigilância em massa de cidadãos americanos e para armas totalmente autônomas.

O uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos

Ele acrescentou que os sistemas de IA de vanguarda ainda não são confiáveis o bastante para lhes conceder o controle de armas letais sem que haja um ser humano com o controle final.

Fonte: G1