A administração Trump está a prosseguir a sua ameaça de designar a empresa de inteligência artificial Antrópico como um risco na cadeia de abastecimento, numa medida sem precedentes que poderá forçar outros prestadores de serviços governamentais a deixarem de utilizar o chatbot de IA Claude.
O Pentágono disse em comunicado na quinta-feira que “informou oficialmente a liderança da Anthropic que a empresa e seus produtos são considerados um risco na cadeia de suprimentos, com efeito imediato”.
A decisão pareceu encerrar a oportunidade de novas negociações com a Anthropic, quase uma semana depois que o presidente Donald Trump e o secretário de Defesa Pete Hegseth acusaram a empresa de colocar em risco a segurança nacional.
Trump e Hegseth anunciaram uma série de ameaças de punições na sexta-feira passada, às vésperas da guerra do Irã, depois que o CEO da Antrópico, Dario Amodei, se recusou a recuar devido a preocupações de que os produtos da empresa poderiam ser usados para vigilância em massa de americanos ou armas autônomas.
Amodei disse em comunicado na quinta-feira que “não acreditamos que esta ação seja legalmente sólida e não vemos outra escolha a não ser contestá-la em tribunal”.
Questões de negócios: disputas no Pentágono reforçam a reputação da Anthropic e levantam questões sobre o uso de IA na guerra
A declaração do Pentágono disse: “trata-se de um princípio fundamental: os militares serem capazes de usar a tecnologia para todos os fins legais. Os militares não permitirão que um fornecedor se insira na cadeia de comando, restringindo o uso legal de uma capacidade crítica e colocando os nossos combatentes em risco”.
Amodei respondeu que as pequenas exceções que a Antrópica procurou limitar a vigilância e as armas autónomas “relacionam-se com áreas de utilização de alto nível, e não com a tomada de decisões operacionais”.
Ele disse que houve “conversas produtivas” com o Pentágono nos últimos dias sobre se poderia continuar a usar Claude ou estabelecer uma “transição suave” caso nenhum acordo fosse alcançado. Trump deu aos militares seis meses para eliminar gradualmente Claude, que já está amplamente incorporado em plataformas militares e de segurança nacional. Amodei disse que é uma prioridade garantir que os combatentes não sejam “privados de ferramentas importantes no meio de grandes operações de combate”.
Alguns empreiteiros militares já estavam a cortar relações com a Anthropic, uma estrela em ascensão na indústria tecnológica que vende Claude a uma variedade de empresas e agências governamentais. A Lockheed Martin disse que “seguirá a orientação do presidente e do Departamento de Guerra” e buscará outros fornecedores de grandes modelos de linguagem.
Antrópico vs Pentágono: Por que a empresa de IA está reagindo à administração Trump
“Esperamos impactos mínimos, já que a Lockheed Martin não depende de nenhum fornecedor LLM para qualquer parte do nosso trabalho”, disse a empresa.
Receba notícias nacionais diárias
Receba as principais notícias, manchetes políticas, econômicas e de assuntos atuais do dia, entregues em sua caixa de entrada uma vez por dia.
Não está claro como o Departamento de Defesa interpretará o escopo da designação de risco. Amodei disse que uma notificação que a Anthropic recebeu do Pentágono na quarta-feira mostra que ela só se aplica ao uso de Claude por clientes como uma “parte direta” de seus contratos militares.
A Microsoft disse que seus advogados estudaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados à defesa”.
Pentágono atrai críticas por sua decisão
A decisão do Pentágono de aplicar uma regra destinada a fazer face às ameaças de abastecimento representadas por adversários estrangeiros foi recebida com amplas críticas. Os códigos federais definiram o risco da cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter” um sistema para o perturbar, degradar ou espiar.
A senadora norte-americana Kirsten Gillibrand, democrata de Nova Iorque e membro da Comissão dos Serviços Armados do Senado e da Comissão de Inteligência do Senado, chamou-lhe “um uso indevido perigoso de uma ferramenta destinada a abordar a tecnologia controlada pelo adversário”.
“Essa ação imprudente é míope, autodestrutiva e um presente para nossos adversários”, disse ela em comunicado por escrito na quinta-feira.
Neil Chilson, ex-tecnólogo-chefe republicano da Comissão Federal de Comércio que agora lidera a política de IA no Abundance Institute, disse que a decisão parece “um exagero enorme que prejudicaria tanto o setor de IA dos EUA quanto a capacidade dos militares de adquirir a melhor tecnologia para o combatente dos EUA”.
No início do dia, um grupo de ex-funcionários da defesa e da segurança nacional enviou uma carta aos legisladores dos EUA expressando “séria preocupação” sobre a designação.
“O uso desta autoridade contra uma empresa nacional americana é um afastamento profundo do propósito pretendido e estabelece um precedente perigoso”, dizia a carta de ex-funcionários e especialistas em política, incluindo o ex-diretor da CIA Michael Hayden e líderes aposentados da Força Aérea, do Exército e da Marinha.
Acrescentaram que tal designação se destina a “proteger os Estados Unidos da infiltração de adversários estrangeiros – de empresas em dívida com Pequim ou Moscovo, e não de inovadores americanos que operam de forma transparente sob o Estado de direito. Aplicar esta ferramenta para penalizar uma empresa dos EUA por se recusar a remover salvaguardas contra a vigilância interna em massa e armas totalmente autónomas é um erro de categoria com consequências que se estendem muito além desta disputa”.
A IA superará as ‘capacidades cognitivas da maioria dos humanos’ em ‘um pequeno número de anos’: CEO da Anthropic
Anthropic vê aumento nos downloads do consumidor
Ao perder grandes parcerias com empreiteiros de defesa, a Anthropic experimentou um aumento no número de downloads de consumidores na semana passada devido a pessoas que apoiaram sua postura moral. Mais de um milhão de pessoas se inscreveram no Claude todos os dias desta semana, disse a empresa, ultrapassando o ChatGPT da OpenAI e o Gemini do Google como o principal aplicativo de IA em mais de 20 países na loja de aplicativos da Apple.
A disputa com o Pentágono também aprofundou ainda mais a rivalidade acirrada da Anthropic com a OpenAI, que começou quando ex-líderes da OpenAI, incluindo Amodei, iniciaram a Anthropic em 2021.
Horas depois de o Pentágono punir a Anthropic na última sexta-feira, a OpenAI anunciou um acordo para substituir efetivamente a Anthropic pelo ChatGPT em ambientes militares classificados.
A OpenAI disse que procurou proteções semelhantes contra a vigilância doméstica e armas totalmente autónomas, mas mais tarde teve de alterar os seus acordos, levando o CEO Sam Altman a dizer que não deveria ter apressado um acordo que “parecia oportunista e desleixado”.
Amodei também lamentou sua participação naquele “dia difícil para a empresa”, dizendo na quinta-feira que queria “pedir desculpas diretamente” por uma nota interna que enviou à equipe da Anthropic que atacava o comportamento da OpenAI e sugeria que a Anthropic estava sendo punida por não dar “elogios de ditador” a Trump.