Google Ignora Revolta dos Funcionários e Declara-se 'Orgulhosa' por Desenvolver IA para o Pentágono de Trump
O Google ignorou uma carta assinada por quase mil funcionários e declarou-se orgulhoso de desenvolver IA classificada para o Pentágono de Trump. Uma reviravolta que levanta questões sérias.
O Google tem uma nova palavra favorita, e ela não é 'não'. A empresa que um dia prometeu não ser malvada rejeitou uma carta aberta de centenas dos seus próprios funcionários e anunciou que está 'orgulhosa' de realizar trabalho de IA classificado para o Pentágono de Donald Trump. Pelo menos poderiam ter tentado disfarçar.
De acordo com uma reportagem do The Independent, a liderança do Google ignorou as preocupações levantadas pelos funcionários sobre o aprofundamento da relação da empresa com o Departamento de Defesa dos Estados Unidos. O acordo dá ao Pentágono acesso aos modelos de IA do Google para trabalho militar classificado, e os executivos lá no topo mal conseguem esconder o entusiasmo.
O que este acordo realmente implica
O Google é uma das oito empresas tecnológicas autorizadas a integrar a sua IA nas redes mais secretas do Pentágono. A lista completa, para não restar dúvidas, inclui Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX e Reflection. A Anthropic, a empresa focada em segurança por trás do Claude, ficou de fora depois de receber a designação de 'risco na cadeia de fornecimento', uma classificação que está agora a contestar nos tribunais.
O próprio contrato permite alegadamente que o Pentágono utilize a IA do Google para 'qualquer finalidade legal', com exceções que supostamente excluem armas autónomas e vigilância em massa. Os mais céticos vão notar que 'qualquer finalidade legal' está a fazer um trabalho muito pesado nessa frase.
A carta dos funcionários que caiu no vazio
A resistência interna não foi propriamente pequena. Uma carta aberta ao director-executivo Sundar Pichai reuniu inicialmente mais de 580 assinaturas, incluindo mais de 20 directores e vice-presidentes, além de investigadores sénior do Google DeepMind. Esse número cresceu alegadamente para entre 950 e 1.000 à medida que a notícia se espalhou.
Os signatários alertaram para os 'usos antiéticos e perigosos' da IA militar e apelaram à liderança para recusar contratos de defesa classificados. Um investigador do DeepMind, Andreas Kirsch, publicou no X dizendo estar 'sem palavras' e classificou o acordo de 'vergonhoso'.
A resposta do Google foi, em essência, um encolher de ombros educado.
Esta não é a primeira revolta interna do Google
Se tudo isto parecer familiar, é porque é. Em 2018, cerca de 4.000 funcionários assinaram uma petição contra o Projeto Maven, o programa do Pentágono que usava a IA do Google para analisar imagens de drones. Pelo menos uma dúzia de funcionários abandonou a empresa. O Google recuou, recusou renovar o contrato e deixou-o expirar discretamente em março de 2019.
Seguiu-se um conjunto moderado de princípios de IA prometendo que a empresa não desenvolveria armas nem ferramentas de vigilância que violassem normas internacionais. Foi um momento de consciência corporativa, ou pelo menos uma imitação convincente disso.
Esse momento não sobreviveu a uma segunda administração Trump. Pouco depois do resultado das eleições de 2024, o Google reviu esses princípios de IA e removeu discretamente a proibição explícita do trabalho com armamento. A folha de parra, afinal, era lavável à máquina.
Porque é que a mudança de posição acontece agora?
A resposta honesta é dinheiro e momentum. O Google já implementou a sua IA Gemini para aproximadamente três milhões de funcionários do Pentágono e detém uma fatia do contrato de 9 mil milhões de dólares Joint Warfighting Cloud Capability. Abandonar o trabalho classificado significaria deixar uma enorme quantia em cima da mesa enquanto a Microsoft, a Amazon e a OpenAI a recolhiam alegremente.
O responsável pela IA do Pentágono, Cameron Stanley, disse à CNBC que depender de um único modelo de IA 'nunca é uma coisa boa', apresentando a abordagem multi-fornecedor como uma estratégia de diversificação de risco. Tradução: distribuir os contratos, distribuir a dependência e manter cada director-executivo das grandes tecnológicas numa base de amizade pelo primeiro nome.
Ética seletiva, ou apenas relações públicas seletivas?
É aqui que a situação fica interessante. Segundo o Tom's Hardware, o Google abandonou simultaneamente um programa separado de enxames de drones no valor de 100 milhões de dólares. Por isso, a empresa está disposta a traçar uma linha, só que não na IA classificada para o Pentágono.
Isso sugere duas coisas. Ou o Google tem uma estrutura ética precisa e ponderada que optou por não partilhar com o público, ou vai inventando à medida que avança com base em quais os contratos que atraem as piores manchetes. Adivinhe qual das opções parece mais plausível.
Porque é que isto importa para os leitores em Portugal e no Reino Unido
Se vive em Portugal ou no Reino Unido, a tentação é arquivar isto sob 'problema americano' e seguir em frente. Resista. Os modelos de IA que alimentam os sistemas militares classificados dos EUA são os mesmos modelos de uso geral que estão a ser integrados na sua caixa de correio, no seu telemóvel, no seu local de trabalho e, cada vez mais, nos trabalhos de casa do seu filho.
A fronteira entre IA de consumo e IA militar é uma escolha política, não técnica. Quando essa fronteira se move, move-se para todos. As aquisições de defesa do Reino Unido também dependem muito dos mesmos fornecedores americanos, o que significa que as decisões tomadas em Mountain View têm uma forma de se infiltrar em Whitehall.
Há também a questão do precedente. Uma vez que uma empresa cruzou uma linha e descobriu que o preço das ações não colapsou, a linha tende a permanecer cruzada. O 'qualquer finalidade legal' de hoje torna-se a referência de amanhã.
A Anthropic e o estranho de fora
De fora fica a Anthropic, que alegadamente recusou os termos do contrato do Pentágono e foi prontamente designada como risco na cadeia de fornecimento. Existem alegações não verificadas de que os militares dos EUA utilizaram ainda assim o Claude da Anthropic em ligação com o conflito com o Irão, embora isso não tenha sido corroborado de forma independente e deva ser tratado com cautela.
O próprio Trump insinuou publicamente que a Anthropic está a 'endireitar-se', o que é o equivalente político de bater no relógio. Se a empresa se mantém firme ou negocia discretamente o seu regresso é o enredo secundário que vale a pena acompanhar.
O que retirar de tudo isto
A mensagem do Google aos seus funcionários é suficientemente clara. A era em que uma carta interna bem organizada podia mudar a direção da empresa acabou. O Projeto Maven foi em 2018. O novo manual é agradecer aos funcionários o seu feedback, atualizar a página de princípios de IA e assinar o contrato na mesma.
Para os utilizadores, a conclusão prática é parar de assumir que a grande empresa tecnológica cujos produtos usa todos os dias partilha os seus valores, ou que sequer tem valores estáveis. Os seus valores são o que o clima político atual e a chamada de resultados trimestrais exigem que sejam.
Para os funcionários que assinaram a carta, a questão mais difícil é o que fazer a seguir. A história sugere que demissões, fugas de informação e pressão pública são as únicas ferramentas que alguma vez moveram o Google. Um memorando com palavras fortes, infelizmente, não está na lista.
Leia o artigo original em fonte.
