Tech · 6 min de leitura

Google Ignora Revolta dos Funcionários e Declara-se 'Orgulhosa' por Desenvolver IA para o Pentágono de Trump

O Google ignorou uma carta assinada por quase mil funcionários e declarou-se orgulhoso de desenvolver IA classificada para o Pentágono de Trump. Uma reviravolta que levanta questões sérias.

Google Ignora Revolta dos Funcionários e Declara-se 'Orgulhosa' por Desenvolver IA para o Pentágono de Trump

O Google tem uma nova palavra favorita, e ela não é 'não'. A empresa que um dia prometeu não ser malvada rejeitou uma carta aberta de centenas dos seus próprios funcionários e anunciou que está 'orgulhosa' de realizar trabalho de IA classificado para o Pentágono de Donald Trump. Pelo menos poderiam ter tentado disfarçar.

De acordo com uma reportagem do The Independent, a liderança do Google ignorou as preocupações levantadas pelos funcionários sobre o aprofundamento da relação da empresa com o Departamento de Defesa dos Estados Unidos. O acordo dá ao Pentágono acesso aos modelos de IA do Google para trabalho militar classificado, e os executivos lá no topo mal conseguem esconder o entusiasmo.

O que este acordo realmente implica

O Google é uma das oito empresas tecnológicas autorizadas a integrar a sua IA nas redes mais secretas do Pentágono. A lista completa, para não restar dúvidas, inclui Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX e Reflection. A Anthropic, a empresa focada em segurança por trás do Claude, ficou de fora depois de receber a designação de 'risco na cadeia de fornecimento', uma classificação que está agora a contestar nos tribunais.

O próprio contrato permite alegadamente que o Pentágono utilize a IA do Google para 'qualquer finalidade legal', com exceções que supostamente excluem armas autónomas e vigilância em massa. Os mais céticos vão notar que 'qualquer finalidade legal' está a fazer um trabalho muito pesado nessa frase.

A carta dos funcionários que caiu no vazio

A resistência interna não foi propriamente pequena. Uma carta aberta ao director-executivo Sundar Pichai reuniu inicialmente mais de 580 assinaturas, incluindo mais de 20 directores e vice-presidentes, além de investigadores sénior do Google DeepMind. Esse número cresceu alegadamente para entre 950 e 1.000 à medida que a notícia se espalhou.

Os signatários alertaram para os 'usos antiéticos e perigosos' da IA militar e apelaram à liderança para recusar contratos de defesa classificados. Um investigador do DeepMind, Andreas Kirsch, publicou no X dizendo estar 'sem palavras' e classificou o acordo de 'vergonhoso'.

A resposta do Google foi, em essência, um encolher de ombros educado.

Esta não é a primeira revolta interna do Google

Se tudo isto parecer familiar, é porque é. Em 2018, cerca de 4.000 funcionários assinaram uma petição contra o Projeto Maven, o programa do Pentágono que usava a IA do Google para analisar imagens de drones. Pelo menos uma dúzia de funcionários abandonou a empresa. O Google recuou, recusou renovar o contrato e deixou-o expirar discretamente em março de 2019.

Seguiu-se um conjunto moderado de princípios de IA prometendo que a empresa não desenvolveria armas nem ferramentas de vigilância que violassem normas internacionais. Foi um momento de consciência corporativa, ou pelo menos uma imitação convincente disso.

Esse momento não sobreviveu a uma segunda administração Trump. Pouco depois do resultado das eleições de 2024, o Google reviu esses princípios de IA e removeu discretamente a proibição explícita do trabalho com armamento. A folha de parra, afinal, era lavável à máquina.

Porque é que a mudança de posição acontece agora?

A resposta honesta é dinheiro e momentum. O Google já implementou a sua IA Gemini para aproximadamente três milhões de funcionários do Pentágono e detém uma fatia do contrato de 9 mil milhões de dólares Joint Warfighting Cloud Capability. Abandonar o trabalho classificado significaria deixar uma enorme quantia em cima da mesa enquanto a Microsoft, a Amazon e a OpenAI a recolhiam alegremente.

O responsável pela IA do Pentágono, Cameron Stanley, disse à CNBC que depender de um único modelo de IA 'nunca é uma coisa boa', apresentando a abordagem multi-fornecedor como uma estratégia de diversificação de risco. Tradução: distribuir os contratos, distribuir a dependência e manter cada director-executivo das grandes tecnológicas numa base de amizade pelo primeiro nome.

Ética seletiva, ou apenas relações públicas seletivas?

É aqui que a situação fica interessante. Segundo o Tom's Hardware, o Google abandonou simultaneamente um programa separado de enxames de drones no valor de 100 milhões de dólares. Por isso, a empresa está disposta a traçar uma linha, só que não na IA classificada para o Pentágono.

Isso sugere duas coisas. Ou o Google tem uma estrutura ética precisa e ponderada que optou por não partilhar com o público, ou vai inventando à medida que avança com base em quais os contratos que atraem as piores manchetes. Adivinhe qual das opções parece mais plausível.

Porque é que isto importa para os leitores em Portugal e no Reino Unido

Se vive em Portugal ou no Reino Unido, a tentação é arquivar isto sob 'problema americano' e seguir em frente. Resista. Os modelos de IA que alimentam os sistemas militares classificados dos EUA são os mesmos modelos de uso geral que estão a ser integrados na sua caixa de correio, no seu telemóvel, no seu local de trabalho e, cada vez mais, nos trabalhos de casa do seu filho.

A fronteira entre IA de consumo e IA militar é uma escolha política, não técnica. Quando essa fronteira se move, move-se para todos. As aquisições de defesa do Reino Unido também dependem muito dos mesmos fornecedores americanos, o que significa que as decisões tomadas em Mountain View têm uma forma de se infiltrar em Whitehall.

Há também a questão do precedente. Uma vez que uma empresa cruzou uma linha e descobriu que o preço das ações não colapsou, a linha tende a permanecer cruzada. O 'qualquer finalidade legal' de hoje torna-se a referência de amanhã.

A Anthropic e o estranho de fora

De fora fica a Anthropic, que alegadamente recusou os termos do contrato do Pentágono e foi prontamente designada como risco na cadeia de fornecimento. Existem alegações não verificadas de que os militares dos EUA utilizaram ainda assim o Claude da Anthropic em ligação com o conflito com o Irão, embora isso não tenha sido corroborado de forma independente e deva ser tratado com cautela.

O próprio Trump insinuou publicamente que a Anthropic está a 'endireitar-se', o que é o equivalente político de bater no relógio. Se a empresa se mantém firme ou negocia discretamente o seu regresso é o enredo secundário que vale a pena acompanhar.

O que retirar de tudo isto

A mensagem do Google aos seus funcionários é suficientemente clara. A era em que uma carta interna bem organizada podia mudar a direção da empresa acabou. O Projeto Maven foi em 2018. O novo manual é agradecer aos funcionários o seu feedback, atualizar a página de princípios de IA e assinar o contrato na mesma.

Para os utilizadores, a conclusão prática é parar de assumir que a grande empresa tecnológica cujos produtos usa todos os dias partilha os seus valores, ou que sequer tem valores estáveis. Os seus valores são o que o clima político atual e a chamada de resultados trimestrais exigem que sejam.

Para os funcionários que assinaram a carta, a questão mais difícil é o que fazer a seguir. A história sugere que demissões, fugas de informação e pressão pública são as únicas ferramentas que alguma vez moveram o Google. Um memorando com palavras fortes, infelizmente, não está na lista.

Leia o artigo original em fonte.

D
Escrito por

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.