Tech · 6 min de lectura

Google Ignora la Revuelta de sus Empleados y se Declara 'Orgullosa' de Desarrollar IA para el Pentágono de Trump

Google ignora la protesta de casi 1.000 empleados y firma contratos de IA clasificada con el Pentágono de Trump. Un giro radical que tiene implicaciones globales.

Google Ignora la Revuelta de sus Empleados y se Declara 'Orgullosa' de Desarrollar IA para el Pentágono de Trump

Google tiene una nueva palabra favorita, y no es 'no'. La empresa que una vez prometió no ser malvada ha ignorado una carta abierta de cientos de sus propios empleados y ha anunciado que está 'orgullosa' de realizar trabajo de IA clasificada para el Pentágono de Donald Trump. Vaya manera de leer el ambiente.

Según un informe de The Independent, la dirección de Google ha descartado las preocupaciones planteadas por los empleados sobre la creciente relación de la empresa con el Departamento de Defensa de los Estados Unidos. El acuerdo otorga al Pentágono acceso a los modelos de IA de Google para trabajo militar clasificado, y los altos directivos no podrían estar más satisfechos al respecto.

En qué consiste realmente el acuerdo

Google es una de las ocho empresas tecnológicas autorizadas a conectar su IA a las redes más secretas del Pentágono. La lista completa, para que no quede ninguna duda, incluye a Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX y Reflection. Anthropic, la empresa centrada en la seguridad detrás de Claude, quedó deliberadamente excluida tras ser etiquetada con una designación de 'riesgo en la cadena de suministro', que ahora está impugnando en los tribunales.

El contrato en sí supuestamente permite al Pentágono utilizar la IA de Google para 'cualquier propósito legal', con excepciones que supuestamente descartan las armas autónomas y la vigilancia masiva. Los escépticos señalarán que 'cualquier propósito legal' está haciendo un trabajo muy pesado en esa frase.

La carta del personal que cayó como un jarro de agua fría

La resistencia interna no fue precisamente pequeña. Una carta abierta al director ejecutivo Sundar Pichai reunió inicialmente más de 580 firmas, incluyendo más de 20 directores y vicepresidentes, además de investigadores sénior de Google DeepMind. Ese número creció supuestamente hasta situarse entre 950 y 1.000 a medida que la noticia se fue difundiendo.

Los firmantes advirtieron sobre los 'usos poco éticos y peligrosos' de la IA militar e instaron a la dirección a rechazar los contratos de defensa clasificados. Un investigador de DeepMind, Andreas Kirsch, publicó en X que estaba 'sin palabras' y calificó el acuerdo de 'vergonzoso'.

La respuesta de Google fue, en esencia, un educado encogimiento de hombros.

No es la primera revuelta del personal de Google

Si todo esto resulta familiar, es porque lo es. En 2018, aproximadamente 4.000 empleados firmaron una petición contra el Proyecto Maven, el programa del Pentágono que utilizaba la IA de Google para analizar imágenes de drones. Al menos una docena de empleados dimitió. Google cedió, se negó a renovar el contrato y lo dejó expirar discretamente en marzo de 2019.

Después llegó un conjunto de principios de IA con matices en los que la empresa prometía no construir armas ni herramientas de vigilancia que violaran las normas internacionales. Fue un momento de conciencia corporativa, o al menos una convincente imitación de ella.

Ese momento no sobrevivió a una segunda administración Trump. Poco después del resultado de las elecciones de 2024, Google revisó esos principios de IA y eliminó discretamente la prohibición explícita del trabajo con armas. La hoja de parra, resulta evidente, era lavable a máquina.

Por qué el cambio de rumbo ahora?

La respuesta honesta es dinero e impulso. Google ya ha desplegado su IA Gemini a aproximadamente tres millones de efectivos del Pentágono y posee una parte del contrato de Capacidad de Nube para la Guerra Conjunta de 9.000 millones de dólares. Abandonar el trabajo clasificado significaría dejar una enorme cantidad de dinero sobre la mesa mientras Microsoft, Amazon y OpenAI la recogen encantados.

El jefe de IA del Pentágono, Cameron Stanley, declaró a CNBC que depender de un único modelo de IA 'nunca es bueno', disfrazando el enfoque de múltiples proveedores como una cobertura estratégica. Traducción: distribuir los contratos, distribuir la dependencia y mantener a todos los directivos de las grandes tecnológicas en términos amistosos.

Ética selectiva, o simplemente relaciones públicas selectivas?

Aquí es donde se pone interesante. Según Tom's Hardware, Google se ha retirado simultáneamente de un programa separado de enjambres de drones por valor de 100 millones de dólares. Así que la empresa está dispuesta a trazar una línea, pero no en la IA clasificada para el Pentágono.

Eso sugiere dos cosas. O bien Google tiene un marco ético preciso y considerado que ha optado por no compartir con el público, o bien lo está improvisando sobre la marcha en función de qué contratos generan los peores titulares. Haga sus apuestas sobre cuál parece más plausible.

Por qué esto importa a los lectores fuera de EE.UU.

Si no vive en Estados Unidos, la tentación es archivarlo bajo 'problema americano' y seguir adelante. Resístala. Los modelos de IA que impulsan los sistemas militares clasificados de EE.UU. son los mismos modelos de uso general que se están integrando en su bandeja de entrada, su teléfono, su lugar de trabajo y, cada vez más, las tareas escolares de sus hijos.

La frontera entre la IA de consumo y la IA militar es una decisión política, no técnica. Cuando esa frontera se mueve, se mueve para todos. La contratación de defensa en muchos países también depende en gran medida de los mismos proveedores estadounidenses, lo que significa que las decisiones tomadas en Mountain View tienen una forma de filtrarse hasta los ministerios de todo el mundo.

También está la cuestión del precedente. Una vez que una empresa ha cruzado una línea y ha descubierto que el precio de sus acciones no se ha desplomado, la línea tiende a permanecer cruzada. El 'cualquier propósito legal' de hoy se convierte en la línea de base del mañana.

Anthropic y el incómodo forastero

Fuera de la tienda está Anthropic, que supuestamente rechazó los términos del contrato del Pentágono y fue inmediatamente designada como riesgo en la cadena de suministro. Hay afirmaciones no verificadas de que el ejército estadounidense ha utilizado de todos modos Claude de Anthropic en relación con el conflicto con Irán, aunque eso no ha sido corroborado de forma independiente y debe tratarse con cautela.

El propio Trump ha insinuado públicamente que Anthropic 'va por buen camino', que es el equivalente político de mirar el reloj con insistencia. Si la empresa se mantiene firme o negocia discretamente su regreso es la subtrama que vale la pena observar.

Qué conclusiones sacar de todo esto

El mensaje de Google a su plantilla es bastante claro. La época en que una carta interna bien organizada podía cambiar la dirección de la empresa ha terminado. El Proyecto Maven fue en 2018. El nuevo manual de estrategia consiste en agradecer al personal sus comentarios, actualizar la página de principios de IA y firmar el contrato de todos modos.

Para los usuarios, la conclusión práctica es dejar de asumir que la gran empresa tecnológica cuyos productos usa a diario comparte sus valores, o incluso que tiene valores estables. Sus valores son los que el clima político actual y la conferencia de resultados trimestrales les exigen que sean.

Para el personal que firmó la carta, la pregunta más difícil es qué hacer a continuación. La historia sugiere que las dimisiones, las filtraciones y la presión pública son las únicas herramientas que alguna vez han movido a Google. Un memorando firmemente redactado, lamentablemente, no está en la lista.

Lea el artículo original en source.

D
Escrito por

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.