AIPCon 9 de Palantir: Donde Silicon Valley se encuentra con el campo de batalla y el negocio prospera

AIPCon 9 de Palantir: Donde Silicon Valley se encuentra con el campo de batalla y el negocio prospera

La guerra es buena para los negocios, al parecer

Si alguna vez te has preguntado qué sucede cuando una conferencia de tecnología choca con una campaña militar activa, AIPCon 9 de Palantir ofreció una respuesta bastante inquietante. Celebrada los días 12 y 13 de marzo de 2026 en Maryland, la conferencia de desarrolladores mostró sistemas de IA diseñados no para recomendar tu próxima maratón de Netflix, sino para identificar objetivos y asignar municiones en una guerra en tiempo real.

¿Y el momento? Absolutamente deliberado, sospecho. La conferencia tuvo lugar mientras las fuerzas estadounidenses realizaban activamente la Operación Furia Épica contra Irán, una operación que alcanzó 1.000 objetivos en sus primeras 24 horas tras su lanzamiento el 28 de febrero de 2026. Eso es, según estimaciones de algunos analistas, aproximadamente el doble del poder aéreo desplegado durante la campaña de "conmoción y pavor" de Irak en 2003, ejecutado en una fracción del tiempo.

Maven tiene su momento bajo los focos

La pieza central de AIPCon 9 fue una demostración en vivo del Sistema Inteligente Maven a cargo de Cameron Stanley, el Director Digital y de IA del Departamento de Defensa. Para aquellos que no lo sepan, el Proyecto Maven ha evolucionado silenciosamente desde 2016, asociado originalmente con Google hasta que las protestas de los empleados obligaron al gigante tecnológico a retirarse en 2018. Palantir estuvo más que feliz de retomar donde lo dejó Google.

Lo que Stanley demostró fue genuinamente notable desde un punto de vista técnico, incluso si las implicaciones te revuelven un poco el estómago. El sistema Maven consolida lo que antes eran ocho o nueve sistemas de objetivos separados en una sola interfaz. El propio Stanley señaló: 'Hacíamos esto en ocho o nueve sistemas donde los humanos movían literalmente las detecciones de izquierda a derecha.'

La demostración mostró imágenes satelitales procesadas en tiempo real, con el sistema distinguiendo personas de vehículos y luego proponiendo asignaciones de municiones a través de lo que Palantir llama su Recomendador de Asignación de Activos de IA. Piénsalo como el autocompletado, pero para ataques aéreos.

De 2.000 oficiales de inteligencia a 20

Quizás la estadística más sorprendente provino de Chad Wahlquist, un arquitecto de Palantir, quien afirmó que las tareas de selección de objetivos que requerían aproximadamente 2.000 oficiales de inteligencia durante la Operación Libertad Iraquí ahora podrían ser manejadas por unas 20 personas utilizando el sistema Maven. Eso es una reducción del 99% en la participación humana en la cadena de objetivos. Si encuentras eso impresionante o aterrador, probablemente dependa de tu perspectiva, pero vale la pena reflexionar sobre ambas reacciones por un momento.

Alex Karp: El CEO de defensa más impenitente de Silicon Valley

El CEO de Palantir, Alex Karp, nunca alguien que rehúya una declaración audaz, se mostró característicamente directo. 'Lo que hace especial a Estados Unidos ahora mismo es nuestra capacidad letal, nuestra capacidad para librar una guerra,' dijo a CNBC en el día de apertura de la conferencia. Fue más allá, describiendo la revolución de la IA como 'únicamente estadounidense' y añadiendo: 'Una vez que comienza la guerra, no estamos interesados en debatir cómo los apoyamos.'

Es el tipo de retórica que haría que los equipos de relaciones públicas de la mayoría de los CEOs tecnológicos sudaran frío. Pero Karp ha construido una empresa valorada ahora en aproximadamente 365 mil millones de dólares (con acciones cotizando alrededor de 152,77 dólares a mediados de marzo de 2026) precisamente al apoyarse en el espacio incómodo donde Silicon Valley se encuentra con el Pentágono.

La paradoja de Anthropic

Una de las tramas secundarias más fascinantes involucra a Anthropic, la empresa de seguridad de IA detrás del modelo de lenguaje Claude. Aquí es donde se complica: Maven utiliza el modelo de IA Claude de Anthropic como parte de su pila de objetivos. Karp confirmó tanto, declarando: 'Es nuestra pila la que ejecuta los LLM.'

¿El problema? Anthropic y el Pentágono están actualmente enfrentados. El CEO de Anthropic, Dario Amodei, publicó publicaciones en blogs afirmando que el Departamento de Defensa se negó a implementar salvaguardas contra la vigilancia masiva nacional y el uso de armas autónomas. En respuesta, el Secretario de Defensa, Pete Hegseth, designó a Anthropic como un 'riesgo para la cadena de suministro'. Anthropic luego demandó al Pentágono.

A pesar de este espectacular desencuentro, Karp confirmó que Palantir sigue usando Claude de todos modos. Así que tenemos la tecnología de una empresa de seguridad de IA siendo utilizada en un sistema de objetivos militares, mientras que esa misma empresa está demandando al ejército por preocupaciones de seguridad. Sinceramente, no podrías inventar esto.

El elefante en la habitación

Cualquier relato honesto de AIPCon 9 debe reconocer lo que estaba sucediendo en el fondo. Una investigación del Pentágono estaba en curso sobre un ataque a la escuela primaria Shajareh Tayyebeh en Minab, Irán, que mató a más de 160 personas, en su mayoría niñas de entre 7 y 12 años. Fuentes citadas por Semafor indicaron que los analistas de inteligencia humana, no el sistema de IA, fueron los culpables del fallo en la selección del objetivo. Pero el hecho de que esta investigación se estuviera realizando simultáneamente con una conferencia que celebraba los mismos sistemas involucrados en la campaña arrojó una sombra inevitable sobre los procedimientos.

Karp, por su parte, insistió en que 'nunca hubo un sentido' de que los productos de IA se utilizarían para la vigilancia nacional. Eso puede ser cierto, pero la cuestión de cómo el ataque asistido por IA maneja el riesgo civil en operaciones extranjeras es posiblemente la preocupación más urgente en este momento.

Lo que esto significa para la industria tecnológica

La trayectoria de Palantir nos dice algo significativo sobre hacia dónde se dirige el sector tecnológico. La empresa que alguna vez fue considerada demasiado controvertida para los inversores convencionales es ahora una de las firmas más valiosas del planeta. Los contratos de defensa ya no son algo detrás de lo cual las empresas tecnológicas se esconden con lenguaje vago sobre 'servicios gubernamentales'. Son el producto.

La conferencia también mostró ShipOS, el sistema naval de Palantir, y señaló planes para integrar modelos de IA adicionales más allá de Claude en el futuro. El mensaje fue claro: esta no es una empresa que se cubre las espaldas. Esta es una empresa que ha decidido que el futuro de la IA es militar, y está construyendo en consecuencia.

Las preguntas más amplias

  • Responsabilidad: Cuando un sistema de IA recomienda un objetivo y el ataque mata a civiles, ¿dónde recae la responsabilidad? ¿En los 20 operadores restantes? ¿En el algoritmo? ¿En la empresa que lo construyó?
  • Velocidad frente a seguridad: Reducir los objetivos de miles de analistas a docenas aumenta drásticamente la velocidad. Pero la velocidad en la guerra no siempre es una virtud.
  • La brecha ética: Google se alejó de Maven en 2018. Palantir se acercó a él. El mercado recompensó generosamente a Palantir. ¿Qué nos dice eso sobre la brújula moral de la industria?

El veredicto

AIPCon 9 no fue solo una conferencia de desarrolladores. Fue una declaración de intenciones de una empresa que ha decidido que la aplicación más rentable de la inteligencia artificial no son los chatbots ni los generadores de imágenes, sino la maquinaria de guerra. Con una valoración de 365 mil millones de dólares y una campaña militar activa sirviendo como demostración en vivo, Palantir está demostrando que esa apuesta es correcta, al menos financieramente.

Si el resto de nosotros deberíamos sentirnos cómodos con eso es otra cuestión completamente distinta. La tecnología es genuinamente impresionante. La reducción de personal, la consolidación de sistemas, la velocidad de selección de objetivos. Pero una tecnología impresionante sin salvaguardas éticas sólidas no es progreso. Es solo capacidad.

Y la capacidad, como pueden atestiguar las familias en Minab, no es lo mismo que la sabiduría.

Lee el artículo original en fuente.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.