AIPCon 9 de Palantir : là où la Silicon Valley rencontre le champ de bataille, et où les affaires prospèrent
La guerre est bonne pour les affaires, apparemment
Si vous vous êtes déjà demandé ce qui arrive lorsqu'une conférence technologique se heurte à une campagne militaire active, l'AIPCon 9 de Palantir a fourni une réponse plutôt troublante. Tenue les 12 et 13 mars 2026 dans le Maryland, la conférence de développeurs a présenté des systèmes d'IA conçus non pas pour recommander votre prochaine série Netflix, mais pour identifier des cibles et assigner des munitions dans une guerre en temps réel.
Et le timing ? Absolument délibéré, on peut le supposer. La conférence a eu lieu alors que les forces américaines menaient activement l'opération Epic Fury contre l'Iran, une opération qui a frappé 1 000 cibles au cours des 24 premières heures après son lancement le 28 février 2026. C'est, selon les estimations de certains analystes, environ deux fois la puissance aérienne déployée pendant la campagne « choc et stupeur » en Irak en 2003, délivrée en une fraction du temps.
Maven sous le feu des projecteurs
La pièce maîtresse de l'AIPCon 9 était une démonstration en direct du système intelligent Maven par Cameron Stanley, le directeur du numérique et de l'IA du département de la Défense. Pour ceux qui ne connaissent pas, le projet Maven évolue discrètement depuis 2016, initialement en partenariat avec Google jusqu'à ce que les protestations des employés forcent le géant de la technologie à abandonner en 2018. Palantir a été plus qu'heureux de reprendre là où Google s'était arrêté.
Ce que Stanley a démontré était techniquement vraiment remarquable, même si les implications soulèvent le cœur. Le système Maven consolide ce qui était auparavant huit ou neuf systèmes de ciblage distincts en une interface unique. Stanley lui-même a noté : « Nous faisions cela dans environ huit ou neuf systèmes où les humains déplaçaient littéralement les détections de gauche à droite. »
La démo montrait l'imagerie satellite traitée en temps réel, le système distinguant les personnes des véhicules puis proposant des affectations de munitions via ce que Palantir appelle son AI Asset Tasking Recommender. Pensez-y comme à la saisie semi-automatique, mais pour les frappes aériennes.
De 2 000 officiers de renseignement à 20
La statistique la plus frappante est peut-être venue de Chad Wahlquist, un architecte de Palantir, qui a affirmé que les tâches de ciblage nécessitant environ 2 000 officiers de renseignement pendant l'opération Iraqi Freedom pouvaient désormais être gérées par environ 20 personnes utilisant le système Maven. C'est une réduction de 99 % de l'implication humaine dans la chaîne de ciblage. Que vous trouviez cela impressionnant ou terrifiant dépend probablement de votre point de vue, mais cela mérite de s'attarder sur les deux réactions pendant un moment.
Alex Karp : le PDG de défense le plus décomplexé de la Silicon Valley
Le PDG de Palantir, Alex Karp, qui ne recule jamais devant une déclaration audacieuse, était dans une forme caractéristique. « Ce qui rend l'Amérique spéciale en ce moment, ce sont nos capacités létales, notre capacité à faire la guerre », a-t-il déclaré à CNBC le jour de l'ouverture de la conférence. Il est allé plus loin, décrivant la révolution de l'IA comme « typiquement américaine » et ajoutant : « Une fois que la guerre commence, nous ne sommes pas intéressés par le débat sur la façon dont nous les soutenons. »
C'est le genre de rhétorique qui ferait transpirer les équipes de relations publiques de la plupart des PDG de la tech. Mais Karp a construit une entreprise désormais évaluée à environ 365 milliards de dollars (avec des actions se négociant autour de 152,77 dollars à la mi-mars 2026) précisément en se penchant sur l'espace inconfortable où la Silicon Valley rencontre le Pentagone.
Le paradoxe Anthropic
L'un des sous-intrigues les plus fascinantes concerne Anthropic, l'entreprise de sécurité de l'IA derrière le modèle de langage Claude. C'est là que les choses se compliquent : Maven utilise le modèle d'IA Claude d'Anthropic dans sa pile de ciblage. Karp l'a confirmé, déclarant : « C'est notre pile qui fait fonctionner les LLM. »
Le problème ? Anthropic et le Pentagone sont actuellement en conflit ouvert. Le PDG d'Anthropic, Dario Amodei, a publié des articles de blog affirmant que le département de la Défense refusait de mettre en œuvre des garanties contre la surveillance de masse nationale et l'utilisation d'armes autonomes. En réponse, le secrétaire à la Défense Pete Hegseth a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement ». Anthropic a ensuite poursuivi le Pentagone en justice.
Malgré cette rupture spectaculaire, Karp a confirmé que Palantir continue d'utiliser Claude. Nous avons donc la technologie d'une entreprise de sécurité de l'IA utilisée dans un système de ciblage militaire, alors que cette même entreprise poursuit l'armée pour des problèmes de sécurité. On ne pourrait vraiment pas inventer cela.
L'éléphant dans la pièce
Tout compte rendu honnête de l'AIPCon 9 doit reconnaître ce qui se passait en arrière-plan. Une enquête du Pentagone était en cours sur une frappe contre l'école primaire Shajareh Tayyebeh à Minab, en Iran, qui a tué plus de 160 personnes, principalement des écolières âgées de 7 à 12 ans. Des sources citées par Semafor ont indiqué que des analystes du renseignement humain, et non le système d'IA, ont été blâmés pour l'échec du ciblage. Mais le fait que cette enquête se déroule parallèlement à une conférence célébrant les systèmes mêmes impliqués dans la campagne a jeté une ombre inévitable sur les débats.
Karp, pour sa part, a insisté sur le fait qu'il n'y avait « jamais eu le sentiment » que les produits d'IA seraient utilisés pour la surveillance intérieure. Cela peut être vrai, mais la question de savoir comment le ciblage assisté par IA gère le risque civil dans les opérations étrangères est sans doute la préoccupation la plus pressante en ce moment.
Ce que cela signifie pour l'industrie technologique
La trajectoire de Palantir nous dit quelque chose d'important sur la direction que prend le secteur technologique. L'entreprise qui était autrefois considérée comme trop controversée pour les investisseurs traditionnels est désormais l'une des firmes les plus précieuses de la planète. Les contrats de défense ne sont plus quelque chose que les entreprises technologiques cachent derrière un langage vague sur les « services gouvernementaux ». Ils sont le produit.
La conférence a également présenté ShipOS, le système naval de Palantir, et a signalé des plans pour intégrer des modèles d'IA supplémentaires au-delà de Claude à l'avenir. Le message était clair : ce n'est pas une entreprise qui joue la prudence. C'est une entreprise qui a décidé que l'avenir de l'IA est militaire, et elle construit en conséquence.
Les questions plus larges
- Responsabilité : Lorsqu'un système d'IA recommande une cible et que la frappe tue des civils, où se situe la responsabilité ? Avec les 20 opérateurs restants ? L'algorithme ? L'entreprise qui l'a construit ?
- Vitesse contre sécurité : Réduire le ciblage de milliers d'analystes à quelques dizaines augmente considérablement la vitesse. Mais la vitesse dans la guerre n'est pas toujours une vertu.
- Le fossé éthique : Google a abandonné Maven en 2018. Palantir s'est dirigé vers lui. Le marché a récompensé Palantir grassement. Qu'est-ce que cela nous dit sur la boussole morale de l'industrie ?
Le verdict
L'AIPCon 9 n'était pas seulement une conférence de développeurs. C'était une déclaration d'intention d'une entreprise qui a décidé que l'application la plus rentable de l'intelligence artificielle n'est pas les chatbots ou les générateurs d'images, mais la machine de guerre. Avec une valorisation de 365 milliards de dollars et une campagne militaire active servant de démonstration en direct, Palantir prouve que ce pari est correct, au moins financièrement.
Que le reste d'entre nous doive être à l'aise avec cela est une autre question. La technologie est vraiment impressionnante. La réduction du personnel, la consolidation des systèmes, la vitesse de ciblage. Mais une technologie impressionnante sans garde-fous éthiques robustes n'est pas un progrès. Ce n'est que de la capacité.
Et la capacité, comme les familles de Minab peuvent en témoigner, n'est pas la même chose que la sagesse.
Lisez l'article original sur la source.

No comments yet. Be the first to share your thoughts.