Le nouveau conseil de la science et de l’innovation du Pentagone, annoncé la semaine dernière, fusionne le Conseil de l’innovation de la défense avec le Conseil des sciences de la défense pour « rationaliser » la manière dont le département aborde les défis technologiques et scientifiques les plus difficiles en matière de sécurité nationale. Mais cela fait suite à des coupes budgétaires qui pourraient compromettre les futurs progrès scientifiques et innovants du ministère de la Défense, créant de nouvelles opportunités et de nouveaux obstacles aux objectifs de longue date du Pentagone.
La rationalisation est un objectif persistant du Pentagone. Mais c’est un objectif qu’il a eu du mal à atteindre au cours des années précédentes, selon les rapports du GAO, les législateurs et les chefs militaires de toutes les administrations. C’est l’une des raisons pour lesquelles la soi-disant « vallée de la mort », comme l’abîme entre un programme de recherche de pointe et une arme réelle tombant entre les mains des soldats, reste une plainte courante – et l’une des principales raisons pour lesquelles le Conseil de l’innovation de défense a été créé en premier lieu.
Le regretté ancien secrétaire à la Défense Ash Carter a créé en 2016 le Conseil de l’innovation de la défense, un organisme civil qui a toujours réuni des dirigeants de la technologie et de la finance comme Eric Schmidt, Michael Bloomberg et Neil deGrasse Tyson, pour amener le leadership éclairé des plus grands chefs d’entreprise au Pentagone. Le comité a produit une grande variété de recommandations clés que le Pentagone a ensuite adoptées, telles que le passage au cloud computing d’entreprise à grande échelle et l’adoption d’une longue liste de principes éthiques pour le développement, les tests, le déploiement et l’exploitation de l’intelligence artificielle dans l’armée.
Le Conseil scientifique de la Défense, quant à lui, a largement produit des rapports à l’intention du Congrès et des dirigeants militaires sur des questions spécifiques au ministère de la Défense, telles que la manière de réformer les tests et l’évaluation et d’introduire davantage d’ingénierie numérique dans le ministère.
Le nouveau Conseil de la science, de la technologie et de l’innovation, ou STIB, comprend un grand nombre d’experts en sciences de la défense dans des domaines tels que l’autonomie de nouvelle génération, les tests, l’hypersonique avancée et l’acquisition, ainsi que des experts du secteur privé dans des domaines tels que les réseaux neuronaux avancés.
Le nouveau conseil d’administration apparaît à un moment où l’armée souhaite intégrer davantage l’intelligence artificielle dans ses activités, réaliser plus rapidement de nouvelles avancées en matière de recherche et produire rapidement un grand nombre de drones bon marché et hautement autonomes.
Un ancien haut responsable de la défense a déclaré que le conseil d’administration (mais en réalité tout organisme scientifique ou d’innovation conseillant le Pentagone) devrait examiner « tous les aspects de l’IA, depuis les besoins énergétiques, l’éthique et l’orientation de la recherche », jusqu’à « comment accélérer la fusion des quantités massives de données sensorielles dans tous les domaines dont le département dispose pour former l’IA multimodale aux opérations offensives et défensives ».
Toutefois, l’ancien haut fonctionnaire a souligné que le conseil d’administration est uniformément blanc et majoritairement masculin. « Il rate la cible en ce qui concerne la représentation, handicapant ainsi sa crédibilité auprès du public américain », ont-ils déclaré.
Une autre question est de savoir si le nouveau conseil tiendra des réunions publiques, comme l’a fait le Conseil de l’innovation de la défense, ou se réunira en privé, comme le Conseil des sciences de la défense. L’annonce de la STIB ne fait aucune mention d’un côté ou de l’autre, et un porte-parole du Pentagone n’a pas répondu lundi à une demande de commentaires.
Réduire l’empreinte de la science, de la recherche et de la surveillance de la défense
Le nouveau conseil d’administration est la dernière d’une série de mesures du Pentagone visant à fusionner des bureaux ou des activités lancées au cours de la dernière décennie et à accélérer l’adoption de l’IA, en particulier l’IA à double usage émanant d’entreprises qui vendent également au public.
Le 12 janvier, le Pentagone a annoncé une nouvelle stratégie visant à accélérer l’utilisation de modèles de fondation à grande échelle comme Gemini de Google. Ils ont simultanément annoncé une « refonte » visant à aligner plus étroitement les bureaux tels que le Bureau en chef de l’intelligence numérique et artificielle, le Bureau des capacités stratégiques et l’Unité d’innovation de défense relevant du sous-secrétaire à la défense pour la recherche et l’ingénierie.
Ces mesures correspondent à ce que les responsables militaires actuels et anciens, les organismes de surveillance du gouvernement et les législateurs exhortent depuis longtemps les dirigeants du Pentagone à faire : réformer la manière dont le Pentagone achète la technologie pour ressembler davantage au DIU. La réorganisation de ces bureaux et activités a été considérée par de nombreux observateurs de tous bords politiques comme un signe que les dirigeants du Pentagone avaient enfin commencé à faire exactement cela et étaient sur le point d’éliminer les obstacles bureaucratiques à l’achat de technologies commerciales prêtes à l’emploi, en particulier de logiciels.
Mais la nouvelle fusion du Conseil scientifique de la défense avec le Conseil de l’innovation intervient également dans un contexte de réduction à grande échelle du financement des sciences fondamentales. Selon la version la plus récente de la National Defense Authorization Act de 2026, le ministère réduirait de près de 5 % le soutien à la recherche fondamentale dans les universités américaines.
Dans le même temps, le Pentagone accorde moins d’importance, voire reconsidère, à l’utilisation éthique de l’IA. La nouvelle stratégie d’accélération de l’IA publiée en janvier ne mentionne même pas les principes d’éthique de l’IA proposés par le Conseil de l’innovation de la défense et adoptés par le Pentagone en 2020. Au lieu de cela, elle conseille au ministère de la Défense (qui se présente lui-même sous le nom de DoW) d' »incorporer le langage standard » toute utilisation légale « dans tout contrat du DoW par lequel les services d’IA sont achetés dans un délai de 180 jours ».
La capacité du ministère à déterminer l’utilisation légale diminue également, du moins aux plus hauts niveaux, suite au remplacement de plusieurs hauts responsables du JAG en février dernier et à la mise à l’écart d’autres officiers du JAG lorsqu’ils envisagent des mesures controversées, telles que tirer sur des bateaux non armés ou déployer la Garde nationale pour contrôler l’immigration. Le ministère a également considérablement réduit son Bureau de l’Inspecteur général, qui assure une surveillance clé sur des questions telles que la sécurité et l’efficacité des politiques.
Tout cela sème la confusion et le désaccord avec certaines des sociétés d’IA que le Pentagone courtise. Les chercheurs d’Anthropic, par exemple, craignent que le ministère de la Défense ne leur demande de changer ou de modifier les outils d’IA par rapport aux directives de l’entreprise afin de les adapter à la définition d’« utilisation licite » avec laquelle le Pentagone travaille actuellement, selon un rapport de Reuters.
Un responsable actuel a déclaré que les rapports publics sur le désaccord entre le ministère et Anthropic avaient quelque peu exagéré le problème, et que la nouvelle politique disait simplement que le Pentagone « devrait être l’entité qui dicte l’utilisation licite et les garanties et ne laisse pas les entreprises préciser comment les produits seront utilisés dans les cas d’utilisation licite. La question de savoir qui rédigera ces garanties est distincte. »
Un ancien haut responsable de la défense qui a travaillé dans des domaines tels que l’intelligence artificielle déployée a convenu que certaines des inquiétudes concernant la nouvelle approche du Pentagone en matière de sécurité de l’IA étaient un peu paniques.
Cependant, ont-ils déclaré, un problème plus important concerne les normes de test et d’évaluation que le Pentagone et les services utilisent pour mettre en œuvre les logiciels d’IA. « Tant que ces normes restent élevées, les politiques qui les entourent ne sont que de la poudre aux yeux… parce que des logiciels terribles et non vérifiés ne seront pas mis à l’échelle et mis en service. »
Mais le Pentagone a également réduit les sommes d’argent et le personnel consacrés à garantir la rigueur des tests et des évaluations, réduisant de moitié le bureau qui supervise les tests de service en mai dernier. Mais l’ancien responsable a déclaré que parce que les services eux-mêmes effectuent les tests initiaux et sont beaucoup plus déterminés à mettre en œuvre une IA sûre qui ne nuira pas aux militaires que ne le serait un bureau du Pentagone, cette réduction en soi ne présente pas de problème.
Pourtant, même si une fusion ou une réduction particulière ne constitue pas en soi une cause d’inquiétude, la totalité de la réduction pourrait l’être. Ces réductions et fusions pourraient-elles affecter des domaines essentiels dont dépend le Pentagone pour établir des normes pour des choses comme le déploiement de l’IA ? Cela vaut la peine d’être suivi, a déclaré le deuxième ancien responsable.
« Si ces normes diminuent, vous avez des problèmes. Le nombre de personnes qui s’occupent de la sécurité de l’IA, en particulier, est potentiellement lié à cela, mais pas nécessairement », ont-ils déclaré. Les dirigeants du Pentagone ont eu raison de réduire « le gaspillage et la duplication dans le domaine ». [testing and evaluation] processus », ont-ils déclaré. « Et je pense aussi qu’ils le mettent probablement en œuvre de la manière la plus stupide possible. »







