Rencontrez les startups qui tentent de créer une IA spécifique au secteur militaire

.NETWORKeuropeinfo-defenseRencontrez les startups qui tentent de créer une IA spécifique au secteur militaire

La bataille entre le constructeur de modèles d’IA Anthropic et le Pentagone a révélé un énorme écart entre les outils d’IA souhaités par l’armée et ce que des entreprises comme Anthropic, xAI et OpenAI fabriquent réellement : des outils d’IA destinés à tous, pas spécifiquement à l’armée. Une poignée de startups dirigées ou financées par des vétérans visent à combler cette lacune. Leur argument : l’IA pour la guerre devrait avoir une compréhension de base de la guerre, au-delà de la lecture des fanfictions de Tom Clancy. Il ne doit pas proposer en toute confiance des réponses peu fiables uniquement pour apaiser l’utilisateur. Et cela devrait fonctionner même lorsqu’un adversaire high-tech coupe sa connexion au cloud.

L’écart des besoins

Parmi les vérités inconfortables révélées par la lutte entre Anthropic et le ministère de la Défense, il y a celle que le Pentagone avait de profondes réserves sur les modèles de langage eux-mêmes, leur potentiel d’hallucination et le fait qu’ils pourraient « ne pas suivre les instructions ».

Mais le Pentagone a quand même autorisé un large déploiement du modèle d’Anthropic, soucieux de mettre au moins quelques outils d’IA générative entre les mains des opérateurs. Il aurait joué un rôle dans l’opération Midnight Hammer, le raid qui a permis de capturer le président vénézuélien Nicolás Maduro, bien que les responsables du Pentagone aient refusé de le confirmer.

Après le raid, des responsables d’Anthropic ont appelé Palantir pour lui demander si leurs modèles d’IA avaient été utilisés dans l’opération, a déclaré vendredi le sous-secrétaire à la Défense chargé de la recherche et de l’ingénierie, Emil Michael. Michael a déclaré que c’était « un moment génial pour l’ensemble des dirigeants du Pentagone, que nous soyons potentiellement si dépendants d’un fournisseur de logiciels sans autre alternative ». Il a déclaré que cela soulevait plusieurs inquiétudes, notamment qu’Anthropic pourrait fermer l’accès aux modèles dans de telles situations.

Anthropic elle-même avait des préoccupations similaires, selon un responsable de l’entreprise : l’entreprise ne pensait pas qu’il était sécuritaire pour les militaires de s’appuyer sur leurs modèles pour les situations de combat.

Un autre aspect des lacunes des modèles d’IA d’aujourd’hui (Claude d’Anthropic, Gemini de Google, ChatGPT d’OpenAI et Grok de xAI) est qu’ils ont besoin d’une connexion au cloud. Cela les rend peu fiables pour les troupes d’aujourd’hui et inutilisables pour les armes autonomes de demain.

OpenAI a tacitement reconnu cette limitation lorsqu’elle a récemment annoncé son propre accord de déploiement sur les réseaux classifiés du Pentagone, bien qu’elle ait décrit cette incapacité à déployer de grands modèles fondamentaux sur le champ de bataille comme une « garantie » contre le type de manque de fiabilité qui préoccupait les responsables d’Anthropic.

« Notre contrat limite notre déploiement à l’API cloud », a expliqué Katrina Mulligan, responsable de la sécurité nationale d’OpenAI, sur X. « Les systèmes autonomes nécessitent une inférence à la périphérie. En limitant notre déploiement à l’API cloud, nous pouvons garantir que nos modèles ne peuvent pas être intégrés directement dans des systèmes d’armes, des capteurs ou tout autre matériel opérationnel. »

La voie à suivre

Alors même que le Pentagone éjectait bruyamment Anthropic de ses bonnes grâces, l’armée se préparait à dévoiler une nouvelle initiative pour combler l’écart. Le projet Aria, annoncé jeudi, vise à aider le service à développer et à déployer de nouveaux modèles et outils d’IA « pour résoudre de réels problèmes opérationnels », c’est-à-dire conçus spécifiquement pour aider les soldats à faire leur travail.

C’est également l’objet d’une nouvelle classe de startups d’IA dirigées par des personnes ayant une expérience militaire et dédiées aux outils de champ de bataille qui n’ont pas besoin de téléphoner à la maison.

L’un d’eux est Smack Technologies, qui a annoncé lundi avoir obtenu un financement d’investisseurs de 32 millions de dollars pour construire ce qu’ils appellent un « laboratoire frontalier pour la sécurité nationale ».

Andrew Markoff, un ancien opérateur spécial de la Marine qui a cofondé Smack, affirme que son IA est formée sur des ensembles de données pertinents pour le combat, et non sur le fourrage non spécialisé donné à Claude, Gemini et à d’autres modèles frontaliers.

« Il n’y a pas de programme d’entraînement pour la Troisième Guerre mondiale, n’est-ce pas ? Markoff a déclaré lors d’un appel avec des journalistes la semaine dernière. « Il n’y a aucun moyen de construire un apprentissage par renforcement… si vous ne disposez pas d’une expertise approfondie du domaine et d’un groupe approfondi de personnes possédant une expertise dans le domaine. Il n’y a pas de raccourci pour coder de bonnes connaissances humaines préalables, et cela n’existe pas dans les manuels de doctrine. »

Il a qualifié le raid au Venezuela de bon exemple du type d’opération que l’IA pourrait contribuer à intensifier dans un conflit avec un adversaire plus avancé.

« Multipliez cela par 100 et mesurez l’échelle. Vous avez des cibles que vous souhaitez frapper, vous avez des capteurs que vous essayez d’affecter à ces cibles pour comprendre ce qui se passe. Et pour faciliter les frappes, vous avez des plates-formes de frappe et des escortes qui se rassemblent du monde entier avec des exigences de séquençage très détaillées ; vous savez, la tâche A doit se produire X secondes avant la tâche B. Et tout cela dépend de certaines choses qui se produisent, vous savez, au moment X. Donc, par exemple, toutes ces choses doivent être réunies à l’échelle mondiale, dans un délai très serré.

Mais Markoff a déclaré que ce n’est pas le genre de chose pour laquelle les grands modèles de langage commerciaux sont conçus. Les modèles comme Claude « n’ont aucun moyen d’optimiser entre ces objectifs. Et ils n’ont pas la capacité d’effectuer des calculs temporels et spatiaux détaillés, [to perform] un raisonnement géospatial fondé sur la physique, pour prendre des décisions, littéralement, sur quelles munitions doivent être placées à quel endroit et à quelle heure, en parlant à quels capteurs et à quelle heure. Il n’a pas la capacité de faire cela.

Cela a été repris par Jason Rathje, ancien responsable des acquisitions de l’armée de l’air et co-fondateur du Bureau du capital stratégique du ministère de la Défense, qui dirige désormais la division du secteur public chez webAI.

Les modèles frontières comme Claude « sont conçus pour répondre à des millions de questions différentes pour des milliards d’utilisateurs. Les organisations militaires ont souvent besoin de quelque chose de différent, de systèmes adaptés à des tâches opérationnelles spécifiques telles que la planification logistique, la maintenance des équipements, l’analyse du renseignement ou l’aide à la décision opérationnelle », a déclaré Rathje.

Les limitations liées aux besoins du cloud sont tout aussi importantes. « Beaucoup de modèles pionniers actuels sont conçus comme des services centralisés pour des bases d’utilisateurs commerciaux massives, nécessitant les chipsets les plus avancés et l’infrastructure de centre de données de haute capacité disponible, et consommant d’énormes quantités d’énergie. Cela est logique pour les applications grand public, mais les organisations militaires ont souvent des exigences très différentes », a-t-il déclaré. « Ce que demandent les organisations de défense, c’est la souveraineté : le contrôle du modèle, des données et de l’infrastructure sur laquelle ils fonctionnent. »

Smack Technologies produit deux suites de produits : l’une fonctionnant comme les modèles d’IA générative bien connus, mais formée sur le renseignement militaire et l’expérience des opérateurs ; et l’autre pour travailler sur des champs de bataille éloignés.

Sherman Williams, vétéran de la Marine et fondateur d’AIN Ventures, a investi dans un certain nombre de startups à double usage et axées sur la défense. Il reconnaît qu’aucune start-up d’IA ne battra l’un des grands modèles frontières en matière de mesures telles que les tests de raisonnement. Mais « un modèle dont les capacités sont égales à 85 %, mais qui fonctionne sur un [denied, disrupted, intermittent, and limited] Le réseau à la pointe tactique bat GPT-5 dans un centre de données inaccessible.

Même les centres de données que vous pouvez atteindre sont vulnérables, comme le montre le ciblage par l’Iran d’une installation AWS à Bahreïn. « Ces centres de données sont importants, mais ils sont également vulnérables. Le contexte compte plus que les références. »

La nouvelle classe de startups d’IA axées sur le DOD « n’essaie pas de surpasser OpenAI », a-t-il déclaré. « Ils construisent la pile d’adaptation et de déploiement qui rend les modèles open source utilisables dans des environnements classifiés. Des modèles sécurisés et spécifiques à un domaine pour [intelligence, surveillance, and reconnaissance] et [command and control] déploiement en périphérie.

Williams dit qu’il constate « des signaux d’attraction forts de la part des clients militaires, en particulier SOCOM et INDOPACOM », qui utilisent largement l’IA au niveau des quartiers généraux depuis plus d’un an.

Il a ajouté que les acheteurs et les utilisateurs du DOD veulent faire confiance aux fabricants de leurs outils d’IA, et que le lien est plus facile à nouer avec des fondateurs familiers avec les opérations militaires.

Mais le simple fait d’embaucher une IA développée par des vétérans ne résout pas le problème plus large des grands modèles de langage : ils parlent avec assurance alors qu’ils ne devraient pas, et adaptent souvent leurs réponses, voire mentent, à leurs utilisateurs.

Pete Walker, commandant de la marine à la retraite et directeur de l’innovation chez IntelliGenesis, société d’IA de défense et de cybersécurité, a déclaré que les grands modèles frontaliers fournissent souvent les réponses que les utilisateurs souhaitent entendre.

« La façon dont ces modèles sont construits, l’une des raisons pour lesquelles ils sont si importants, est qu’ils encouragent la conversation », ce qui signifie encourager les utilisateurs à approfondir leurs centres d’intérêt sur des sujets spécifiques, sans leur parler honnêtement. Walker, titulaire d’un doctorat. en sciences cognitives, des recherches évaluées par des pairs viennent étayer ces affirmations.

Son entreprise travaille donc au développement d’un cadre pour de grands modèles de langage basé sur une pensée contrefactuelle, présentant des points de vue alternatifs pour remettre en question les hypothèses des utilisateurs plutôt que de simplement renforcer les hypothèses que l’utilisateur a apportées à la question initiale. Il décrit cela comme le fait d’amener un modèle à penser : « Hé, vous dites que si A alors B, mais que se passe-t-il si ce n’est pas A, ou si ce n’est pas B ? Qu’est-ce que cela implique ? Et donc je pense que ce sont des domaines de recherche dont nous avons besoin.


Source:

www.defenseone.com

Annonce publicitairespot_imgspot_img

Articles les plus populaires