Lorsqu’un coupon apparaît soudainement sur votre téléphone lorsque vous approchez d’un magasin, cela peut vous être utile, voire pratique. Mais les mêmes systèmes d’IA qui savent où vous êtes et tentent d’influencer vos achats peuvent être utilisés pour déduire ce que vous craignez, ce en quoi vous avez confiance et quelles histoires vous êtes susceptible de croire. Les algorithmes de marketing alimentés par l’IA sont de plus en plus efficaces pour influencer le comportement humain.
Cela suscite des inquiétudes quant à ce que divers gouvernements pourraient faire avec ces outils pour influencer les opinions des citoyens sur la guerre. Un regard lucide sur la manière dont les administrations exploitent ces systèmes peut aider les citoyens et leurs nations à naviguer dans un avenir incertain.
Je suis un chercheur en sécurité qui étudie les moyens d’explorer et de caractériser les risques que la technologie représente pour les individus et la société. La montée de l’influence de l’IA soulève des questions sur l’érosion de la capacité des individus à exercer leur libre arbitre et, par extension, sur la capacité de la société à distinguer une guerre juste d’une guerre injuste.
Marketing alimenté par l’IA
L’intégration de l’IA aux services géolocalisés repousse les limites du marketing. Les services géolocalisés utilisent les données géographiques provenant de capteurs intérieurs, de tours de téléphonie mobile et de satellites pour promouvoir des biens et des services adaptés à votre emplacement, une capacité appelée géorepérage.
Lorsque les entreprises de marketing associent d’énormes quantités de données sur les comportements des individus – y compris des informations que les gens partagent volontairement ou inconsciemment via des applications pour appareils mobiles – elles peuvent regrouper ou segmenter des clients potentiels en fonction de ce qu’ils aiment, de ce qu’ils font et de ce qu’ils disent.
Une fois qu’un système de marketing basé sur l’IA sait où se trouve un utilisateur et peut deviner en connaissance de cause ses goûts et ses aversions, il peut concevoir des coupons et des publicités ciblés pour influencer le comportement de chaque personne d’un groupe, et éventuellement du groupe dans son ensemble. Cette combinaison de l’IA avec le géofencing et la segmentation rend possible un contenu marketing hyperpersonnalisé à une échelle sans précédent.
Publicité en temps réel
Quel rapport cette avancée pourrait-elle avoir avec la guerre ? L’utilisation de la psychologie pour gagner des batailles ou éviter la guerre est aussi ancienne que le conflit armé lui-même. Sun Tzu, général militaire et philosophe chinois décédé en 496 avant JC, a écrit : « C’est pourquoi le chef habile soumet les troupes ennemies sans aucun combat ; il s’empare de leurs villes sans les assiéger ; il renverse leur royaume sans de longues opérations sur le terrain. »
Depuis l’époque de Sun Tzu jusqu’à aujourd’hui, les praticiens expérimentés de la stratégie militaire ont cherché à réduire les risques liés aux combats grâce à un contrôle réflexif : amener les adversaires à accomplir volontairement les actions qui conviennent le mieux à l’empire ou à la nation du stratège.
Les stratèges d’aujourd’hui s’appuient de plus en plus sur les publicités payantes sur les réseaux sociaux, les influenceurs, le contenu généré par l’IA et même les faux comptes de réseaux sociaux pour influencer l’opinion publique vers leurs objectifs. Ce pouvoir et la controverse qui l’entoure ont été impliqués dans les récentes élections nationales, les troubles intérieurs et les négociations visant à mettre fin au conflit en Ukraine.
Contrairement à la propagande de la guerre froide entre les États-Unis et l’Union soviétique, les influenceurs modernes ne s’appuient pas sur un seul message diffusé aux masses. Les stratèges testent et déploient simultanément des milliers de variantes narratives, surveillent la réaction des différents groupes et affinent leur approche en temps quasi réel. Les fournisseurs n’ont pas besoin de convaincre tout le monde. Il leur suffit de pousser suffisamment de personnes au bon moment pour modifier les résultats des élections, faire pression sur les politiques nationales ou même déclencher des violences ethniques.
Dans quelle mesure la tromperie est-elle tolérable ?
À mesure que l’influence en ligne devient de plus en plus automatisée et personnalisée, il est plus difficile de déterminer où s’arrête la persuasion et où commence la coercition. Si des groupes de personnes, voire les citoyens d’une nation, peuvent être guidés vers certaines croyances ou comportements sans force manifeste, les sociétés démocratiques sont confrontées à un nouveau problème : comment distinguer les tentatives traditionnelles d’influence de la manipulation – en particulier en période de conflit.
Des études récentes montrent que les Américains font davantage confiance aux sources d’information locales qu’aux sources d’information nationales, bien que la confiance dans les médias d’information locaux et nationaux ait diminué dans tous les groupes d’âge aux États-Unis. Ironiquement, ce déficit de confiance est exploité de diverses manières par des médias sans scrupules, comme les informations en forme de vase rose générées par l’IA – des informations en ligne qui semblent provenir uniquement d’organes d’information locaux authentiques. Les histoires sont souvent techniquement exactes mais présentées avec un parti pris politique voilé.
La propagande basée sur l’IA remet directement en question la manière dont les gens évaluent généralement les affirmations selon lesquelles leur nation a été lésée – selon laquelle c’est le « bon » qui défend ce qui est juste. La théorie de la guerre juste suppose que les citoyens peuvent raisonnablement consentir à la guerre. Une autorité politique légitime nécessite un public informé qui puisse décider que la violence est à la fois nécessaire et proportionnelle à l’infraction. Cependant, lorsque les opérations d’influence influencent les opinions des gens sans qu’ils s’en rendent compte, ces systèmes menacent de saper les conditions morales qui rendent la guerre juste.
La question à laquelle les citoyens doivent répondre est de savoir comment ils permettront à leur environnement informationnel d’évoluer. Supposent-ils que la tromperie est omniprésente et que, par conséquent, les gouvernements doivent contrôler l’information et même anticiper la vérité en militarisant les récits basés sur l’IA ? Ou bien le public devrait-il accepter le risque de l’influence générée par l’IA comme un élément regrettable mais nécessaire de l’ouverture, du pluralisme et de la conviction que la vérité émerge à travers un débat transparent et non sous des contrôles stricts ?
Les mêmes systèmes qui décident quel coupon parvient à votre téléphone commencent à déterminer quels récits parviennent à vous, à votre communauté et à l’ensemble de la population d’un pays en cas de crise. Reconnaître ce lien est la première étape pour décider du degré d’influence que les gens sont prêts à accepter de la part de ces algorithmes et des propagandistes qui les contrôlent.
Source:
theconversation.com



