Des experts de l’Université de New York (États-Unis) ont entraîné une intelligence artificielle (IA) basée sur de grands modèles de langage pour comprendre le sarcasme et l’ironie, rapporte le magazine « Computer Science ».
Il existe aujourd’hui dans l’intelligence artificielle plusieurs modèles de langage capables d’analyser des textes et de deviner leur ton émotionnel – si ces textes expriment des émotions positives, négatives ou neutres. Jusqu’à présent, le sarcasme et l’ironie étaient généralement classés à tort comme des émotions « positives ».
Les scientifiques ont identifié des fonctionnalités et des composants algorithmiques qui aident l’intelligence artificielle à mieux comprendre le véritable sens de ce qui est dit. Ils ont ensuite testé leur travail sur les modèles RoBERTa et CASCADE LLM en les testant à l’aide de commentaires sur le forum Reddit. Il s’avère que les réseaux de neurones ont appris à reconnaître le sarcasme presque aussi bien que la personne moyenne.
En revanche, le site du Figaro rapporte que les artistes « infectent » eux-mêmes leurs œuvres afin de tromper l’intelligence artificielle (IA). Le programme Glaze, développé par l’Université de Chicago, ajoute un balisage aux travaux qui confond l’IA. Face à l’exploitation des données par l’IA, les artistes tendent un « piège » à leurs créations, les rendant inutilisables.
Paloma McClain est une illustratrice américaine. L’IA peut désormais créer des images à sa manière, même si McClane n’a jamais donné son consentement et ne recevra aucun paiement. «Cela me rend confus», dit l’artiste qui vit à Houston, au Texas. « Je ne suis pas célèbre, mais cela me fait mal. »
Pour empêcher l’utilisation de ses œuvres, elle a utilisé le logiciel Glaze. Glaze ajoute des pixels invisibles à ses illustrations. Cela perturbe l’IA car le fonctionnement du logiciel rend les images floues.
« Nous essayons d’utiliser les capacités technologiques pour protéger les créations humaines de l’IA », a expliqué Ben Zhao de l’Université de Chicago, dont l’équipe a développé le logiciel Glaze en seulement quatre mois.
Une grande partie des données, images, textes et sons utilisés pour développer des modèles d’IA ne sont pas fournis après consentement exprès.
Une autre initiative est celle de la startup Spawning, qui a développé un logiciel qui détecte les recherches sur les plateformes d’images et permet à l’artiste de bloquer l’accès à ses œuvres ou de soumettre une autre image à la place de celle recherchée. Cela « empoisonne » les performances de l’IA, explique Jordan Mayer, co-fondateur de Spawning. Plus d’un millier de sites sur Internet sont déjà intégrés au réseau de la startup – Kudurru.
L’objectif est que les gens puissent protéger le contenu qu’ils créent, a déclaré Ben Zhao. Dans le cas de la startup Spawning, l’idée n’est pas seulement d’interdire l’utilisation des œuvres, mais aussi de permettre leur vente, a expliqué Jordan Meyer. Selon lui, la meilleure solution serait que toutes les données utilisées par l’IA soient fournies avec le consentement et contre rémunération.
Publié à l’origine dans The European Times.