The Belgium Times – Journal belge et international indépendant

Annonce publicitairespot_imgspot_img

Le chef des droits de l’homme de l’ONU : l’IA doit être basée sur l’inclusivité, la responsabilité et les normes mondiales

.NETWORKalmouwatin-actualiteLe chef des droits de l'homme de l'ONU : l'IA doit être basée sur l'inclusivité, la responsabilité et les normes mondiales

S’exprimant au Sommet sur l’impact de l’IA à New Delhi, a déclaré M. Türk Actualités de l’ONU que la technologie doit être régie par un cadre de droits de l’homme qui garantit la transparence, la responsabilité et l’inclusion.

Cette interview a été éditée pour plus de clarté et de longueur.

Volker Türk : L’intelligence artificielle est un outil technologique et elle doit être développée sur la base d’évaluations des risques. Les outils technologiques sont utilisés pour exercer le pouvoir, pour le meilleur mais aussi pour le pire. Nous devons donc nous assurer qu’il existe un cadre dans lequel ils sont développés, conçus et utilisés, et c’est là qu’interviennent les droits de l’homme.

ONU Info : Quels sont selon vous les plus grands risques en matière de droits de l’homme liés à l’expansion rapide de l’IA aujourd’hui ?

Volker Türk : Il existe un énorme problème d’iniquité, et c’est pourquoi je suis si heureux que ce sommet sur l’IA ait lieu en Inde. Il est vraiment important que ces outils soient utilisés partout et qu’ils soient développés partout.

Ensuite, il y a la question des préjugés et de la discrimination. Si les données ne sont collectées que dans une seule partie du monde, si seuls les hommes développent l’IA, des préjugés inconscients seront alors intégrés. Nous pensons qu’il est essentiel de prêter attention aux groupes vulnérables et aux minorités, car ils sont souvent exclus du développement de l’IA. Il s’agit d’une participation significative et de donner une vision d’un monde meilleur. Les droits de l’homme fournissent cette vision.

ONU Info : L’IA générative évolue plus vite que la réglementation. Quels garde-fous les gouvernements et les entreprises doivent-ils mettre en place de toute urgence ?

Volker Türk : Prenons l’exemple de l’industrie pharmaceutique : les tests peuvent parfois durer longtemps car il faut s’assurer que les risques liés à un nouveau produit sont identifiés avant sa mise en vente.

En ce qui concerne les outils d’IA, nous devons exiger que les entreprises effectuent une évaluation de leur impact sur les droits humains lorsqu’elles les conçoivent, les déploient et les commercialisent.

Nous constatons depuis un certain temps déjà que certaines entreprises disposent de budgets plus importants que certains petits pays. Si vous êtes capable de contrôler la technologie non seulement dans votre pays mais partout dans le monde, vous exercez le pouvoir. Vous pouvez utiliser ce pouvoir pour le bien – pour faire des choses qui, espérons-le, aideront dans des domaines tels que la santé, l’éducation et le développement durable – mais vous pouvez également utiliser ce pouvoir pour de mauvaises choses, comme les armes mortelles automatisées et la propagation de la désinformation, de la haine et de la misogynie violente.

ONU Info : Quel type de gouvernance ou de règles basées sur l’IA sont nécessaires pour empêcher les systèmes d’IA de renforcer les préjugés et les inégalités ?

Volker Türk : J’ai eu la chance de discuter avec des gens qui produisent ces choses ou qui les développent et les conçoivent. Ce qui me frappe, c’est qu’ils ont souvent une connaissance très superficielle des principes fondamentaux lorsqu’ils entrent dans la phase de développement.

Cela me rappelle un peu le monstre de Frankenstein ; vous développez quelque chose que vous ne contrôlez plus. Vous laissez le génie sortir de la bouteille.

Si vous n’êtes pas conscient des dangers et des risques, vous pouvez faire des ravages. Nous l’avons vu au Myanmar, par exemple, où de nombreux discours de haine contre les Rohingyas ont été diffusés sur les réseaux sociaux.

Il est très important de prendre en compte le point de vue de chaque segment de la société, en particulier celui des femmes et des jeunes, et de garder à l’esprit que notre cerveau se développe de différentes manières.

Nous ne voulons pas créer de dépendances qui empoisonnent notre esprit et notre âme.. Nous devons également être conscients de la façon dont la désinformation nocive non seulement détruit le tissu social, mais crée également des sociétés conflictuelles et polarisées où chacun vit dans sa propre bulle.

On voit aussi beaucoup de misogynie. De nombreuses femmes politiques me disent qu’elles envisagent de quitter la politique en raison de ce qu’elles vivent sur les réseaux sociaux.

ONU Info : Dans cinq ans, à quoi ressemblerait, selon vous, une IA responsable ?

Volker Türk : J’espère que nous aboutirons à un développement inclusif de l’intelligence artificielle, où le pouvoir ne sera plus concentré entre les mains d’une poignée d’entreprises en Amérique du Nord, et où le développement de l’IA s’appuiera sur la richesse et la diversité de chacun d’entre nous dans chaque société.

J’espère un développement inclusif, significatif et participatif, qui nous aidera à résoudre les nombreux problèmes et défis du monde d’aujourd’hui. Crise climatique, accès aux soins de santé, éducation pour tous : l’IA peut être un outil fantastique pour nous aider à atteindre ces objectifs.

Le revers de la médaille est que, si nous ne proposons pas une vision d’un monde meilleur, nous pourrions nous retrouver encore plus polarisés et nous retrouver avec des guerres qui ne sont plus contrôlées par les humains. Et c’est très dangereux.


Source:

news.un.org

Découvrez nos autres contenus

Articles les plus populaires