Loubna Azghoud prend la tête du groupe MR

La désignation de Loubna Azghoud comme cheffe...

Israël prêt à agir seul contre l’Iran: Un avertissement explicite adressé aux États Unis

Des responsables sécuritaires israéliens ont récemment averti...
Annonce publicitairespot_imgspot_img

Les domaines et les fonctions organisationnelles de la sécurité de l’IA

.NETWORKopinionmondiale-societeLes domaines et les fonctions organisationnelles de la sécurité de l'IA

Lorsque votre RSSI évoque la « sécurité de l’IA » lors de la prochaine réunion du conseil d’administration, que signifie-t-il exactement ? Parlent-ils de protéger vos systèmes d’IA contre les attaques ? Utiliser l’IA pour attraper les pirates ? Empêcher les employés de divulguer des données vers un service d’IA non approuvé ? Vous assurer que votre IA ne produit pas de résultats nuisibles ?

La réponse pourrait être « tout ce qui précède » ; et c’est précisément le problème.

L’IA est devenue profondément ancrée dans les opérations des entreprises. En conséquence, l’intersection de « l’IA » et de la « sécurité » est devenue de plus en plus complexe et déroutante. Les mêmes termes sont utilisés pour décrire des domaines fondamentalement différents avec des objectifs distincts, conduisant à des problèmes de communication susceptibles de faire dérailler les stratégies de sécurité, de mal allouer les ressources et de laisser des lacunes critiques dans la protection. Nous avons besoin d’une compréhension et d’un langage partagés.

Jason Lish (responsable de la sécurité des informations de Cisco) et Larry Lidz (vice-président de la sécurité logicielle de Cisco) ont co-écrit ce document avec moi pour aider à relever ce défi de front. Ensemble, nous introduisons une taxonomie à cinq domaines conçue pour clarifier les conversations sur la sécurité de l’IA dans les opérations de l’entreprise.

Le défi de la communication

Considérez ce scénario : votre équipe de direction vous demande de présenter la « stratégie de sécurité de l’IA » de l’entreprise lors de la prochaine réunion du conseil d’administration. Sans cadre commun, chaque partie prenante peut entrer dans cette conversation avec une interprétation très différente de ce qui est demandé. Le conseil d’administration pose-t-il des questions sur :

Protéger vos modèles d’IA contre les attaques adverses ? Utiliser l’IA pour améliorer votre détection des menaces ? Prévenir les fuites de données vers des services d’IA externes ? Fournir des garde-corps pour la sécurité des sorties IA ? Assurer la conformité réglementaire des systèmes d’IA ? Vous défendre contre les cybermenaces basées sur l’IA ou générées par l’IA ? Cette ambiguïté entraîne des problèmes organisationnels très réels, notamment : Une mauvaise communication dans les discussions de la direction et du conseil d’administration Des évaluations mal alignées des fournisseurs – comparer des pommes avec des oranges Des stratégies de sécurité fragmentées avec des lacunes dangereuses Une mauvaise allocation des ressources axée sur de mauvais objectifs

Sans cadre commun, les organisations ont du mal à évaluer avec précision les risques, à attribuer les responsabilités et à mettre en œuvre des stratégies de sécurité IA complètes et cohérentes.

Les cinq domaines de la sécurité de l’IA

Nous proposons un cadre qui organise le paysage de la sécurité de l’IA en cinq domaines clairs et intentionnellement distincts. Chacun répond à des préoccupations différentes, implique différents acteurs de la menace, nécessite des contrôles différents et relève généralement d’une propriété organisationnelle différente. Les domaines sont :

Sécuriser l’IA L’IA pour la sécurité Gouvernance de l’IA Sécurité de l’IA IA responsable

Chaque domaine répond à une catégorie distincte de risques et est conçu pour être utilisé conjointement avec les autres pour créer une stratégie globale d’IA.

Ces cinq domaines n’existent pas isolément ; ils se renforcent et dépendent les uns des autres et doivent être intentionnellement alignés. Apprenez-en davantage sur chaque domaine dans ce document, qui se veut un point de départ pour le dialogue avec l’industrie et non une liste de contrôle prescriptive. Les organisations sont encouragées à adapter et à étendre la taxonomie à leurs contextes spécifiques tout en préservant les distinctions fondamentales entre les domaines.

Alignement du cadre

Tout comme le cadre de cybersécurité du NIST fournit un langage commun pour parler des domaines de la cybersécurité sans supprimer le besoin d’un cadre de cybersécurité détaillé tel que NIST SP 800-53 et ISO 27001, cette taxonomie n’est pas destinée à fonctionner de manière isolée de cadres plus détaillés, mais plutôt à fournir un vocabulaire commun à l’ensemble du secteur.

En tant que tel, le document s’appuie sur le cadre intégré de sécurité et de sûreté de l’IA de Cisco récemment présenté par ma collègue Amy Chang. Il s’aligne également sur les cadres industriels établis, tels que la carte des risques de la Coalition for Secure AI (CoSAI), MITRE ATLAS et d’autres.

L’intersection de l’IA et de la sécurité n’est pas un problème unique à résoudre, mais une constellation de domaines de risque distincts ; chacun nécessitant une expertise, des contrôles et une appropriation organisationnelle différents. En s’alignant sur ces domaines avec le contexte organisationnel, les organisations peuvent :

Communiquer avec précision et sans ambiguïté sur les problèmes de sécurité de l’IA. Évaluer les risques de manière globale dans tous les domaines pertinents. Attribuer clairement les responsabilités aux bonnes équipes. Investir de manière stratégique plutôt que réactive.


Source:

blogs.cisco.com

Découvrez nos autres contenus

Articles les plus populaires