Women + AI Summit 2.0 : ce qui m’est resté
La partie la plus difficile du Women + AI Summit 2.0 n’a pas été de décider à quoi assister. C’était accepter ce que je devrais manquer.
L’emploi du temps était tellement chargé qu’il était impossible de tout faire « correctement ». Il y avait trop de séances auxquelles je voulais assister, trop de personnes à qui je voulais parler et très peu d’espace pour respirer entre elles. À un moment donné, j’ai fait le choix conscient de me retirer.
J’ai fini par m’asseoir avec deux de mes personnes préférées avec qui jouer au hooky, Sunny Eaton et Lori Gonzalez, parlant au lieu d’écouter. La conversation a dérivé, comme c’est souvent le cas lors de bonnes conférences, des outils aux conséquences. Nous avons réfléchi à la façon dont des systèmes comme ChatGPT compliquent l’idée d’une « attente raisonnable en matière de confidentialité ». Nous traitons ces outils comme des conversations privées, même s’ils ne le sont pas. C’est dans cet écart – entre la perception de ces systèmes et leur fonctionnement réel – que réside la majeure partie du risque.
Presque tout le monde est resté sur place. Les séances étaient trop belles pour être manquées. Et pourtant, cette conversation persistait. Cela nous a rappelé que même lors d’une conférence étroitement programmée, certains des moments les plus significatifs viennent du choix de l’endroit où concentrer votre attention.
Cette tension – entre structure et spontanéité – a défini le week-end pour moi. D’une certaine manière, cela reflétait les conversations plus larges que nous avions sur l’IA elle-même : dans quelle mesure automatiser, quand faire une pause et comment choisir délibérément face à des possibilités écrasantes.
Ce qui a continué à apparaître
En regardant le calendrier, il serait facile de décrire le sommet comme une progression allant des discussions aux ateliers jusqu’à la construction pratique. Mais ce qui m’est resté, ce sont les questions qui revenaient sans cesse.
L’une des lignes directrices les plus claires était la maîtrise de l’IA : non pas la maîtrise des outils, mais la compréhension. Comment se comportent ces systèmes. Là où ils échouent. Et quelle liberté d’action nous leur accordons lorsque nous les utilisons. Plusieurs interventions ont retracé des tournants : la peur cédant la place à la curiosité, le scepticisme se muant en discernement. Il y a eu une reconnaissance commune du fait que le retrait n’est pas neutre. L’alphabétisation permet à l’engagement d’être intentionnel plutôt que réactif.
Alors que la journée passait de l’écoute à la construction, l’accent s’est déplacé des outils vers les flux de travail. Les conversations les plus intéressantes ne portaient pas sur les résultats intelligents. Il s’agissait de limites et de jugement. Pas seulement ce qui peut être automatisé, mais ce qui devrait l’être.
L’éthique n’est pas apparue comme une philosophie, mais comme une pratique, notamment en ce qui concerne la qualité et la provenance des données. « Biais favorable, biais négatif » n’était pas un slogan. C’était un avertissement. La préoccupation n’était pas seulement ce que l’IA produit, mais aussi ce que nous l’alimentons : quelles expériences sont représentées, quelles sources sont fiables et à quelle vitesse les hypothèses erronées évoluent une fois intégrées dans un système.
Ce fil conducteur concernait directement l’accès à la justice. L’IA n’a pas été présentée comme une solution magique. Au contraire, il a été admis avec sobriété que des systèmes mal conçus peuvent creuser les écarts aussi facilement qu’ils les comblent. L’accès à la justice n’était pas un énoncé de mission. C’était une contrainte de conception.
Derrière tout cela se trouvait la gouvernance – non pas comme une question politique future, mais comme quelque chose de déjà en cours. Les personnes qui choisissent les fournisseurs, établissent les normes internes et définissent une utilisation acceptable façonnent l’avenir en temps réel. La gouvernance revient par défaut à quiconque est présent dans la salle.
Dans l’ensemble, le sommet n’avait pas pour but de célébrer l’IA. C’était une question de responsabilité. Il s’agit de s’engager dans la technologie de manière à durer dans le temps.
Ce que nous rapportons à la maison
Je ne suis pas reparti avec une liste d’outils à essayer. Je suis reparti avec un cadre plus clair pour aborder le travail en IA.
L’alphabétisation passe avant l’effet de levier. L’adoption est un problème de conception organisationnelle, pas seulement une question de formation. L’éthique commence par les intrants et non par les extrants. L’accès à la justice doit être intégré aux systèmes dès le départ. Et la gouvernance est déjà en place, que nous le reconnaissions ou non.
Rien de tout cela n’est tape-à-l’œil. Mais c’est fondamental.
S’il y avait un changement, c’était celui-ci : bouger délibérément. Développez la capacité de faire une pause. Posez de meilleures questions avant d’accélérer. L’impact à long terme de l’IA ne sera pas déterminé par la rapidité avec laquelle nous évoluons, mais par la manière dont nous le faisons.
S’abonner
Recevez chaque semaine des avis d’experts et des conseils pratiques dans votre boîte de réception.
Les femmes dans la boucle
C’est pourquoi il me semble important de nommer quelque chose que j’ai intentionnellement organisé jusqu’à présent : il s’agissait d’une conférence centrée sur et dirigée par des femmes.
Cela comptait, non pas en termes d’image de marque, mais en termes de posture.
Dans de nombreuses conférences sur l’IA, il y a une énergie YOLO : construire vite, déployer plus vite, régler les conséquences plus tard. L’accent est mis sur l’échelle et la hausse, le risque étant traité comme une friction.
Ce n’était pas la posture ici.
Au lieu de « Que pouvons-nous construire ? » les questions ressemblaient le plus souvent à « Que devrions-nous construire ? » et « Qui est-ce que cela affecte? » L’incertitude était réconfortante. Ouverture sur les compromis. Une volonté d’admettre ce qui n’avait pas fonctionné.
Même les choix de conception reflètent ce soin. Les orateurs avaient des chansons sans rendez-vous. Les transitions marquées 9 à 5 de Dolly Parton. Les sessions étaient étiquetées mini, midi et maxi, non pas par hiérarchie, mais par échelle. Rien de tout cela ne semblait fantaisiste. Cela semblait intentionnel. Humain.
Ce n’était pas un manque d’ambition. Il s’agissait d’un autre type d’ambition, orientée vers la durabilité, l’impact et la confiance.
La représentation n’a pas seulement changé qui parlait. Cela a changé ce qui valait la peine d’être discuté.
Façonner ce qui est construit
Cat Moon et son équipe de Vanderbilt Law ont créé plus qu’une conférence. Ils ont créé un espace qui modélise une manière différente d’interagir avec l’IA : curieuse, responsable et délibérée.
Je suis parti sans me sentir obligé d’adopter davantage d’outils, mais avec une conscience plus claire de la responsabilité qui découle de l’adoption de l’un d’entre eux. Dans un domaine qui récompense souvent la vitesse, cela semblait être une pause nécessaire.
Si c’est là que se dirigent les conversations sur l’IA – plus réfléchies, plus inclusives, plus honnêtes sur les compromis – c’est une direction dans laquelle il vaut la peine d’investir.
L’avenir de l’IA ne se façonne pas de manière abstraite. Cela se façonne dans des moments et des week-ends comme celui-ci.
C’est pourquoi il est important de savoir qui est présent dans la salle lorsque les décisions sont prises.
S’abonner
Recevez chaque semaine des avis d’experts et des conseils pratiques dans votre boîte de réception.
Source:
lawyerist.com



