IA et réglementation : la course est lancée

Léo Marchandon
Partager

La vague Intelligence artificielle qui a déferlé sur le monde en appelle une seconde sur le plan régulatoire. Chine, Etats-Unis, Europe : à tâtons, tous avancent leurs premiers textes, cherchant à créer un cadre régulatoire pertinent.

Les récentes évolutions dans le domaine de l’Intelligence artificielle ont donné naissance à des premières réglementations aux États-Unis et en Chine, tout en suscitant des débats en Europe. Ces initiatives ont été le point focal d’un sommet historique sur la sécurité de l’IA à Bletchley Park dans le centre de l’Angleterre, où des leaders mondiaux se sont réunis pour discuter des enjeux cruciaux liés à cette technologie en plein essor. Un lieu chargé d’histoire : c’est à Bletchley Park qu’Alan Turing et son équipe avaient déchiffré le code Enigma lors de la seconde guerre mondiale.

Chine et USA : deux approches

Aux États-Unis, le président Joe Biden a émis un décret exécutif sans précédent, exigeant une transparence accrue des entreprises spécialisées dans l’intelligence artificielle concernant le fonctionnement de leurs modèles. Ces nouvelles normes englobent également des directives sur l’étiquetage du contenu généré par l’IA. Le décret mandate le ministère du Commerce pour élaborer des lignes directrices sur l’étiquetage des contenus produits par l’IA, et confie à l’Institut national des normes et de la technologie l’établissement de normes pour des tests approfondis, visant à découvrir les vulnérabilités des modèles avant leur mise sur le marché. Selon Margaret Mitchell, chercheuse chez Hugging Face, le décret américain “s’appuie largement sur la coopération volontaire des entreprises,” soulevant des interrogations quant à l’efficacité à long terme de ces mesures.

De l’autre côté du globe, la Chine a dévoilé des règles détaillées concernant les modèles génératifs d’IA. Ces règles imposent des exigences strictes aux entreprises en matière de diversification des corpus d’entraînement et de gestion de contenus interdits, tout en encourageant la discrétion dans les mécanismes de censure. Les entreprises doivent prélever au hasard 4 000 “éléments de données” à partir de leur source. Si plus de 5 % de ces données sont jugées “informations illégales et négatives,” le corpus doit être mis sur liste noire pour les formations futures.

Garder la ligne

Les normes définissent huit catégories de contenus politiques violant “les valeurs fondamentales du socialisme“. En outre, neuf catégories de contenus “discriminatoires,” tels que la discrimination basée sur les croyances religieuses, la nationalité, le sexe et l’âge, sont également définies. Les entreprises doivent ensuite proposer plus de 2 000 messages types (dont au moins 20 pour chaque catégorie susmentionnée) susceptibles de générer des réponses de test de la part des modèles. Les tests subis permettent de garantir que moins de 10 % des réponses générées enfreignent les règles établies.

Bien que ces deux textes ne soient pas des lois, il s’agit tout de même des documents officiels les plus concrets en la matière. Ils témoignent des travaux en cours et démontrent une approche différente : les Etats-Unis se penchent sur la question de la transparence et cherchent à définir une nomenclature pour distinguer ce qui a été fait par une IA et ce qui a été fait par un humain, alors que la Chine pose directement des règles sur la construction même des modèles et des bases de données d’entraînement pour prévenir les dangers d’une IA biaisée … et s’assurer qu’ils ne s’éloignent pas trop de la ligne officielle du Parti.

L’Europe discute

En Europe, les négociations entourant l’AI Act ont été marquées par des compromis et des dispositions liés aux modèles dits “fondamentaux”. Selon la définition du Parlement européen, ces modèles sont caractérisés par leur capacité à “effectuer une vaste gamme de tâches distinctives“. Pourtant, la France porte une voix dissonante. Pour Bruno Le Maire, il faut innover avant de réguler. « Une nouvelle révolution est devant nous avec l’IA générative. Soit on met les bouchées doubles pour rattraper notre retard, soit, dans trente ans, tous les grands acteurs seront américains ou chinois”. On retrouve ici un argumentaire porté par le gouvernement français : sur les plateformes en ligne de masse, aucun acteur européen, le coche a été loupé. Il ne faut pas reproduire la même erreur.

Au-delà des frontières européennes, le sommet de Bletchley Park a rassemblé des représentants du monde entier pour discuter des défis éthiques, de la protection des droits de l’homme et de la transparence dans le développement de l’IA. La déclaration commune des participants souligne la nécessité d’une approche internationale pour relever les défis de l’IA, affirmant que “l’IA est un défi mondial qui ne reconnaît pas de frontières.

La déclaration souligne les efforts internationaux visant à examiner et traiter l’impact potentiel des systèmes d’IA, ainsi que la reconnaissance de la nécessité de prendre en compte des éléments tels que la protection des droits de l’homme, la transparence, l’explicabilité, l’équité, la responsabilité, la réglementation, la sécurité, la surveillance humaine appropriée, l’éthique, l’atténuation des préjugés, la protection de la vie privée et la protection des données. Elle souligne également l’importance et l’urgence à traiter de ces questions, y compris la possibilité de risques imprévus liés à la manipulation du contenu ou à la génération d’un contenu trompeur. Les choses avancent, mais tout reste encore à faire.

La newsletter

Abonnez-vous à notre newsletter, pour ne rien rater des grandes tendances et des transformations du secteur !