Règlement européen sur l’IA: le sprint final

Contenu sponsorisé

Share on twitter
Twitter
Share on linkedin
LinkedIn

Après des années de débats intenses et de négociations acharnées, l’AI Act Européen est sur le point d’aboutir. Décryptage des mesures clés et des derniers obstacles autour des modèles fondateurs de l’intelligence artificielle, avec en vue, un nouvel organisme de contrôle de la conformité.

Les trois organes directeurs de l’Union Européenne approchent du consensus autour du règlement Européen sur l’Intelligence Artificielle (AI Act), un ensemble majeur de lois amorcé en 2021. Si la majeure partie du texte est achevée, un désaccord de dernière minute porté par la France, l’Allemagne et l’Italie au sujet des modèles de fondation prolonge les débats.

Un cadre législatif basé sur le risque

Sous cette législation, les systèmes d’IA considérés comme “à haut risque” devront se conformer à des règles strictes imposant des processus de réduction des risques, garantir l’utilisation d’ensembles de données de haute qualité, fournir une documentation améliorée et une surveillance humaine accrue. Les entreprises devront obligatoirement informer les utilisateurs lorsqu’ils interagissent avec des chatbots, des systèmes de catégorisation biométrique ou de reconnaissance des émotions. De plus, elles devront étiqueter les deepfakes (reproduction d’image ou de voix) et le contenu généré par IA, tout en concevant des systèmes permettant la détection de contenus générés par IA. Les organisations fournissant des services essentiels dans des secteurs tels que l’assurance et la banque devront mener une évaluation d’impact sur la manière dont l’utilisation de l’IA affectera les droits fondamentaux des personnes.

Un nouvel organisme européen sera établi pour coordonner la conformité, la mise en œuvre et l’application de ces règles. Il s’agira du premier organe au monde à imposer des règles contraignantes sur l’IA. Les amendes pour non-conformité seront de 1,5% à 7% du chiffre d’affaires mondial de l’entreprise. Il s’agira également du premier organe où les citoyens pourront déposer des plaintes et demander des explications sur la manière dont les systèmes IA ont abouti aux conclusions les concernant.

Une partie significative des débats a gravité autour des “modèles fondateurs” et des systèmes d’IA qui en découlent. Ces derniers doivent produire une documentation plus précise, se conformer au droit d’auteur de l’UE et partager davantage d’informations sur les données d’entraînement. Des exigences supplémentaires sont imposées aux modèles les plus puissants, en fonction de la puissance de calcul nécessaire pour les entraîner, notamment en partageant des détails sur leur sécurité et leur efficacité énergétique.

Les espoirs en Mistral et Aleph Alpha relancent le débat

Les dissensions majeures surgissent autour des modèles fondateurs, qui ont monopolisé une grande partie des débats récents. Plusieurs définitions du terme “modèle fondateur” circulent, le concept central concerne une IA polyvalente pouvant être utilisée pour diverses applications, ChatGPT en figure de proue.

Dans la version adoptée par le Parlement en juin, tous les modèles fondateurs seraient étroitement réglementés, indépendamment de leur catégorie de risque attribuée ou de leur utilisation spécifique. Cela a été jugé nécessaire en raison de la grande quantité de données d’entraînement requises pour les construire, ainsi que des préoccupations en matière de propriété intellectuelle, de confidentialité et de leur impact global sur d’autres technologies. Les entreprises technologiques contestent cette approche et plaident pour une approche plus nuancée prenant en compte l’utilisation spécifique de ces modèles.

Ces dernières semaines, alors que le travail semblait achevé, la France, l’Allemagne et l’Italie ont changé de position et suggèrent désormais une exemption importante des régulations de l’AI Act pour les modèles fondateurs. Alors que des entreprises européennes telles que Mistral AI en France et Aleph Alpha en Allemagne ont récemment levé des centaines de millions pour développer des modèles fondateurs, ces pays estiment que l’AI Act pourrait devenir trop contraignant pour l’industrie émergente de l’IA en Europe. La peur de “louper le coche”, comme avec les réseaux sociaux, et de manquer d’un champion européen dans le secteur joue dans ce sens. Aucune deadline n’a été annoncée, mais le texte devrait être totalement achevé avant les élections européennes de cet été.

Share on twitter
Twitter
Share on linkedin
LinkedIn

La newsletter

Abonnez-vous à notre newsletter, pour ne rien rater des grandes tendances et des transformations du secteur !