Maîtrise et régulation : l’Europe face au défi de l’IA

Léo Marchandon
Partager

Le salon Big Data & AI s’est tenu à Paris les 25 & 26 septembre dernier. Battant des records d’audience dans un contexte de frénésie autour de l’IA, les nombreuses conférences regroupant experts et décideurs permettent de prendre la température de certaines tendances.

Dans le contexte actuel de l’innovation technologique et de la place de l’Europe sur la scène mondiale, Jean-Noël Barrot, ministre chargé du Numérique, souligne une erreur passée fondamentale : l’absence de maîtrise de la technologie des réseaux sociaux et le manque de géants du web européens. “On se retrouve à la table des négociations en position défensive.” Une erreur à ne pas répéter pour l’IA : “la priorité du président aujourd’hui, c’est que nous maîtrisions cette technologie”.

Raja Chatila, professeur d’intelligence artificielle à la Sorbonne, aborde de son côté la question de l’éthique dans le développement de l’IA. “Créer une IA éthique ? Ce n’est pas l’IA qui est éthique, c’est le processus de développement par les humains”, corrige-t-il. Cette notion d’éthique, qui imprègne l’AI Act, est basée sur celle de la bioéthique et de découpe en quatre principes.

Le premier est la bienfaisance. Ce principe n’a pas été retenu tel quel pour l’IA car comment l’exiger explicitement ? Une IA qui anime un ennemi dans un jeu bénéfique peut-elle être “bienfaisante” ? Elle a été remplacée par la notion d’explicabilité. Les trois autres sont la non-malfaisance, l’autonomie humaine dans la prise de décision, et enfin l’équité et la justice. “Ces principes ont été traduits en exigences dans l’ADN de l’AI Act.

L’importance d’un cadre régulatoire

Françoise Soulie-Fogelman, Directrice Scientifique Hub France IA, met en lumière l’importance cruciale du cadre régulatoire, “une très grosse discussion de la Commission”. Elle souligne le consensus général quant à la nécessité d’agir tout en évitant des mesures inopportunes. “Il y a des risques très significatifs qu’on ne peut pas ignorer, mais il faut un cadre clair”. Elle évoque les dangers de l’incertitude, imaginant le dilemme d’entreprises innovantes dont les solutions risqueraient d’être contestées en justice ultérieurement. La solution qu’elle préconise est la création de règles claires et compréhensibles pour tous les acteurs. “On écrit les règles, et tout le monde doit s’y soumettre.”

Olivier Iteanu, avocat à la Cour d’Appel de Paris, renforce cette perspective en soulignant que la régulation ne doit pas demeurer une simple abstraction. “Ce ne doit pas être seulement de l’encre sur du papier. Il faut une force publique avec les moyens d’agir, sinon ça ne sert à rien”.

Pour Françoise Soulie-Fogelman, l’AI Act permettra aussi d’instaurer un climat de confiance en permettant de certifier des produits. “Quand vous achetez un nounours, vous avez l’étiquette “fabriqué selon les règles de la commission européenne”. C’est ça qu’on veut, on veut l’étiquette sur le nounours”.

Permettre aux entreprises de se mettre en conformité

Laetitia Orsini Sharps, Présidente de la coalition Positive AI, souligne le besoin impératif de formation, en particulier axée sur l’éthique, et insiste sur le fait que cette formation ne devrait pas uniquement cibler les experts, mais également le management et les emplois métiers. “C’est le moment de diffuser cette notion d’éthique”.

Un des sujets cruciaux concerne le domaine juridique et la question de la responsabilité. Si l’utilisation d’une AI, développée par une entité A, entrainée par une entité B, et pilotée par une entité C, cause un préjudice. Qui est responsable, A, B ou C ? “On a besoin que les rôles et les responsabilités soient clairement définis”, appuie Olivier Iteanu. “Il faut revenir au bon sens et aux grands principes du droit”. Une proposition : un régime particulier, avec une présomption de responsabilité qui inverse alors la charge de la preuve : plutôt que de prouver la responsabilité d’untel ou untel, à eux de prouver que ce n’est pas leur faute. “Tout ça va se construire, il faut laisser faire la jurisprudence. C’est peut être le plus dur à faire entendre: laisser du temps’”, conclut-il.

Conformité veut également dire coûts supplémentaire. “Facile pour Sam Altman (OpenAI) de demander des règles, il a les moyens de s’y conformer. C’est plus dur pour les petites startups, et il faudrait les aider”, souligne Françoise Soulie-Fogelman. L’AI Act, comme le RGPD à l’époque, bénéficiera tout de même d’une période transitoire pour permettre son adaptation. Elle était de deux ans pour le RGPD.

La newsletter

Abonnez-vous à notre newsletter, pour ne rien rater des grandes tendances et des transformations du secteur !