IA & Data

Maîtrise et régulation : l’Europe face au défi de l’IA

Le salon Big Data & AI s’est tenu à Paris les 25 & 26 septembre dernier. Battant des records d’audience dans un contexte de frénésie autour de l’IA, les nombreuses conférences regroupant experts et décideurs permettent de prendre la température de certaines tendances.

Dans le contexte actuel de l’innovation technologique et de la place de l’Europe sur la scène mondiale, Jean-Noël Barrot, ministre chargé du Numérique, souligne une erreur passée fondamentale : l’absence de maîtrise de la technologie des réseaux sociaux et le manque de géants du web européens. “On se retrouve à la table des négociations en position défensive.” Une erreur à ne pas répéter pour l’IA : “la priorité du président aujourd’hui, c’est que nous maîtrisions cette technologie”.

Raja Chatila, professeur d’intelligence artificielle à la Sorbonne, aborde de son côté la question de l’éthique dans le développement de l’IA. “Créer une IA éthique ? Ce n’est pas l’IA qui est éthique, c’est le processus de développement par les humains”, corrige-t-il. Cette notion d’éthique, qui imprègne l’AI Act, est basée sur celle de la bioéthique et de découpe en quatre principes.

Le premier est la bienfaisance. Ce principe n’a pas été retenu tel quel pour l’IA car comment l’exiger explicitement ? Une IA qui anime un ennemi dans un jeu bénéfique peut-elle être “bienfaisante” ? Elle a été remplacée par la notion d’explicabilité. Les trois autres sont la non-malfaisance, l’autonomie humaine dans la prise de décision, et enfin l’équité et la justice. “Ces principes ont été traduits en exigences dans l’ADN de l’AI Act.

L’importance d’un cadre régulatoire

Françoise Soulie-Fogelman, Directrice Scientifique Hub France IA, met en lumière l’importance cruciale du cadre régulatoire, “une très grosse discussion de la Commission”. Elle souligne le consensus général quant à la nécessité d’agir tout en évitant des mesures inopportunes. “Il y a des risques très significatifs qu’on ne peut pas ignorer, mais il faut un cadre clair”. Elle évoque les dangers de l’incertitude, imaginant le dilemme d’entreprises innovantes dont les solutions risqueraient d’être contestées en justice ultérieurement. La solution qu’elle préconise est la création de règles claires et compréhensibles pour tous les acteurs. “On écrit les règles, et tout le monde doit s’y soumettre.”

Olivier Iteanu, avocat à la Cour d’Appel de Paris, renforce cette perspective en soulignant que la régulation ne doit pas demeurer une simple abstraction. “Ce ne doit pas être seulement de l’encre sur du papier. Il faut une force publique avec les moyens d’agir, sinon ça ne sert à rien”.

Pour Françoise Soulie-Fogelman, l’AI Act permettra aussi d’instaurer un climat de confiance en permettant de certifier des produits. “Quand vous achetez un nounours, vous avez l’étiquette “fabriqué selon les règles de la commission européenne”. C’est ça qu’on veut, on veut l’étiquette sur le nounours”.

Permettre aux entreprises de se mettre en conformité

Laetitia Orsini Sharps, Présidente de la coalition Positive AI, souligne le besoin impératif de formation, en particulier axée sur l’éthique, et insiste sur le fait que cette formation ne devrait pas uniquement cibler les experts, mais également le management et les emplois métiers. “C’est le moment de diffuser cette notion d’éthique”.

Un des sujets cruciaux concerne le domaine juridique et la question de la responsabilité. Si l’utilisation d’une AI, développée par une entité A, entrainée par une entité B, et pilotée par une entité C, cause un préjudice. Qui est responsable, A, B ou C ? “On a besoin que les rôles et les responsabilités soient clairement définis”, appuie Olivier Iteanu. “Il faut revenir au bon sens et aux grands principes du droit”. Une proposition : un régime particulier, avec une présomption de responsabilité qui inverse alors la charge de la preuve : plutôt que de prouver la responsabilité d’untel ou untel, à eux de prouver que ce n’est pas leur faute. “Tout ça va se construire, il faut laisser faire la jurisprudence. C’est peut être le plus dur à faire entendre: laisser du temps’”, conclut-il.

Conformité veut également dire coûts supplémentaire. “Facile pour Sam Altman (OpenAI) de demander des règles, il a les moyens de s’y conformer. C’est plus dur pour les petites startups, et il faudrait les aider”, souligne Françoise Soulie-Fogelman. L’AI Act, comme le RGPD à l’époque, bénéficiera tout de même d’une période transitoire pour permettre son adaptation. Elle était de deux ans pour le RGPD.

Léo Marchandon

Journaliste pour Finance Mag

Recent Posts

Grands Prix CFNEWS – Croissance Externe Sud Ouest 2024

La deuxième édition des Grands Prix CFNEWS de la Croissance Externe Sud-Ouest se tiendra le…

1 semaine ago

Acquisition des entreprises : pourquoi cela échoue très souvent ?

De nombreuses tentatives (66% selon IMPACTIFIED) d’acquisition d’entreprises échouent pour diverses raisons. Mais comment expliquer…

1 semaine ago

Women in Tech Global Summit 2024 – 3ème édition

Les 6 et 7 mai, découvrez la 3ème édition de Women in Tech Global Summit…

1 semaine ago

Promoteurs immobiliers : Peuvent-ils surmonter la crise ?

Depuis plusieurs mois, le secteur de l’immobilier est en crise. Inflation, taux d’intérêt très hauts,…

3 semaines ago

Les non-dits de la cohésion européenne

Une fuite des capitaux vers le marché financier américain, des politiques européennes qui se contredisent,…

3 semaines ago

Facilités de paiement : Une dangereuse fuite en avant ?

C’est une tendance qui se confirme au fur et à mesure des années. L’utilisation des…

4 semaines ago

This website uses cookies.