Retour sur AI for finance : où en sont les entreprises de services financiers vis-à-vis de l’IA ?

Contenu sponsorisé

Share on twitter
Twitter
Share on linkedin
LinkedIn

Pour sa première édition, l’événement AI for Finance a rassemblé 75 experts de pointe pour discuter et échanger des problématiques que pose l’intelligence artificielle dans le secteur de la finance. Devant plus de 1500 participants (à 70% des corporate et professionnels et à 25% des startups et Fintech), ils ont abordé des questions aussi diverses que celles de la régulation, de l’expérience utilisateurs, de la personnalisation, de l’industrialisation, etc. Leurs regards croisés lors des Masterclass permettent de faire un bilan à date de l’utilisation de l’IA dans les entreprises de la finance.

Où en sont les entreprises de services financiers sur l’IA ?

A force de parler d’intelligence artificielle, on aurait l’impression que toutes les entreprises du secteur en sont au même niveau. Philippe Limantour, Chief Innovation Officer chez EY France, dresse le portrait de la situation en 2019. Selon lui, la plupart des entreprises de service financier en sont aux trois premières étapes de “l’expérience IA”. A savoir : la phase de la prise de conscience, la phase d’expérimentation et la phase des premiers déploiements. Selon les entreprises, cela peut aller d’un simple intérêt pour les questions d’IA jusqu’aux premiers POCs sur des systèmes de productions. Pour atteindre l’étape de la généralisation et de déploiement à l’échelle globale de l’entreprise et celle de transformation qui impacte directement les process, produits et services (à laquelle sont arrivées les géants comme Amazon, Baidu, Google ou Microsoft), les industries financières françaises ont encore du travail. Il propose trois solutions pour dépasser les limites qui se posent aujourd’hui aux entreprises : acheter les infrastructures IA de leaders du secteur ; monter des partenariats avec des startups et/ou Fintech spécialisées ; construire une infrastructure depuis le départ au lieu de vouloir rajouter des briques d’IA à une structure pré-existante.

Benoît Legros, Directeur Commercial France de Shift Technology, et Damien Philippon, Chief Operation Officer et co-fondateur de Zelros mentionnent un repère important pour mesurer le degré d’avancement des entreprises sur les enjeux d’IA : selon eux, la capacité à comprendre et savoir expliquer les prédictions des algorithmes est un signal que l’entreprise est mature sur son projet d’IA. Philippe Limantour, CIO d’EY, va lui jusqu’à dire : “Le résultat le plus performant, est le moins explicable.”

Quelles applications de l’intelligence artificielles pour les entreprises de services financiers ?

Alexandre Velut, CEO et cofondateur de la société Invyo, débute l’après-midi en rappelant qu’un des objectifs clairs de l’intelligence artificielle est “d’aider l’entreprise à faire les bons choix stratégiques” : sur les partenariats à nouer, les rachats à opérer, etc. L’intitulé de la Masterclass conduite avec son cofondateur Xavier Gomez, COO, annonce l’idée : “Comment l’analyse de la data peut donner plus de pouvoir à l’intelligence humaine dans la finance ?”. Philippe Limantour, CIO d’EY précise que c’est l’interprétation des préconisations qui rend la chose complexe : “La décision ne sera pas toujours la même pour tous, pour un même résultat donné”. Cécile Camilli, responsable marchés de capitaux de dette pour la région CEEMEA à la Société Générale, évoque dans une autre Masterclass l’impact de l’IA sur l’expérience client B2B du groupe bancaire : “Les prédictions faites aux investisseurs sont beaucoup plus précises, beaucoup plus rapides”.

Les autres intervenants invités complètent avec d’autres applications concrètes permises par l’IA, notamment lors de la Masterclass “Engagement des consommateurs et personnalisation”.  Matthieu Senechal, co-fondateur et Chief Science Officer chez Mieuxplacer.com commence par rappeler que l’IA est un formidable levier de connaissance clients : “Autrefois, on avait le même banquier de génération en génération, il connaissait toute notre famille. Aujourd’hui, on change de conseiller bancaire tous les trois ans en moyenne, ce qui lui laisse très peu de temps pour apprendre à nous connaître. Paradoxalement, l’IA nous permet de revenir vers ce passé fabuleux où notre banque nous connaissait et pouvait nous conseiller en fonction de notre profil et de nos besoins“. Tiphaine Saltini, CEO de la startup Neuroprofiler, profite de la mention de la directive européenne favorisant la transparence des marchés et des transactions pour dire que selon elle “MIFID II a davantage été perçue par les entreprises comme une contrainte. Peu ont compris que c’était un moyen de récolter plus de data, de les segmenter et de finalement mieux connaître ses utilisateurs”. Elias Ghanem, vice-président des services financiers chez Capgemini, également présent, conclut en disant que finalement “La data est surtout ce que l’on veut qu’elle devienne !”.

Quelles sont les conditions pour que ce développement soit pérenne ?

Clémence Scottez, responsable du département Économie à la CNIL, intervenant dans la Masterclass dédiée à la régulation animée par Tram Anh Nguyen fondatrice et directrice du CFTE, évoque les risques inhérents au développement de l’IA dans les entreprises de la finance : un premier, plus connu et peut-être plus appréhendé, concerne les biais et la discrimination engendrée. Il s’agit de savoir si les biais ont véritablement été entraînés et d’avoir suffisamment confiance dans la technologie. Su Yang, expert Fintech à l’autorité de régulation ACPR, prend l’exemple des sociétés d’assurance qui utilisent l’IA pour déterminer des profils types par catégories d’assurance mais ne doivent pas tomber dans le piège dans la prédiction biaisée (comme par exemple des prix calculés en fonction du sexe de la personne). L’ACPR, bien qu’elle s’associe à des chaires pour étudier ces sujets, rappelle que ce n’est pas aussi simple d’appliquer une intention théorique dans la réalité des pratiques. Edouard Belouet, Senior Manager Financial Services chez Accenture, mentionne des réflexes aussi basiques que le nettoyage des bases de données. Le deuxième risque est selon Clémence Scottez “la déresponsabilisation des acteurs qui utilisent l’IA”. Les autres intervenants sont unanimes : il est essentiel de ne pas reporter la faute sur la technologie. Il faut au contraire que chaque entreprise se pose en acteur et se sente responsable de l’utilisation qu’elle fait de la technologie, pour en assumer les conséquences en cas de dérive. La réflexion rejoint l’importance évoquée plus haut de savoir expliquer les prédictions faites par l’IA ainsi que le scénario qui a conduit à cette décision.

Quelles limites dans tout ça ?

A la question de connaître les limites de l’IA, Tiphaine Saltini est claire : “Tant qu’il y aura de la data, il n’y a pas de limites”. C’est donc aux entreprises et aux professionnels que revient l’obligation de fixer des limites dans l’utilisation des données. La CEO de Neuroprofiler rappelle que si l’utilisateur final le souhaite, une anonymisation des données est toujours possible. L’enjeu de la confidentialité est d’ailleurs de plus en plus étudié et appliqué au sein des entreprises de services financiers, afin d’anticiper les risques liés au traitement à grande échelle. Le risque reste donc contrôlable dans la mesure où l’intervention humaine (de l’utilisateur ou des professionnels des sociétés) est toujours de mise pour empêcher “les algorithmes qui sont puissants mais très bêtes, de faire des erreurs”, selon Benoît Legros. D’ailleurs, c’est en passant par les prochaines étapes qui sont celles de la généralisation et du déploiement que les entreprises de la finance seront amenées à déterminer ces limites puisque ce travail sur les données sera partie intégrante de toute leur stratégie et de leur écosystème extérieur.

Share on twitter
Twitter
Share on linkedin
LinkedIn

La newsletter

Abonnez-vous à notre newsletter, pour ne rien rater des grandes tendances et des transformations du secteur !