Dans la course à l’intelligence artificielle, le « Vieux continent » porte bien son nom : il est au mieux très en retard, au pire complètement dépassé. Et si, pour gagner en souveraineté face aux géants chinois et américain, l’Europe se distinguait par une approche éthique de l’IA ? C’est l’une des grandes réflexions qui a animé le SIdO, rendez-vous annuel du numérique à Lyon les 18 et 19 septembre derniers.
« Tout numérique, Désastre écologique » scandent des manifestants à l’ouverture des portes du SIdO. Dix ans plus tard, le salon de l’Internet des Objets désormais consacré à la transition numérique est plus politique que jamais. En cause, notamment, l’intelligence artificielle et ses usages en Europe, omniprésents pour certains, pas assez développés pour d’autres.
L’Union européenne peine à devenir une référence mondiale de l’IA
C’est une surprise pour personne, l’UE est à la traîne dans le développement d’une IA « made in Europe ». Un rapport de la Cour des comptes européenne publié en mai dernier fait état d’un retard d’investissement dans l’IA de 10 milliards d’euros par rapport aux États-Unis. Un retard qui aurait même « plus que doublé » entre 2018 et 2020. Pourtant, le marché mondial de l’IA est l’un des plus prometteurs de la décennie, avec une croissance annuelle attendue de 15,8 % au cours de la période 2024-2030, jusqu’à peser 680 milliards d’euros en 2030, rappelle la Cour. A ce titre, elle enjoint la Commission « de réévaluer l’objectif d’investissement de l’UE en faveur de l’IA et de convenir avec les États membres des modalités de leur contribution ». Un premier facteur crucial pour espérer gagner en souveraineté avant que les grands noms en IA imposent définitivement leurs règles.
Quid des IA nées sur notre territoire ? Force est de constater qu’elles ne permettent pas (encore) au « Vieux continent » de se distinguer. Prenons la française Mistral AI. « Ce n’est pas un facteur de réussite pour nous, car son contenu est essentiellement en anglais avec seulement 5 % en langues étrangères » déplore Laurence Devillers, professeure à la Sorbonne. Cette experte travaille depuis sept ans sur les sujets d’IA et d’éthique et dénonce une gouvernance française et européenne « moyenne » en la matière, renforcée par l’absence de chercheurs dans la prise de décision : « Le monde qui décide de nos futurs outils numériques ne connaît pas la technologie et par conséquent, choisit souvent la voie la moins coûteuse ». La réponse selon elle se trouve dans la création de laboratoires d’innovation portés par des acteurs et actrices décisionnaires aux côtés des politiques.
« Le monde qui décide de nos futurs outils numériques ne connaît pas la technologie et par conséquent, choisi souvent la voie la moins coûteuse »
— Laurence Devillers, professeure en IA et éthique à l’Université Sorbonne
Miser sur les financements publics-privés et la réglementation positive
Emanuela Girardi, présidente de l’ADRA (AI, Data and Robotics Association), plaide également en faveur des écosystèmes de l’innovation. Selon elle, il est encore possible de participer à la course à l’IA en Europe grâce à la puissance de sa diversité. Avec un ingrédient indispensable : des financements à la hauteur de l’enjeu. Elle donne l’exemple de Microsoft, qui vient de s’associer au fonds d’investissement de renom BlackRock pour lever 30 milliards d’euros, en faveur notamment du parc de centres de données actuel aux Etats-Unis. « C’est énorme, et en Europe, on ne peut pas rivaliser au niveau global sans faire des investissements massifs. » pointe-elle. Pour massifier la puissance de la recherche, l’experte en IA à impact avance la solution des partenariats publics-privés, aussitôt encouragée par Laurence Devillers qui propose l’hybridation entre grands groupes et Etats. « Avec le public-privé, je pense qu’on a une chance. Pas de gagner car c’est trop tard et le fossé numérique est trop grand, mais au moins de participer » conclut-elle.
« Avec le public-privé, je pense qu’on a une chance. Pas de gagner car c’est trop tard et le fossé numérique est trop grand, mais au moins de participer »
— Emanuela Girardi, présidente de l’ADRA
François Terrier, directeur des programmes de l’Institut CEA-List dédié au transfert technologique, soulève la question de la réglementation, autre levier de différenciation pour une « IA made in UE ». La clé selon lui réside dans notre approche de la régulation par la loi, incarnée principalement par l’IA Act et le tout jeune Bureau européen de l’intelligence artificielle. « Les exigences à respecter ne doivent pas être uniquement une contrainte, mais plutôt quelque chose à démontrer. » souligne-t-il. A l’heure où beaucoup parlent de surrèglementation, François Terrier propose de considérer l’encadrement de l’IA non pas comme une limitation, mais comme un puissant instrument pour donner vie à une technologie responsable et de confiance.
Une vision partagée par le délégué au numérique de la Région Auvergne Rhône-Alpes lors de son mot d’ouverture au SIdO. S’il insiste sur la politique régionale de soutien au numérique, il rappelle que « la puissance publique a le pouvoir par la loi de limiter le numérique ». Limites qui n’empêchent pas la région de se distinguer dans cette filière. Le numérique en Auvergne Rhône-Alpes représente 6 000 entreprises et 80 000 emplois directs, le tout porté par un écosystème de l’innovation dense dont le pôle de compétitivité Minalogic, le cluster Digital League et de nombreuses grandes écoles dédiées aux nouvelles technologies.
AI Act : Tout savoir de la nouvelle réglementation européenne
Construire une troisième solution : faire de l’innovation en intégrant l’éthique
Au-delà de la création d’une IA européenne capable de concurrencer les géants de la tech, des voix s’élèvent sur l’impact social et environnemental d’un tel outil – jusque devant les portes du rendez-vous annuel de la tech à Lyon – poussant les innovateurs à chercher une troisième voie : l’éthique. Pour Florent Kirchner, directeur du pôle Souveraineté numérique au Secrétariat Général pour l’Investissement (SGPI), cela passe d’abord par le choix des acteurs avec qui on travaille. Il évoque l’état actuel du monde et la place des infrastructures, deux enjeux à prendre en compte dans le développement de cet objet technologique : « Depuis le numérique qui sert à artificialiser l’intelligence jusqu’à l’impact éthique, économique, sociétal et géopolitique des outils qui en découlent, ce continuum doit guider nos réflexions sur quel numérique on veut dans dix ans ».
« Depuis le numérique qui sert à artificialiser l’intelligence jusqu’à l’impact éthique, économique, sociétal et géopolitique des outils qui en découlent, ce continuum doit guider nos réflexions sur quel numérique on veut dans dix ans »
— Florent Kirchner, directeur du pôle Souveraineté numérique au Secrétariat Général pour l’Investissement
Selon lui, c’est l’impact de l’ensemble des grands groupes, des chercheurs, des politiques, mais aussi de la société civile qui donnera un résultat tangible aux citoyens-consommateurs de l’Union européenne. À la question « Quel monde connecté voulons nous dans dix ans ? », sa réponse est formelle : « Pendant les dix prochaines années, je veux qu’on ait des débats collectifs qui donnent naissance à une IA européenne au cœur de la démocratie. » Une projection que Laurence Devillers illustre avec un exemple très concret. La fondation Blaise Pascal qu’elle préside a mis en place des capsules « Ethique du numérique » d’enfants qui parlent aux enfants pour expliquer les usages de l’IA, sur l’écologie notamment. « Là où on sera fort, c’est quand on saura faire de l’innovation en intégrant l’éthique. C’est uniquement par cette voie-là qu’on devrait arriver à construire une troisième solution » projette-t-elle.
Pour aller plus loin :
La première IA au service des enfants dyslexiques est d’origine lyonnaise
Crédit Image à la Une :