Dans une volonté d’accompagner au mieux la démocratisation de l’IA, mais aussi de se positionner parmi les pays leader dans ce domaine, le gouvernement français s’est penché sur les attentes des citoyens quant à cette technologie grâce à une consultation en ligne, dont les résultats viennent de tomber. CScience analyse les conclusions de cette étude qui donnent une idée de la volonté d’adoption des citoyens français et dessinent les perspectives en matière d’IA pour la France dans les années à venir.
Assistants vocaux, moteurs de recherche, rédaction automatique, conduite autonome…L’intelligence artificielle est déjà largement ancrée dans le quotidien des Français. Mais depuis fin 2022 et le lancement de ChatGPT, les IA génératives – capables de générer du texte et des images à partir de simples instructions en langage naturel – sont au coeur des débats. L’utilisation de ces technologies se répand à vitesse grande V mais elles soulèvent des questions éthiques et déontologiques, qui interpellent les États. Si les 27 membres de l’Union européenne se sont récemment prononcés en faveur d’une législation encadrant leurs usages avec l’AI Act, le gouvernement français semble au contraire chercher un positionnement qui encourage l’expansion des IA.
Une commission dédiée à l’intelligence artificielle
Pour mieux comprendre la démarche du gouvernement, retour six mois en arrière. Élisabeth Borne, alors Première ministre, lance en septembre 2023 une commission dédiée à l’intelligence artificielle générative composée de 15 membres. La commission est co-présidée par Anne Bouverot, présidente du conseil d’administration de l’ENS, et Philippe Aghion, économiste spécialiste de l’innovation. Parmi les différents membres, on retrouve notamment Cédric O, ancien Secrétaire d’Etat au Numérique, Joëlle Barral, directrice scientifique chez Google, ou encore Franca Salis-Madinier, Secrétaire nationale de la CFDT Cadres en charge de l’Europe, du numérique, de l‘intelligence artificielle et de la protection des lanceurs d’alerte.
L’objectif est de tracer les perspectives françaises en matière d’intelligence artificielle dans les années à venir, mais aussi d’éclairer les décisions du gouvernement à ce sujet. Afin de consulter les citoyennes et citoyens français, la Commission s’appuie sur l’outil numérique du gouvernement lancé le 28 septembre 2023 : l’application Agora – dont l’étymologie grecque « place publique » définit pleinement le rôle. La consultation vise à « mieux comprendre [les] attentes et [les] craintes [des Français] en matière d’intelligence artificielle et notamment d’intelligence artificielle générative ». Dans la présentation de cette consultation, la commission précise que « L’émergence de ces IA soulève de nombreuses questions, notamment dans les domaines de l’éthique, du travail, de l’économie, de la productivité ou encore de la souveraineté ».
Sur 6 917 répondants, près de la moitié n’utilise jamais l’IA
Du 11 décembre 2023 au 18 janvier 2024, les citoyennes et citoyens français ont donc été invités à répondre à 13 questions. Un total de 6 917 personnes ont participé à la consultation. Mais premier constat, l’IA ne fait pas l’unanimité. Seuls 15 % des sondés déclarent utiliser des outils d’intelligence artificielle générative « Souvent, pour un usage personnel », et près de la moitié (43 %) n’utilise « Jamais » ces technologies.
Bien que l’IA générative représente une opportunité plus professionnelle (45 %) que personnelle (36 %), elle serait plus utilisée pour un usage personnel (« Parfois », 29 %) que pour une activité professionnelle (« Parfois », 20 %). Pour près d’un tiers des répondants, parmi plusieurs critères possibles, cette technologie serait « une source d’inquiétude personnelle » (31 %). Quand aux ressentis, le développement de l’IA inspire principalement, ici aussi parmi plusieurs réponses possibles, de la curiosité (68 %), de l’anxiété (45 %), de la fascination (39 %) et de l’enthousiasme (37 %).
Des interrogations quant à l’évolution des métiers
À la question « Avez-vous peur que votre emploi disparaisse à cause de l’intelligence artificielle ? », 64 % des sondés répondent par la négative. Près d’un quart ont coché un « Oui » ferme, et 11 % déclare « Je ne sais pas ». Quant à la peur que leur emploi soit dévalorisé ou moins intéressant à cause l’intelligence artificielle, plus de la moitié (58 %) des participants répond par « Non », contre 27 % de « Oui ». À l’inverse, 38 % ont le sentiment que leur emploi serait plus intéressant ou valorisé grâce à l’IA (contre 41 % de « Non »).
Parmi les différents critères qui inciteraient à tester et à utiliser les outils d’IA au travail, les répondants attendent « Une meilleure connaissance des applications de l’intelligence artificielle », « Une explication des bénéfices qu'[ils pourraient] en tirer (productivité, conditions de travail, etc.) », et « Une plus grande confiance dans les outils et le traitement des données ». Certains semblent également intéressés par « La mise en oeuvre d’un dialogue social au niveau de l’entreprise sur les outils, les tâches concernées, et la réorganisation du travail qu’elle provoque ». Moins majoritairement, 11% des sondés déclarent « Rien, ce n’est pas pertinent dans mon métier », et 10% « Rien, je n’en veux pas ».
La santé et la sécurité en priorité
Quant aux domaines dans lesquels le gouvernement devrait encourager en priorité le développement des outils d’intelligence artificielle, les sondés, pouvant élire plusieurs réponses, ont été catégoriques. La santé, englobant « le dépistage, la prévention et le suivi de traitement », est privilégiée dans 75 % des cas. Vient ensuite, mais loin derrière, la sécurité à 42 %, avec pour exemples d’applications l’analyse de données pour une enquête, l’appui à la détection d’infractions ou encore l’accélération du traitement des dossiers. La finance (33 %), l’éducation (32 %), la justice (24 %), les transports (24 %), l’emploi (16 %) et enfin la culture (4 %). À noter que 8 % des répondants sur cette même question pensent que « le Gouvernement ne devrait pas encourager le développement des outils d’intelligence artificielle ».
Quid de la régulation de l’IA et de la collecte de données
Interrogés également sur le besoin ou non de régulation de l’IA générative, les participants sont catégoriques : Plus de la moitié (58 %) pensent qu’il faut « Réguler, dès à présent, le développement de l’intelligence artificielle générative, au risque de précipiter l’émergence d’outils français et européens ». Ils sont tout de même un tiers (33 %) à vouloir « Encourager pleinement » son développement, « au risque de précipiter l’émergence d’outils et d’usages potentiellement néfastes pour les utilisateurs ».
Concernant les domaines dans lesquels le Gouvernement devrait réguler en priorité le développement des outils d’IA, les sondés ont choisi avant tout la sécurité (47 %), la santé (40 %), l’éducation (40 %) et la justice (37 %). La culture a été priorisée par 22 % des participants. Quant aux conditions de collection et d’utilisation de données personnelles par le service public, sur des choix multiples, la moitié des participants a répondu vouloir choisir et donner son consentement à chaque utilisation, mais aussi que les pratiques de collecte et d’utilisation soient transparentes. 42% souhaitent que la collecte et l’utilisation restent les plus réduites possibles.
AI Act : Tout savoir de la nouvelle réglementation européenne
Parmi les conditions auxquelles le Gouvernement devrait accompagner le développement des outils d’IA, les sondés ont souvent coché beaucoup de réponses. Il y a la condition d’« Informer l’utilisateur sur les données collectées et les conditions de leur traitement », celle de « Former la population française pour en avoir un usage positif pour la société (de l’école au monde professionnel) », celle de « Prévoir des recours ou une vérification humain du traitement réalisé par l’intelligence artificielle », ou encore la volonté de « S’accorder sur un même régime de régulation avec nos concurrents internationaux ». 39 % des participants ont coché la condition de « Soutenir le développement d’un champion européen de l’intelligence artificielle », et 34 % souhaitent « Prévoir un comité de garants citoyens au niveau national pour suivre l’évolution des outils d’intelligence artificielle ». 4 % ne souhaite qu’à aucune condition le Gouvernement accompagne le développement de ces outils.
La consultation se conclut par une question concernant l’effet de l’IA générative sur la démocratie. Ici encore, les personnes interrogées semblent réservées : 42% pensent que cette technologie peut avoir un mauvais effet sur la démocratie, « par exemple en générant des contenus et des images venant perturber le débat public ». Seulement 15 % pensent que « Oui, en bien, par exemple grâce à la meilleure information des citoyens », et un tiers (35 %) inclut les deux effets, laissant entrevoir une certaine ambivalence dans l’esprit des répondants, caractéristique du débat autour de l’IA générative.
Critiques de l’étude : panel de répondants, biais des questions
Quelques critiques émergent néanmoins de cette grande consultation. Premièrement, elle a réuni moins de répondants que d’ordinaire sur l’application Agora (seulement 6 917 contre 16 792 participants pour la consultation sur la transition écologique, 10 028 pour celle sur la France et l’Europe, et 10 738 pour la lutte contre les violences faites aux enfants). Par ailleurs, les personnes qui participent à ce type de consultation sont probablement un minimum « connectées » et sensibles aux technologies d’intelligence artificielle. De plus, la démocratisation de l’IA générative évolue si rapidement qu’à quelques mois d’écart, les mêmes participants pourraient déjà donner des réponses différentes. Enfin, si près de la moitié des répondants n’utilisent jamais l’IA générative, comme déclaré dès la première question, leurs réponses sont peut-être moins pertinentes sur les questions suivantes.
Pour certaines demandes, notamment sur l’encadrement de l’IA générative, une plus grande nuance était possible. Les risques liés aux usages de cette technologie ne sont pas assez détaillés, pouvant biaiser les réponses des participants. Surtout, cette consultation semble servir avant tout à appuyer les décisions du gouvernement français. Les questions parfois binaires et peu nuancées, jouent en faveur de la compétitivité et du libéralisme, thèmes caractéristiques du macronisme, en dépit de la prévention des risques éthiques et déontologiques inhérents à l’intelligence artificielle, mieux pris en compte par la réglementation européenne avec l’AI Act. La présentation de la consultation indique ainsi que « l’axe gouvernemental est de renforcer notre souveraineté nationale et européenne ». Par chance, le droit de l’Union européenne prime sur le droit national. En théorie.
Reste à attendre les réponses aux questions ouvertes, bientôt disponibles sous la forme d’une synthèse, comme indiqué par la commission à la fin des résultats de cette consultation. Sur l’application Agora, il est indiqué que « les questions sont pensées pour nourrir les décisions gouvernementales et la commission s’engage à y donner suite ». À voir si, dans les faits, le gouvernement prendra en compte les attentes de Françaises et des Français.
Pour aller plus loin :
Quand l’IA fait la loi : le paradoxe de l’œuf et de la poule
Crédit Image à la Une : Archives