La semaine dernière, à Sophia Antipolis, sur la Côte d’Azur, le besoin de développer une intelligence artificielle (IA) responsable en santé et de miser sur la durabilité de cette technologie a fait partie des points clés abordés lors de la sixième édition du SophI.A Summit.
Près de 50 experts ont profité du sommet pour faire part de leurs connaissances et de leurs travaux de recherche en IA, devant des centaines de participants.
Miser sur une IA responsable en santé
Le sommet a présenté plusieurs initiatives d’IA en santé, dont le projet iBiopsy Lung Cancer Screening, qui amène une aide aux radiologues et aux médecins afin de détecter le plus rapidement possible les cancers du poumon, l’utilisation de modèles de traitement du langage naturel « pour soutenir les réunions de consultation disciplinaires multidisciplinaires liées au cancer colorectal », et des stratégies d’IAG qui renforcent « la préparation des systèmes de santé ».
David Gruson, directeur du Programme Santé Jouve et fondateur d’Ethik-IA, rappelle l’importance d’encadrer ces technologies, aussi prometteuses soient-elles. Ethik-IA a pour bout « d’accompagner la régulation positive de l’IA » et opère dans une trentaine d’hôpitaux en France et en Belgique. M. Gruson plaide pour une régulation de l’IA, « aussi simple et forte que possible » et qui inclut des « principes clés comme de la surveillance humaine (human oversight). »
Cette présence humaine est incluse dans l’AI Act (un projet européen de régulation de l’IA) sous deux axes. Le premier contraint à informer de manière transparente les utilisateurs de l’existence d’IA dans des systèmes, tandis que le deuxième prévoit qu’il faut inclure une surveillance humaine de manière continue, c’est-à-dire qu’elle soit présente dès les premiers stades d’approbation du système d’IA jusqu’à son déploiement en milieu réel. Les recommandations de l’UNESCO et de l’OECD demandent aussi une attention particulière à ces deux éléments dans le développement et le dévoilement de solutions d’IA.
[Dossier] IA et cancérologie : La promesse d’une révolution des soins
« La surveillance humaine doit être proportionnelle aux risques et aux bénéfices pour les patients, tout en prenant en considération la complexité des composantes algorithmiques », note David Gruson. Les initiatives d’IA en santé sont particulièrement encadrées par l’AI Act, qui les considère comme des systèmes à haut risque.
Le fondateur d’Ethik-IA croit qu’il « faut permettre une ouverture à l’innovation, tout en se penchant les enjeux éthiques spécifiques à l’IA ». Il insiste sur l’importance que la non-conformité aux régulations de l’IA soit sanctionnée, comme le prévoit l’AI Act.
Pour une IA durable
Une IA durable et responsable nécessite que sa « compréhensibilité soit correcte, fiable et pertinente », amène Bettina Laugwitz du laboratoire SAP. Cette compréhensibilité se doit d’être évaluée par des critères techniques (mesurant la stabilité, la capacité et la cohérence des outils) et par des méthodes humaines (avis d’experts, évaluation subjective des qualités pragmatiques, etc.). Pour mieux comprendre les liens tissés entre l’éthique et la durabilité de l’IA, SAP propose des cours et ressources en ligne gratuites.
Mieux comprendre la consommation énergétique de l’apprentissage automatique est également indispensable pour se diriger vers une IA durable, avance Charlotte Rodriguez. Une tâche qui est pour le moment difficile, mais qui attire graduellement l’intérêt d’un bon nombre de chercheurs : « Des conclusions de recherche montrent que l’entraînement de modèle de langage BERTlarge produirait des émissions équivalentes d’un vol aller-retour de San Francisco à New York. Cette conclusion a attiré beaucoup d’attention quant à la question de ce que consomme l’apprentissage automatique », explique la chercheuse.
Même si de telles conclusions ne font pas consensus, elles témoignent néanmoins du besoin de développer des outils permettant de telles mesures. Mme Rodriguez avance que les trois principales approches (capteurs de puce OD, modèles d’estimation et techniques de mesure) « ne permettent pas de régler la question de la consommation énergétique de l’IA et (…) pourraient être enrichies grâce à de nouveaux outils et méthodes ».
Pour Toshie Takahashi, professeure à l’Université Waseda de Tokyo, un développement durable de l’IA passe par l’inclusion de la jeunesse dans les discussions sur cette technologie. À cet effet, elle a contribué à la production du rapport « A Future with AI » des Nations unies, qui présente les perceptions que 254 jeunes issus de 36 pays ont de l’IA. Notamment, 76,3% des répondants qualifient les risques de l’IA comme « sérieux », mais estiment que ceux-ci peuvent être contrôlés.
Mme Takahashi travaille aussi sur GenZAI, « un projet de recherche mondial qui vise à explorer les moyens d’évoluer vers un avenir d’IA humain d’abord à travers le prisme de la génération Z ». La professeure croit à l’importance du dialogue, particulièrement dans un contexte où l’IA inquiète et est souvent observé avec des perspectives qui sont principalement tournées vers la science pure. « Alors que les technologies deviennent de plus en plus prévalentes dans nos sociétés, une panique morale concernant l’IA émerge. Elle résulte d’un manque de recherches avec des approches sociales, culturelles (et) multidisciplinaires. »
Crédit Image à la Une : Capture d’écran du SophI.A Summit 2023
En lien avec Sophia Antipolis :
- Article du 13 novembre 2023 : SophI.A Summit 2023 : une fenêtre sur les avancées les plus prometteuses de la recherche en IA
- Article du 27 avril 2023 : Soph.I.A Summit 2023 : lancement des appels de soumissions pour le RDV d’Europe sur l’IA
- Article du 23 novembre 2022 : Soph.I.A Summit : l’intelligence artificielle au service du bien commun
- Article du 26 juillet 2022 : Soph.I.A Summit : appel de soumissions pour le plus important rendez-vous d’Europe sur l’IA
- Article du 21 octobre 2021 : Deux chercheurs canadiens au SOPH.I.A Summit
- Article du 26 juillet 2021 : Retour du Soph.I.A Summit en 2021