Projet NHNAI: L’IA au cœur d’enjeux éthiques entre liens sociaux et éducation

Projet NHNAI: L’IA au cœur d’enjeux éthiques entre liens sociaux et éducation

Les développements récents de l’intelligence artificielle ne cessent de provoquer des débats, entre enthousiasme et anxiété. C’est dans ce contexte qu’est né le projet de recherche-action international NHNAI (New Humanism in the time of Neurosciences and Artificial Intelligence). Un projet mené depuis 2022 par l’Université Catholique de Lyon (UCly), qui aborde notamment le lien entre l’IA et l’éducation ainsi que son impact sur cette dernière.

Mathieu Guillermin, coordinateur du projet NHNAI et docteur en physique et philosophie. Crédit photo: Mathieu Guillermin

Que signifie « être humain » dans un monde où les machines prennent de plus en plus de place ? C’est la question qui occupe le projet de recherche NHNAI. Porté par 27 chercheurs de 9 pays, notamment le Chili, les États-Unis ou encore le Kenya. NHNAI s’articule autour de plusieurs axes: la santé, la démocratie, mais surtout l’éducation. En effet, son apport dans ce domaine est considérable, cependant il soulève des questions éthiques, notamment dans les relations humaines. Pour mieux comprendre ces enjeux, Mathieu Guillermin, coordinateur du projet et docteur en physique et philosophie, nous répond. 

Un projet autour de l’IA et des neurosciences, c’est complexe. Quel est l’objectif derrière ? 

 L’IA, on en parle beaucoup, mais elle manque encore de régulation. Les experts doivent informer les décideurs pour faire des choix, mais peut-être que ça ne suffit pas. Il faut aussi une exigence ascendante qui vienne de tous les gens concernés pour rejoindre ce mouvement de régulation. L’idée est de mettre au service de la société les ressources des universités constituées pour renforcer l’orientation éthique de l’IA, tous ensemble.

 NHNAI, c’est une collaboration entre 9 pays, comment s’organisent les recherches ? 

Le premier objectif, c’est de faire consensus sur le savoir établi pour créer un pot commun et s’aider entre pays. Ensuite, chaque pays organise de grandes vagues de discussion en présentiel, puis on poursuit en ligne pour continuer les réflexions. Mais on n’est pas dans le combat d’affirmations, il y a une ouverture. Ce n’est pas parce qu’un universitaire pense telle chose que c’est le seul élément de réponse à apporter. Aujourd’hui, on entre dans la deuxième vague de discussion.

« Il y a une grande réflexion à avoir sur le sens de ce que l’on fait »

Parmi les thématiques abordées, l’éducation tient une place importante, quel est le lien avec l’IA ?  

Il y a un aspect qui est remonté des discussions entre les pays: l’IA renforce l’inclusivité, mais si on fait n’importe quoi, on peut se mutiler en tant qu’humain. Par exemple, pour aider les personnes qui parlent des langues différentes, elle fournit une traduction automatique. Pour les personnes en situation de handicap, elle peut générer un sous-titrage, tout le monde ne peut pas se payer un traducteur. En Afrique, beaucoup ont souligné qu’elle aidait dans des endroits où il était difficile d’amener des moyens d’éducation. Elle peut aussi personnaliser des parcours d’apprentissage, car tous les élèves n’ont pas les mêmes besoins.

Vous soulignez beaucoup d’avantages quant à l’utilisation de l’IA dans l’éducation, mais il y a aussi sûrement des limites ? 

Oui, si l’IA apporte beaucoup à l’éducation, elle présente un risque en termes de rapports sociaux. Elle peut créer de la distance et nous rendre encore plus addicts aux écrans. Les profs peuvent se concentrer davantage sur l’analyse des données et non sur le contact humain, ce sont des alertes pour dire attention. C’est bien de pouvoir personnaliser, mais on se demande s’il faut tout personnaliser. 

Justement, comment trouver un juste milieu entre les opportunités qu’apporte l’IA et ses risques dans les rapports sociaux ? 

Il y a une grande réflexion à avoir sur le sens de ce que l’on fait. Les gens peuvent produire le résultat attendu sans rien produire eux-mêmes. On peut attirer l’attention sur le fait qu’on est là pour vivre des choses, si on fait tout notre travail grâce à une machine, on ne vit plus rien. Il y a un danger de se concentrer sur le produit fini, c’est important, mais ce n’est pas la seule dimension. Il faut partager ce genre de réflexion, sur ce qu’on a envie de vivre au travail et en tant que membre de la société, et pourquoi on souhaite obtenir un diplôme. 

Les premiers résultats ont été produits en 2024, quelle est la suite du projet ? 

Pour le moment, on dissémine les résultats avec une proposition de les rediscuter en ligne. On voudrait commencer à mettre sur pied un ensemble commun de réflexion et le rendre le plus accessible possible, pour que les acteurs puissent s’approprier différents outils comme un guide d’organisation, des méthodes de débat ou encore une carte de complexité. L’objectif est de faire connaître ces résultats au plus grand nombre.

Pour consulter les synthèses: https://nhnai.org/fr/resultats-2023/ 

Pour découvrir le magazine h30 :

IA générative : tout le monde en parle mais personne n’explique

Crédit Image à la Une : Pixabay