Pour contribuer aux efforts d’encadrement des technologies de l’intelligence artificielle, en plein essor, et au contrôle des risques associés à leur utilisation, des chercheurs du MIT (Massachusetts Institute of Technology) et issus d’autres institutions ont lancé leur « Répertoire des risques liés à l’IA ».
Constituant une base de données complète, regroupant plus de 700 risques documentés posés par les systèmes d’IA, l’outil vise à aider les décideurs dans les secteurs gouvernemental, de la recherche et de l’industrie à évaluer les risques évolutifs de l’IA.
« Nous avons commencé notre projet dans le but de comprendre comment les organisations réagissent aux risques de l’IA », a déclaré Peter Slattery, futur postdoctorant au MIT FutureTech et responsable du projet. « Nous voulions une vue d’ensemble totalement complète des risques se rapportant à l’IA, à utiliser comme liste de vérification. Mais lorsque nous avons examiné la littérature, nous avons constaté que les classifications de risques existantes étaient comme les pièces d’un puzzle : individuellement intéressantes et utiles, mais incomplètes. »
« Nous nous attendons à ce que le répertoire devienne de plus en plus utile pour les entreprises au fil du temps. »
– Neil Thompson, responsable du MIT FutureTech Lab
Pour répondre à cet enjeu, le Répertoire consolide les informations provenant de 43 taxonomies existantes, y compris des articles évalués par des pairs, des prépublications, des communications de conférences et des rapports. Les chercheurs expliquent que le répertoire repose sur un système de classification en deux dimensions : d’une part, les risques sont classés en fonction de leurs causes, en tenant compte de l’entité responsable (humaine ou IA), de l’intention (intentionnelle ou non intentionnelle) et du moment du risque (avant ou après le déploiement). D’autre part, ils sont classifiés en sept domaines distincts, y compris la discrimination et la toxicité, la confidentialité et la sécurité, la désinformation, les acteurs malveillants et l’utilisation abusive.
Le Répertoire des risques liés à l’IA est conçu pour être une base de données vivante, et est offert en libre accès au public. Sa base de données sera régulièrement mise à jour et fournie en nouveaux risques, résultats de recherche et tendances émergentes.
Comment l’utiliser
« Les organisations utilisant l’IA pourraient bénéficier de l’emploi de la base de données de l’outil et de ses taxonomies comme fondations utiles pour évaluer de manière exhaustive leur exposition aux risques et leur gestion, décrivent les chercheurs. Les taxonomies pourraient également s’avérer utiles pour identifier les comportements spécifiques qui doivent être adoptés pour atténuer les risques spécifiques. »
Par exemple, une organisation travaillant sur le développement d’un outil de recrutement, alimenté par l’IA, pourrait solliciter le répertoire pour identifier les risques de discrimination et de biais potentiellement liés à sa démarche.
« Nous nous attendons à ce que le répertoire devienne de plus en plus utile pour les entreprises au fil du temps », a déclaré Neil Thompson, responsable du MIT FutureTech Lab, au média VentureBeat. « Lors des phases futures de ce projet, nous prévoyons ajouter de nouveaux risques et documents et demander aux experts de revoir nos risques et d’identifier les omissions. Après la prochaine phase de recherche, nous devrions être en mesure de fournir des informations plus utiles sur les risques qui préoccupent le plus les experts (et pourquoi) et sur les risques les plus pertinents pour des acteurs spécifiques (par exemple, les développeurs d’IA versus les grands utilisateurs d’IA). »
Crédit Image à la Une : MIT, domaine public