Ce n’est un secret pour personne : l’intelligence artificielle occupe une place prépondérante dans nos sociétés actuelles. Si les nouvelles fonctionnalités ne cessent de fusionner, il est important de penser aux enjeux responsables et éthiques.
Pour mieux comprendre ces aspects, LeHibou est allé à la rencontre de Vincent Ubino, délégué à la protection de données et consultant en éthique de l’IA freelance.
Qu’est-ce que l’IA responsable ?
Définition
L’IA responsable repose sur le développement et de déploiement de l’IA de manière fiable, éthique, et transparente. Cette approche permet de tendre vers des résultats plus bénéfiques et plus équitables.
De manière générale, les entreprises doivent prendre les mesures nécessaires pour intégrer et utiliser l’IA de manière responsable. Pour cela, elles peuvent faire appel à un prestataire externe ou recruter une personne pour assurer spécifiquement ces missions.
L’IA responsable a un impact positif sur l’entreprise tout en respectant la protection et la confidentialité des données.
Les principes de l’IA responsable
L’IA responsable repose sur 7 grands principes qui sont les suivants :
L’équité et l’inclusivité
Les outils d’IA doivent fournir les mêmes résultats à tous les utilisateurs, sans créer de discrimination et sans porter préjudice. Pour cela, des moyens de surveillance doivent être mis en place pour détecter les biais et les corriger.
Le contrôle humain
L’humain doit toujours avoir le contrôle sur les systèmes d’IA, et pouvoir intervenir si nécessaire. Le but est que l’IA assiste l’humain dans ses tâches sans le remplacer.
La confidentialité et la sécurité des données
Les modèles d’IA sont entraînés sur une quantité importante de données qui doivent être sécurisées et protégées, notamment les données sensibles. Ces modèles doivent ainsi être conformes aux différentes lois et réglementations spécifiques à la localisation géographique et au secteur d’activité.
La responsabilité
Toutes les parties prenantes d’un projet d’IA doivent s’assurer qu’elle est utilisée de manière responsable. Il convient également de mettre en place des équipes chargées du suivi des processus et des résultats.
La transparence
Les outils d’IA ainsi que leurs résultats doivent être compréhensibles par les utilisateurs. Pour cela, des documentations sur les processus, les données ainsi que les algorithmes doivent leur être fournies. De cette manière, ils pourront mieux maîtriser ces systèmes et les améliorer si nécessaire.
La fiabilité et la sécurité
La précision des modèles d’IA doit être contrôlée et maîtrisée pour s’assurer de leur sécurité et de leur fiabilité. Un système d’IA doit pouvoir fonctionner selon sa conception initiale et réagir face à des situations nouvelles. Pour cela, une surveillance et un suivi sont nécessaires.
L’impact et le bénéfice social
Les développeurs des outils d’IA, ainsi que les utilisateurs, doivent s’assurer qu’ils servent la société de façon bénéfique. Ils doivent être en mesure d’évaluer ces bénéfices, mais aussi les risques, à la fois sur la société, l’économie ou encore l’environnement.
L’IA éthique
Qu’est-ce qu’une IA éthique ?
L’éthique renvoie aux valeurs, principes et règles permettant de discerner le bien du mal. Ces concepts sont donc individuels ce qui rend compliqué la définition d’IA éthique.
En effet, si les principes moraux diffèrent selon les individus, il en va de même pour l’IA. Selon si elle est appliquée au sein du secteur public ou privé, et selon le secteur d’activité, l’éthique de l’IA est perçue différemment, nous explique Vincent Ubino.
Globalement, l’IA éthique est donc centrée sur l’éthique humaine, et vise à respecter les droits et les valeurs fondamentales de la société, telles que l’équité, la confidentialité, la sécurité des données ou encore la transparence.
Ainsi, le respect des droits et principes, comme la conformité, peut être inclus dans l’IA éthique, voire en constituer un pilier.
Quels sont les problèmes éthiques de l’IA ?
L’IA peut, dans certains cas, présenter des problèmes liés à l’éthique, tels que :
- Le manque de transparence ou de neutralité.
- L’atteinte à la vie privée : surveillance, utilisation abusive des données.
- Les biais : au niveau des algorithmes, des résultats, des prises de décision, etc.
- Les discriminations et manipulations de comportements.
Vincent Ubino nous explique également que l’IA générative présente plus de risques que l’IA traditionnelle. En effet, l’IA générative produit des résultats et conclusions à destination des humains. Ainsi, les questions sur la provenance des données d’entrée et la fiabilité des conclusions produites doivent être posées.
Quels sont les freins à l’éthique de l’IA ?
Lorsque nous avons interrogé Vincent Ubino sur la question, ce dernier nous a partagé les 3 principaux freins qu’il voyait à une utilisation éthique de l’IA.
Selon lui, le frein principal est le fait d’aborder l’IA avec une approche trop capitaliste et commerciale. Du fait de cette approche, de nombreux investissements ont été faits sans qu’il n’y ait forcément de retours aujourd’hui. « Cette approche, principalement basée sur le concept de retour sur investissement financier, obstrue les vrais progrès sociétaux qui sont réalisés par l’IA, comme cela peut être le cas dans le domaine de la santé ou de la défense par exemple » affirme Vincent Ubino.
« Cette approche capitaliste empêche le développement de progrès dans des problématiques majeures, telles que la lutte contre le réchauffement climatique. L’IA pourrait en effet être utilisée à des fins de prévisions des événements climatiques ou d’optimisation des flux logistiques et de réduction de leur empreinte carbone. En conclusion, le retour sur investissement sociétal devrait prendre le pas sur le retour sur investissement financier » Vincent Ubino
Le second frein concerne notamment les limites de capacités de calculs. En effet, comme nous l’explique notre consultant, les modèles d’IA (notamment d’IA générative) nécessitent de nombreuses ressources et sont très consommateurs d’énergie. Certains fournisseurs de solutions d’IA privilégient par exemple l’utilisation du nucléaire compte tenu des coûts liés aux besoins énergétiques.
Il serait donc possible d’atteindre un seuil à partir duquel les modèles d’IA seraient incapables de fonctionner. « Il faut aussi prendre en compte que ces capacités peuvent fortement différer entre les différents pays, comme entre la France et les Etats-Unis, en matière d’informatique en nuage par exemple » souligne Vincent Ubino.
Enfin, le dernier frein aborde les risques que l’IA pourrait représenter pour les démocraties futures. « Tant que l’IA est utilisée dans le cercle privé ou professionnel, il n’y a pas de souci. Mais si elle devient capable de menacer un régime, cela serait très problématique. Pour le moment, nous n’en sommes heureusement pas à ce stade » précise Vincent Ubino.
Quelles bonnes pratiques pour une IA éthique ?
Selon le cadre d’application, les pratiques à mettre en place diffèrent, explique Vincent Ubino.
Pour une application en entreprise, il faut avant tout mettre en place une politique relative à l’usage de l’IA (sous forme d’une charte d’utilisation par exemple). Ensuite, il convient d’assurer un contrôle des données intégrées aux systèmes d’IA, et d’accorder une attention particulière aux données confidentielles.
Pour une utilisation dans le cadre privé, il faut prendre garde à ne pas dévoiler de données personnelles. En effet, l’objectif de l’IA est de fournir des résultats toujours plus qualitatifs, et elle s’appuie donc sur des situations réellement rencontrées. Ainsi, chaque résultat généré par une personne sera utilisé pour alimenter le modèle et produire les résultats pour les personnes suivantes.
Quel futur pour l’éthique de l’IA ?
Selon Vincent Ubino, du point de vue fonctionnel, l’IA finira un jour par atteindre un seuil.
La prochaine étape serait de transposer cette IA dans des souches matérielles, comme des robots, des humanoïdes ou encore des drones. Cependant, notre consultant souligne tout de même son inquiétude quant aux usages que l’humain pourrait en faire, si cet emploi reste principalement centré sur des résultats capitalistiques et fondé sur une approche technosolutionniste.
« A l’heure actuelle, je ne pense pas que l’IA soit complètement utilisée de manière éthique et qu’elle contribue à un bien-être global. Pourtant, c’est un outil formidable » Vincent Ubino