Face à la sophistication et à l’autonomie toujours plus grandes des algorithmes se pose le risque qu’ils commencent à prendre des décisions importantes à notre place. La technologie sait déjà automatiser des décisions jusqu’ici normalement prises par des êtres humains, en matière de diagnostic médical ou de fabrication intelligente, par exemple.
Dans les applications de l’intelligence artificielle, la technologie automobile est à l’avant-garde. La voiture autonome est un domaine de recherche très actif. De grandes enseignes comme Google, Uber et Tesla ont bien creusé la question pour aboutir à ce qu’une voiture sache conduire correctement grâce à un processus d’apprentissage par renforcement approfondi, c’est-à-dire en apprenant par essais-erreurs. Mais les machines d’auto-apprentissage peuvent connaître des défaillances. Des considérations d’ordre éthique entrent alors en jeu, mettant en cause la question classique de la responsabilité morale : Qui est responsible ? Et qui est garant des meilleures pratiques ?
Sans aucune norme mondiale sur l’IA, comment pouvons-nous sensibiliser davantage à l’importance de ces enjeux ? L’ISO et la Commission électrotechnique internationale (IEC) ont confié au sous-comité SC 42, Intelligence artificielle, de leur comité technique mixte ISO/IEC JTC 1, une série de projets d’étude. Un expert de ce SC 42, Mikael Hjalmarson, qui travaille au SIS, membre de l’ISO pour la Suède, explique ici comment les Normes internationales aideront à établir les bases éthiques pour l’édification et l’utilisation des systèmes d’IA à l’avenir.
ISOFOCUS : DES TECHNIQUES COMME L’IA PROMETTENT D’ÊTRE TRÈS TRANSFORMATRICES. POURQUOI FAUT-IL PRENDRE EN CONSIDÉRATION DES ASPECTS D’ORDRE ÉTHIQUE ET SOCIÉTAL DANS CE DOMAINE ?
Mikael Hjalmarson : L’IA utilise des technologies qui font appel à de nouveaux modes plus automatiques de recueil et de traitement de l’information. Aujourd’hui, la capacité de traitement des machines a considérablement augmenté et permet d’exploiter un nombre de données bien plus important que par le passé – ce qui peut entraîner des conséquences éthiques et sociétales. C’est lorsque les données sont gérées dans les couches cachées d’un réseau d’IA, comme au niveau réseau neuronal ou apprentissage machine, que les questions éthiques et sociétales – qui peuvent parfois ne présenter aucun enjeu négatif ! – doivent être prises en compte. En d’autres termes, ce qui était auparavant décidé et pris en considération en dehors des systèmes doit maintenant l’être à l’intérieur même de ces systèmes. Il peut aussi arriver qu’une application d’IA, quel qu’en soit le degré d’« auto-apprentissage », comporte des biais introduits de manière non intentionnelle au moment du développement et de la construction du système.
Il est impératif de bien cerner les incidences éthiques et sociétales de la technologie si l’on veut pouvoir développer des systèmes fiables présentant des garanties de transparence, d’explicabilité, d’atténuation des biais, de traçabilité, etc., car ces critères sont fondamentaux pour accélérer l’adoption et l’acceptation de l’IA à l’avenir. Les Normes internationales peuvent être utiles dans l’identification de ces questions éthiques et dans l’établissement du cadre nécessaire pour leur prise en compte.
QUELS SONT LES PLUS GRANDS ENJEUX DE L’IA AU NIVEAU ÉTHIQUE ET SOCIÉTAL ? QUELS SONT LES ÉLÉMENTS CONSENSUELS ?
L’IA présente des enjeux nouveaux et uniques en termes d’éthique. Le principal enjeu tient au fait que les systèmes exploitant l’IA peuvent être mis en œuvre par une multitude d’utilisateurs différents, de différentes manières et dans différents secteurs d’application – des soins de santé à la mobilité – avec des exigences totalement différentes, et parfois aussi avec des différences régionales et commerciales. Une technologie d’IA s’apparente à une « boîte noire » qui peut répondre à des questions... Mais peut-elle dire pourquoi une option est meilleure qu’une autre ? Peut-elle fournir des solutions de rechange ? Il y a ensuite les différentes politiques, directives et aspects environnementaux à prendre en compte, notamment concernant les règles qui régissent le mode de collecte et d’utilisation des données.
Il faut aussi veiller à ce que des aspects tels que la redevabilité, la responsabilité, la confiance, la traçabilité et les valeurs humaines soient traités partout de manière identique (uniformément) pour pouvoir être largement acceptés, même s’il n’est pas ici question d’établir des systèmes de valeurs. À cet égard, il peut en effet arriver que l’acquisition et l’évaluation de tel ou tel ensemble de données soient autorisées pour un domaine d’application, et soient interdites pour un autre. Par exemple, pour une plateforme financière, l’intérêt sera d’éviter le biais involontaire plutôt que l’« interception » de l’IA, tandis que dans le domaine des soins de santé, on mettra probablement l’accent sur la transparence quant au type de données saisies. Le système doit pouvoir gérer ces différences.
SUR QUELS TYPES DE NORMES ÉTHIQUES ET SOCIALES LE SC 42 TRAVAILLE-T-IL ?
Le groupe de travail WG 3 du SC 42, Fiabilité, travaille actuellement à un projet récemment approuvé. L’idée est de recenser et d’identifier les considérations éthiques et sociétales associées à l’IA et de les articuler avec les projets portant sur les questions de fiabilité sur lesquels nous travaillons. L’aboutissement de ce travail sera concrétisé par la mise au point d’un futur rapport technique, ISO/IEC TR 24368, dont l’objet est de mettre en évidence les particularités des préoccupations d’ordre éthique et sociétal en ce qui concerne d’autres projets plus génériques en cours sur les questions notamment de fiabilité, de gestion des risques et de biais. Les aspects éthiques et sociétaux sont examinés dans une optique écosystémique, qui pourrait impliquer à l’avenir des travaux plus nombreux au sein du SC 42, et pourrait fournir des orientations à d’autres comités techniques de l’ISO et de l’IEC travaillant à l’élaboration de normes pour des applications sectorielles spécifiques faisant appel à l’IA.
Quels sont les problèmes de réglementation dans ce domaine et comment le SC 42 prévoit-il de les résoudre ? Les normes éthiques étant souvent d’application volontaire, elles ne sont pas nécessairement respectées par certains créateurs de technologies d’IA. Que faire pour relever ce défi ?
L’ISO, l’IEC et le JTC 1 élaborent des normes consensuelles d’application volontaire dans tous les domaines, et pas seulement sur les questions d’éthique. Ce qui nous préoccupe en ce moment, c’est que la technologie évolue si rapidement que les organismes de réglementation ne peuvent pas suivre. Il y a donc une forme de jeu du chat et de la souris entre le recours croissant à l’IA dans divers types de systèmes et d’environnements et l’établissement de règles et de lois pour exercer un contrôle. Étant donné que nous étudions l’écosystème dans son ensemble, la participation à nos travaux est intersectorielle et représente les préoccupations d’une variété de points de vue dans le domaine, y compris en ce qui concerne les exigences réglementaires.
Le système de navigation de votre voiture en est une bonne illustration. On accepte parfaitement qu’un GPS, dont la vocation est d’indiquer le meilleur itinéraire pour se rendre d’un point A à un point B, puisse se tromper de temps en temps, car nous finirons probablement toujours par atteindre notre destination. Mais en va-t-il de même si une application d’IA choisit pour un patient un médicament (A) plus efficace, ayant plus de risques d’effets secondaires, plutôt que le médicament (B) moins efficace, présentant moins de risques d’effets secondaires ? Tout ira bien si le contexte est celui d’un hôpital avec des patients bien suivis et des médecins sur place, mais, dans un établissement de soins pour personnes âgées, ce choix sera peut-être moins indiqué, voire risqué. Si un médecin prescrit le médicament, il peut expliquer pourquoi il a opté pour le médicament (A), mais une application d’IA seulement censée administrer un médicament n’a peut-être même pas la capacité d’établir pourquoi le médicament (A) est plus approprié que l’autre.
Les Normes internationales, y compris celles qui traitent de questions d’éthique, pourront servir d’orientation pour aider les organismes de réglementation dans leur travail. Par exemple, lors de l’établissement de nouveaux systèmes destinés à être connectés à d’autres systèmes nouveaux ou existants, elles augmenteront les chances de les voir largement adoptés et utilisés. De par leur nature même, les normes sont élaborées pour le long terme ; or, aujourd’hui, c’est pour la recherche et le développement qu’il y est fait appel, ce qui implique qu’il faudra peut-être en permanence d’autres types de documents. Parallèlement au nouveau projet sur l’éthique, la mise au point d’un vocabulaire établissant des termes et des définitions clairs serait donc un atout précieux pour assurer une compréhension commune entre les diverses parties concernées et constituerait un bon point de départ pour l’élaboration de tels documents.
Quand est-il contraire à l’éthique de ne pas utiliser l’IA ?
C’est une question délicate car le caractère éthique ou non dépend beaucoup du contexte dans lequel l’IA est utilisée, et ce contexte peut également être différent d’une région à l’autre. Ainsi, dans le contexte d’une étude sur des maladies, on pourrait considérer le non-recours à l’IA comme contraire aux règles d’éthique, puisque les possibilités de trouver un remède plus rapidement sont plus grandes avec l’IA que sans.
Il est important de rappeler le potentiel que recèle l’IA pour aider à répondre à certains de nos plus grands défis, en particulier lorsqu’ils se rapportent à la sécurité humaine. Mais c’est une question de jugement difficile. Exemple : qu’est-ce qui est plus « éthiquement acceptable » ? Le nombre annuel des victimes d’accidents provoqués par une voiture autonome ou par nous au volant ? Là est la question de l’éthique de l’IA.