Disclaimer
Ce billet, bien qu’écrit avec l’intention d’une rigueur scientifique, n’est pas un article scientifique. L’auteur ne prétend pas pouvoir présenter une revue exhaustive de la littérature scientifique, et ce billet n’est pas soumis à relecture auprès d’un comité scientifique. Il ne prétend pas non plus présenter un point de vue objectif et a une orientation critique recherchée. Aussi, cet article a vocation à évoluer, au fur et à mesure des remarques et des commentaires qui pourront venir enrichir les vues proposées ici.
Cette série d’articles est le fruit de la réflexion d’un doctorant travaillant dans le domaine de l’intelligence artificielle (IA), et qui s’interroge sur son propre rôle dans les rouages d’un système complexe. Les vues proposées dans la suite de l’article sont propres à l’auteur et non nécessairement représentatives des chercheurs du domaine.
Toutes les illustrations de l’article ont été générées par l’auteur à l’aide d’images du domaine public.
Introduction
Ce volet est le second d’une série d’articles sur l’éthique de l’Intelligence Artificielle (IA). Le premier volet est situé ici. Il introduit la problématique qui est traitée dans cette série d’articles, à savoir l’éthique de l’IA, les mythes et la réalité de cette idée.
Le premier volet présente en premier lieu combien le concept d’IA éthique est un concept flou, les deux termes composant le concept étant eux-mêmes non définis et uniformément interprétés. Il présente ensuite une vue décomposée des Systèmes d’IA (SIA),et relève dans chacun des composants les paradoxes inhérents à la notion d’IA éthique. Nous considérons ici comme composant les SIA tout élément lié à la production d’algorithmes ou de données liées à l’IA, du financement au déploiement de ces technologies.
Dans ce second volet, nous nous intéresserons en premier lieu aux efforts académiques autour du concept d’IA éthique. De plus en plus d’initiatives autour de ce concept font en effet leur apparition dans les publications scientifiques et dans les conférences sur l’IA, et ce volet propose une revue et une critique de ces idées.
En second lieu, nous porterons notre attention sur les solutions possibles au problème identifié, en gardant un regard critique sur les propositions qui seront étudiées.
De l’éthique de l’IA dans le milieu de la recherche
Toutes les contradictions évoquées dans le premier volet entre IA et éthique ont poussé de nombreux chercheurs à se demander comment rendre l’IA éthique ; comment assurer une utilisation éthique de l’IA, comment faire en sorte que le public prenne confiance en l’IA. Un pan de la recherche du secteur est maintenant consacré à l’exploration des possibilités de rendre cette technologie ‘éthique’. Explorons les solutions du monde académique, les faiblesses et forces de ces dernières.
Les textes officiels d’encadrement de la recherche
On peut penser en premier lieu, quand on s’intéresse à l’éthique, à l’encadrement officiel de la recherche. En effet, le milieu académique possède une déontologie qui lui est propre, qui est régie par divers textes et lois. Parmi les textes à caractère international qui encadrent la recherche, on peut citer :
- la Déclaration d’Helsinki de l’Association Médicale Mondiale (1964) ;
- la Convention pour la protection des Droits de l’Homme et de la dignité de l’être humain à l’égard des applications de la biologie et de la médecine (1997) ;
- la Déclaration universelle sur la bioéthique et les droits de l’Homme (2005) ;
- le Protocole de Nagoya sur l’accès aux ressources génétiques et le partage juste et équitable des avantages découlant de leur utilisation relatif à la convention sur la diversité biologique (2010) ;
- la Déclaration de Singapour sur l’intégrité en recherche (2010) ;
- les Lignes directrices internationales d’éthique pour la recherche en matière de santé impliquant des participants humains (2016) ;
- le Code de conduite européen pour l’Intégrité en Recherche, publié par All European Academies (2017).
Cette liste est non exhaustive, mais on pourra observer que la plupart de ces textes concernent des applications sur la santé ou la médecine. Il est peu surprenant de trouver de nombreux textes d’encadrement pour ces contextes, ces derniers relevant d’une éthique stricte particulière ; il est plus surprenant de trouver peu de textes officiels régissant les autres secteurs de la recherche.
Cela ne serait pas pour autant une garantie d’une éthique normalisée ; les cadres de ces textes et des textes similaires sont non contraignants, et n’offrent donc aucune protection concrète pour les droits humains. On ne pourra donc pas se reposer sur des textes officiels d’encadrement de la recherche en IA, du moins pas avant quelques années.
Charte, mon amour
S’il n’existe aucun texte officiel d’encadrement, il existe par contre de nombreuses chartes, documents de travail et textes à portée similaires, issus de petites ou grandes entreprises ou institutions. On les retrouve évidemment chez les GAFAM, ainsi qu’au sein des organismes liés aux SIA (OpenAI, Deepmind, centres de recherche des universités, …). Ces chartes proposent un encadrement de la recherche, du développement et du déploiement de l’intelligence artificielle selon des valeurs qui sont propres aux organismes qui les ont écrites. Ces très nombreux documents, proposant des démarches toutes plus ou moins similaires, ont fait l’objet d’une étude bibliographique poussée [zotpressInText items= »{8720274:XWW89BAI} »]. On retient de cette étude que ces chartes s’intéressent à un ensemble de valeurs distinctes, et particulièrement aux 11 suivantes : Transparence, Justice et Équité, Non-malfaisance, Responsabilité, Confidentialité, Bienfaisance, Liberté et Autonomie, Confiance, Soutenabilité, Dignité, Solidarité (notions traduites de l’anglais : Transparency, Justice & Fairness, Non-maleficence, Responsibility, Privacy, Beneficence, Freedom & Autonomy, Trust, Sustainability, Dignity, Solidarity). Les 5 premières étant les valeurs majeures, puisqu’elles apparaissent dans plus de 50% des 84 documents explorés.
Ces initiatives, que l’on pourrait bien recevoir, n’ont pourtant d’éthiques que le nom. La première raison est la même que pour les textes officiels d’encadrement des activités de recherche : leurs termes sont non contraignants. Il n’y aura donc pas de conséquence à un non respect de la charte. De plus, peu d’organismes instaurent des entités de contrôle chargées de faire respecter ces chartes, et ceux qui le font (Facebook, par exemple) ont autorité sur leurs décisions. Ceux qui adoptent ces chartes sont donc en même temps juges et parties de leur propre éthique, et ces chartes apparaissent vite comme un moyen de continuer le ‘business as usual’ dans un monde où les inquiétudes vis à vis des SIA vont croissant. Cette pratique, décrite comme celle du porte-manteau, est déjà décriée dans le milieu académique[zotpressInText items= »{8720274:8XGNSELB} » style= »chicago-author-date »] et dans de nombreux articles, avec par exemple la dénonciation de l’invention de l’IA éthique au service des Big tech par Rodrigo Oshigame.
Une autre critique adressée à ces chartes porte sur la mécompréhension des problèmes associés aux systèmes d’IA. En effet, ces chartes se proposent de respecter des principes à l’aide d’indicateurs et de métriques ; autrement dit, elles imposent de répondre à un certain agenda technique, et non pas social, alors que les conséquences du déploiement des technologies de l’IA ont à voir sur le plan social[zotpressInText items= »{8720274:BJARFIM3} » style= »chicago-author-date »]. Cette transformation du problème social en un problème technique est problématique pour au moins quatre raisons :
- La première, c’est qu’elle invisibilise le problème social qui est présent en premier lieu. Si les modèles de reconnaissance faciale fonctionnent moins bien sur les femmes noires, la solution est peut-être moins d’augmenter le nombre de données sur cette population cible que de se demander pourquoi les femmes noires sont moins représentées dans la société.
- La deuxième, c’est que la compréhension des phénomènes sociaux est encore loin d’être complète ; et que la lutte contre les biais peut se retourner contre les populations concernées. La récolte de données massive sur des populations marginalisées peut au final exacerber leur marginalisation, par exemple en permettant leur contrôle plus poussé.
- La troisième raison relève d’une notion évoquée dans le premier volet et courante dans le milieu de la recherche : le néo-colonialisme. Les chartes évoquées précédemment proviennent pratiquement toutes de pays occidentaux, et proposent donc des valeurs et principes occidentaux. Un article étudiant ces principes en Inde propose de les recontextualiser, ou de les construire en incluant les populations moins représentées sur la scène mondiale [zotpressInText items= »{8720274:G8GAXNYC} » style= »chicago-author-date »].
- Une dernière raison est l’incompatibilité entre eux de certains des 11 principes évoqués plus haut. Plusieurs de ces principes s’opposent en effet à un certain degré, ce qui implique la nécessité pour les chercheurs et ingénieurs de faire des compromis entre ces principes. On imagine facilement comment les principes de transparence et de confidentialité s’opposent, ou encore ceux de liberté et de non-malfaisance.
Ces chartes ne présagent donc pas grand chose de bon pour ce qui est d’une application éthique de l’IA ; en plus d’être un moyen pour les grands groupes de repousser les régulations étatiques à l’aide d’un code de conduite creux, elles se trompent largement dans ce qu’elles devraient encadrer si elles souhaitaient proposer des systèmes réellement éthiques.
Quand le sage pointe la lune, le chercheur regarde le doigt
Le focus de la recherche académique pour pallier le manque d’éthique dans l’IA est donc sur des aspects… techniques. Les autres contradictions sont soit ignorées, soit peu considérées[zotpressInText items= »{8720274:QVQEPE89} » style= »chicago-author-date »].Considérons l’aspect technique de la pipeline (ou chaîne de développement) des SIA, comprenant au minimum l’acquisition de données, la préparation des données, le développement de modèles et le déploiement de modèles. Alors que l’ensemble de la pipeline a besoin d’une véritable réflexion systémique, seuls les aspects de développement et de déploiement sont aujourd’hui remis en question par l’approche académique.
De même qu’avec les chartes, ce focus technique permet de faire diversion. La réduction des biais est une réponse purement technique à des problèmes globaux : cette minimisation de l’éthique laisse entendre que des choix techniques majeurs sont déjà actés, et que seules se posent des questions sur les ajustements techniques garantissant leur bon fonctionnement. Cela élude la remise en question de la technique elle-même, et donc les choix sociétaux qui en résultent. Les systèmes d’IA sont ainsi toujours considérés comme évidents, assumés, non négociables ; seules leurs conditions d’acceptation peuvent êtres potentiellement discutées.
Ils ne seraient donc que des systèmes techniquement étudiés pour répondre à des problématiques précises sur des métriques définies par les organismes qui les développent. Toutes les conséquences sociétales, environnementales, et par essence systémiques sont absentes du modèle éthique de l’IA, ce qui amène à ne considérer qu’un pansement technique qui fait plus office d’ ‘ethic washing’ que d’une réelle réflexion sur la place de l’IA dans la société.
La carotte et le bâton
Cette situation est la résultante du manque précédemment évoqué de moyens pour évaluer et condamner les différentes productions et pratiques dans le domaine de l’IA. L’encadrement de ces pratiques demande une réflexion particulière – à quelle échelle agir, qui a la légitimité de juger, qui peut être jugé, à qui revient la responsabilité ?
Les cas avérés de mauvaise utilisation des SIA n’ont pour le moment pas eu de grandes conséquences pour les auteurs des méfaits, ce qui n’incite pas les acteurs publics ou privés à faire preuve d’une grande prudence dans les utilisations de ces nouvelles approches. Les scandales de Clearview IA, Cambridge Analytica, et des notes sociales automatisées en Chine ne semblent pas inquiéter outre mesure les chercheurs, et les progrès en reconnaissance faciale ne cessent de faire les unes médiatiques, aussi bien pour en encenser les progrès que pour dénoncer les nuisances qu’elles induisent sur les populations défavorisées. Rien ne semble capable d’inverser la tendance actuelle, qui voit l’IA comme une technologie inévitable, et somme toute bénéfique puisque tout est mis en avant pour souligner ses bienfaits.
Au contraire, travailler dans les SIA et contribuer à leur évolution et leur développement permet généralement l’obtention de statuts privilégiés. Que ce soit du côté des chercheurs, des ingénieurs ou des commerciaux, le domaine de l’IA est aujourd’hui source d’investissements conséquents. De fait, faire partie du domaine, c’est être reconnu comme faisant partie d’une certaine élite, source d’une reconnaissance et d’une paie intéressante (sont bien sûr exclus de ces considérations les travailleurs du clic et autres sous-traitants de l’IA).
Le domaine n’est pourtant pas ignorant des risques de certains des systèmes qui sont déployés dans le monde. Les DeepFakes se sont vite répandus et ont fait grand bruit à travers les médias, à raison, puisque n’importe qui a maintenant la possibilité de générer des faux crédibles. D’autres groupes de recherches, comme OpenAI, ont décidé d’aller à l’encontre de leurs principes et de ne pas rendre ouverts et disponibles certains de leurs modèles, par crainte d’une mauvaise utilisation de ces derniers. Les capacités incroyables des technologies de l’IA, mises entre les mains de tous, sont donc un sujet d’inquiétude pour les groupes leaders du domaine. Pourquoi ces capacités, aux mains des puissances privées et publiques, ne nous inquiéteraient-elles pas, quand ce sont ces mêmes puissances qui aujourd’hui maintiennent un business as usual dans des conditions climatiques et environnementales catastrophiques, malgré les appels du GIEC et d’une partie croissante de la population ?
De nombreux projets d’IA ont ainsi été retirés des systèmes où ils avaient été déployés après que des défaillances et effets nocifs eurent été découverts. On peut ainsi citer les modèles de police prédictive aux USA, les assistants RH dont on a découvert qu’ils étaient sexistes, ou encore Tay, l’IA de discussion sur Twitter déployée par Microsoft et qui en quelques jours twittait des propos racistes, homophobes, sexistes, et haineux. Si ces projets défectueux sont à l’origine de réflexions plus poussées sur le déploiement de SIA dans certains cadres, ils sont aussi la preuve des pratiques déraisonnées que l’on peut aujourd’hui observer : déployer d’abord, réfléchir ensuite. Sinon, pourquoi de nombreux hommes politiques et industriels pousseraient-ils pour l’adoption de cadres légaux pour le déploiement de la reconnaissance faciale, quand cette technologie est décriée pour ses nombreux biais, techniques comme sociaux ?
Dans le domaine de l’IA, la carotte est donc en or et le bâton en mousse. Tant que cette situation perdurera, les citoyens du monde seront soumis à un déploiement frénétique des intelligences artificielles, au détriment de leurs droits qui devraient pourtant être fondamentaux à l’heure du numérique : vie privée, souveraineté des données, dignité.
La communauté de l’éthique
Imposer une éthique à un domaine particulier ne semble pas pour autant mission impossible. De nombreux domaines fonctionnent selon des codes d’éthique encadrés et avec des organismes de régulation veillant à ce qu’ils soient appliqués, comme en Santé ou dans les GLAM (Galeries, Librairies, Archives et Musées). Pourquoi ce genre de régulation ne serait-elle pas applicable pour le domaine de l’IA ? Étudions rapidement la question.
Commençons par le domaine de la santé ; avec le très célèbre serment d’Hippocrate. Comme le dit Wikipédia, « Dans sa forme historique, ce serment n’a pas de valeur juridique, les médecins étant soumis à des codes nationaux régulièrement actualisés. Dans ses formes modernes, la prestation d’un serment médical a gardé sa valeur symbolique ». Les codes de déontologie n’ont ainsi pas de valeur juridique particulière, les métiers étant régulés par des codes au niveau national, dont le respect est assuré par des instances de contrôle et de régulation. On a vu plus tôt que ces instances n’existaient pas pour le moment pour les SIA, et que leur création était ralentie par les diverses chartes et commissions Théodule adoptées par les groupes leaders de l’IA.
Pour les GLAM, le fonctionnement diffère un peu ; les pratiques sont régulées par l’UNESCO et d’autres régulateurs. Le principe reste néanmoins le même : des instances de décision, capables de faire autorité auprès de membres partageant un métier. C’est bien là que le bât blesse : les SIA ne possèdent aucun de ces derniers éléments. Les leaders en IA n’ont pas d’intérêts financiers à reconnaître une autorité particulière capable de réguler leurs activités ; et les acteurs du monde de l’IA sont trop épars et morcelés pour tous s’identifier sous un même métier.
C’est peut-être là qu’est la racine du problème. Tandis qu’en santé, les praticiens se reconnaissent un certain dénominateur commun – l’application de leur connaissance pour l’amélioration de la santé humaine – , rien d’aussi noble ne soude les chercheurs en IA. Les conférences rassemblent des travaux partageant des similarités, mais aux finalités souvent secondaires. L’intérêt majeur est porté sur les performances, sur les améliorations et capacités des IA, avec des emphases sur leurs potentiels, sans grande réflexion sur les finalités de ces améliorations. Sans unité au sein des chercheurs, aucune institution ne peut ainsi s’ériger légitime pour les brimer ou réguler les thèmes de leurs recherches (qui sont, rappelons-le, plus souvent décidés par les financements disponibles que par les envies des chercheurs, et sont donc de facto dirigés par le complexe militaro-industriel).
Si d’autres communautés existent dans le monde du numérique, elles se trouvent soumises à des problématiques similaires concernant les lignes directrices d’une éthique. Prenons pour exemple le monde de la cybersécurité, qui possède une nomenclature de ses pratiques (white hat, red hat, grey hat, black hat, …). C’est un exemple qui se recoupe bien avec les pratiques actuelles en IA : un appel à l’éthique qui ne parle pas à tout le monde, des pratiques divisées et morcelées selon les valeurs et principes de chacun, et un fort investissement de la part du complexe militaro-industriel pour la défense de ses intérêts privés.
En résumé, aucune éthique appliquée à une communauté de métier particulière ne semble pouvoir correspondre au milieu des SIA. Une complication qui ne joue pas en la faveur d’une éthique de l’IA, qui peine à trouver sa place dans la course technologique actuelle.
Quelles solutions pour quels problèmes
Si la solution qui englobe l’ensemble des enjeux d’une IA éthique n’est pas encore une réalité, certaines propositions et initiatives contribuent à la définition de ce que pourrait être une IA éthique. Ces réflexions sont pour le moment marginales, mais elles pourraient devenir les piliers du futur développement de l’IA dans l’hypothèse d’un shift vers une éthique imposée au domaine ou aux praticiens de ce dernier.
Exploration des relations socio-techniques des SIA
En tout premier lieu, certaines initiatives visent à cartographier les relations socio-techniques induites par les nouvelles technologies pour mieux appréhender les problématiques qui en résultent[zotpressInText items= »{8720274:3D4PFXKB} » style= »chicago-author-date »]. Ces travaux sont importants, puisqu’ils permettent d’identifier les différentes externalités négatives, en examinant tout le processus de développement et les éléments qui le compose. Une fois identifiées, ces externalités peuvent être la cible de nouvelles réflexions, politiques ou scientifiques, qui pourront aboutir sur des modifications des régulations ou frameworks de développements. C’est un peu, aussi, le but de ce billet – à une échelle plus modeste, cependant.
Si ces explorations sont évidemment nécessaires, elles sont limitées par un phénomène que l’on appelle le dilemme de Collingridge : « il est difficile d’anticiper les conséquences sociales d’une technologie, et lorsque ces effets, notamment négatifs, remontent à la surface, il y a de grandes chances pour que la technologie en question soit déjà incontournable et inévitable ». Ainsi, l’adoption de la voiture individuelle a-t-elle transformé l’urbanisme d’une telle manière que c’est aujourd’hui l’urbanisme qui s’adapte à la voiture, et pas l’inverse. Et nous nous apprêtons peut-être à revivre cette transformation avec la voiture autonome, selon un billet de l’agence de design Vraiment Vraiment, qui dénonce une possible adaptation de nos us et coutumes pour mieux recevoir le nouveau joujou de la technologie chez nous. Ainsi, si on peut tenter d’identifier au maximum les éléments problématiques de la diffusion des nouvelles technologies, on ne pourra empêcher ces dernières de nuire à un certain degré. L’inquiétude spécifique à l’IA réside dans ses capacités hors normes et sa diffusion massive dans l’univers du numérique.
La diversité même des SIA fait de l’exploration de ces relations socio-techniques une véritable odyssée, et la tâche de pallier chacune des problématiques qui seront identifiées est herculéenne. Les voitures autonomes en sont un exemple parlant, cristallisant une partie des débats autour de l’IA : dilemme du tramway, nécessité de nouvelles régulations, mise aux normes de l’urbanisme pour déploiement des véhicules, surveillance des utilisateurs, exploitation de travailleurs, gestion des données, etc… Autant de sujets qui seront à redébattre pour les autres applications, alors que les explorations proposées pourraient permettre d’identifier en amont ces problématiques et de proposer des solutions concrètes avant que les dégâts ne soient faits, pour les effets n’étant pas couverts par le dilemme de Collingridge. Une perspective insuffisante mais qui serait une amélioration de la situation actuelle.
Toolkits, Frameworks et Outils en pagaille
Le paragraphe précédent ouvre l’idée que les différents aspects de la pipeline des systèmes d’IA doivent être envisagés selon des outils capables de prendre en compte les externalités négatives de ces aspects. Ces outils, toolkits ou frameworks, devraient alors respecter un certain format ou des ontologies partagées, afin de pouvoir revêtir un caractère universel. Les chercheurs et ingénieurs en charge du développement des SIA n’auraient alors qu’à suivre les instructions et pratiques décrites. Certains frameworks sont déjà proposés dans les milieux académiques, comme la recherche participative, qui permet d’inclure les populations cibles des projets de recherche dans les démarches scientifiques ; le crowdsourcing, qui permet de construire des bases de données grâce aux personnes concernées par les données en question, ou qui ont les connaissances nécessaires à la compréhension et l’annotation de ces dernières ; ou encore les questionnaires qui permettent tout autant d’informer que de produire des données. Ces derniers peuvent être à l’intention des professionnels, comme celui développé au Canada pour évaluer l’acceptabilité d’un SIA, ou encore à l’intention du public, en adoptant un format qui pourrait être similaire à certains moratoires – bien que ceux-ci nécessiteraient une agence de surveillance dédiée et une forte instruction du public[zotpressInText items= »{8720274:RSFHR9Q8} » style= »chicago-author-date »].
Cette vision a des intérêts certains, mais se heurte à certains obstacles :
- Le premier est l’écho des précédentes remarques sur l’absence d’unité dans la branche de l’IA et de légitimité d’une institution ou d’un groupe pour imposer des décisions à l’ensemble de la communauté. Qui pourrait être force de proposition, décideur sur de tels outils ? À quelle échelle devraient-ils être déclinables : mondiale, incluant l’ensemble des diversités et cultures ? Nationales, et donc nécessairement très ancrés dans les politiques locales ? Quand bien même de tels outils pourraient être adoptés, la nécessité d’un effort collectif permanent pour les maintenir et les remettre en question est évident, et relance donc les problématiques évoquées précédemment.
- Cette option laisse une fois de plus les citoyens et populations cibles sur le côté, du moins tant que les outils cités ne les incluent pas aux processus de décision. Les arbitrages sur les orientations des intelligences artificielles sont donc laissées aux mains des experts et chercheurs, ce qui revient pour le citoyen à renoncer à la possibilité d’avoir voix au chapitre. Ce fonctionnement implique un biais majeur, puisque ceux qui travaillent sur les technologies de l’IA ont logiquement tendance à sous-évaluer leurs externalités négatives.
- Les leaders du domaine développent chacun leurs propres frameworks, correspondant à leurs valeurs et principes propres. Ceci génère une certaine confusion pour les acteurs du secteur qui souhaiteraient respecter un cadre commun. Certains de ces acteurs décident par ailleurs de créer leurs propres frameworks, ce qui ne fait que participer à la prolifération de ces cadres, de manière comiquement similaire à celle des standards (chargeurs de portables, encodages de caractères…), illustrée sur le blog xkcd. Tout comme les chartes d’éthique, la multiplication des frameworks est une problématique qui bénéficie à ceux qui souhaitent éviter les régulations, puisqu’elle ralentit l’adoption d’un cadre universel au développement de l’IA.
- Enfin, les approches tentant d’inclure des participations citoyennes peuvent vite faire face à des limitations qui leur sont propres. Ces approches se révèlent notamment plus coûteuses en temps ainsi qu’en moyens humains et financiers que les méthodes de prise de décisions classiques, et elles sont donc rarement préférées à ces dernières.
Si le domaine de l’IA gagnerait à promouvoir des frameworks et outils pour limiter les biais et prendre en compte les externalités négatives des systèmes développés, seule l’unification de ces derniers pourrait permettre un réel contrôle de ces déploiements par le grand public. Pour le moment, peu de travaux sont avancés en ce sens, à raison, puisque les limitations sont nombreuses et les obstacles de taille.
Les métadonnées au service de l’éthique
Les pratiques autour de la création et du partage de données sont légions, et elles se révèlent souvent être des processus opaques pour les populations concernées par la collecte de données ainsi que pour les utilisateurs potentiels des bases de données. Certains travaux déplorent que les données soient le produit de relations sociales inégales, et le manque de transparence des pratiques industrielles est vu comme une menace importante pour un travail éthique des données[zotpressInText items= »{8720274:Q7D2X9B5} » style= »chicago-author-date »]. Pour pallier ce problème, les auteurs de ces travaux proposent des approches de documentation des bases de données et des productions, en prenant soin de justifier les choix de méthodologie. En des termes plus explicites, un document décrivant une base de données utilisant une organisation par catégories ne devrait pas seulement expliciter les catégories mais aussi justifier le principe de catégorisation dans les critères choisis. Ces documents devraient ainsi interroger non seulement les principes mêmes de la base de données, mais aussi les hiérarchies présentes dans les contextes de collecte industrielle et leurs conséquences sur les données et leur utilisation.
D’autres travaux proposent de s’inspirer de domaines hors IA qui sont confrontés à des problématiques similaires de production et de conservation de données, comme les archives[zotpressInText items= »{8720274:JJRKKUYJ} » style= »chicago-author-date »]. Les archives répondent depuis longtemps déjà à une éthique dans la production et la conservation des données, grâce à des pratiques particulières : il existe ainsi des consignes sur sujets et thématiques auprès desquels la collecte de données est possible, des personnes responsables d’évaluer les risques et bénéfices de la récolte de données, des codes de conduite et d’éthique encadrés par un cadre professionnel, et des formats de documentation communs à l’ensemble de la profession. Tous ces éléments permettent aux archivistes de réaliser ce que les spécialistes des données pour l’apprentissage IA peinent à réaliser : une collecte et une utilisation éthique des données, régulée et sérieuse.
Ces documentations pourraient être des œuvres collaboratives, permettant l’échange entre les acteurs et les organisations. Les auteurs des travaux faisant le lien entre archives et datasets assument néanmoins que ces pratiques seraient difficiles à implémenter, et identifient certains points faibles de cette approche : surveillance déguisée des employés, impact sur la lourdeur administrative, temps nécessaire à la création de tels documents, intelligibilité de ces documents. Ils pourraient néanmoins permettre de lutter contre certaines des externalités négatives des SIA, particulièrement dans le domaine de la production de données.
Calculs vendus séparément
La réduction des impacts écologiques des systèmes d’IA restera une utopie sans une réduction des calculs nécessaires au développement et à l’entraînement des modèles. Si on peut espérer que l’optimisation des processus de calcul et des coûts énergétiques de ces technologies réussiront à provoquer une baisse globale de l’impact des intelligences artificielles, c’est sans compter sur l’effet rebond, aussi connu sous le nom du paradoxe de Jevons : « […] à mesure que les améliorations technologiques augmentent l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource peut augmenter au lieu de diminuer. Ce paradoxe implique que l’introduction de technologies plus efficaces en matière d’énergie peut, dans l’agrégat, augmenter la consommation totale d’énergie ». On observe cet effet en action pour l’ensemble du secteur numérique : le domaine ne cesse d’optimiser ses coûts en énergie et en matières premières ;pourtant, les prévisions d’évolution du domaine indiquent une augmentation de la demande en énergie et en ressources naturelles pour le secteur du numérique, précisément car les optimisations sus-nommées entraînent une hausse de la consommation qui est bien supérieure à tout gain énergétique sur les terminaux produits et vendus. Cette optimisation est aussi la source d’un gaspillage intense dû au remplacement d’équipements non déficients mais simplement plus assez efficients pour supporter les nouveaux softwares plus gourmands en ressources informatiques.
Faut-il alors arrêter d’optimiser nos équipements ? La réponse à la question écologique concernant les SIA se trouve-t-elle dans l’abandon du progrès technologique ? Si certains défendent ces positions, d’autres préfèrent mettre à profit ces améliorations énergétiques tout en les couplant avec des restrictions d’usage. Plusieurs propositions sont alors énoncées : restrictions des périphériques à partir d’un certain quota atteint (ratio de calculs, de dépense énergétique, de temps d’utilisation), restriction des ventes de périphériques, ou encore restrictions d’accès aux périphériques. Ces limitations ont l’avantage, pour certaines, de ne pas reposer sur des systèmes de gouvernance étatiques ou institutionnels, mais plutôt sur la volonté des fabricants. Pour les machines de calcul, les fabricants sont en nombre réduit, ce qui facilite la possibilité d’imposer les restrictions sur l’ensemble du marché. Les chances que de tels événements se produisent sont aujourd’hui minimes, voir inexistantes ; les lois du marché et de la realpolitik dominent largement les impératifs environnementaux et climatiques. Mais cette réalité ne durera peut-être pas, et ces options seront alors peut-être mises sur le tapis.
Le calcul scientifique, base de tout modèle, est aujourd’hui un facteur non négligeable de l’impact du numérique, et un important facteur des externalités négatives de l’IA. Une utilisation éthique de ces derniers nécessite un contrôle particulier de la manière dont les calculs sont réalisés et utilisés. Les technologies de l’IA seront amenés dans le futur à réaliser des tâches de plus en plus complexes, nécessitant de plus en plus de calculs. La limitation de ces calculs par des systèmes de quota va à l’encontre des tendances actuelles et opérerait un virage à 180° par rapport aux pratiques et prévisions ; mais ce serait pourtant un grand pas en avant vers des SIA éthiques, qui devront de toute manière évoluer dans un monde à plus faible disponibilité énergétique selon les prévisions, entre autres, du GIEC.
Chercheurs apprenants pour systèmes apprenants
Certaines approches, comme le respect de chartes éthiques précédemment mentionnées, reposent sur les individus. Si les chartes tentent de faire appel à la responsabilité morale des individus, d’autres approches sont possibles, et sont actuellement testées et mises à l’épreuve. Parmi elles, beaucoup misent sur l’éducation des acteurs du domaine de l’IA aux problématiques des systèmes qu’ils développent.
En France, un arrêté du 25 mai 2016 sur la formation doctorale exige que « tout(e) doctorant(e) reçoive une formation à l’éthique de la recherche et à l’intégrité scientifique ». La charte nationale de déontologie des métiers de la recherche ajoute que les règles déontologiques doivent être intégrées aux cursus de formation, en particulier au sein des cursus de master et de doctorat, et leur apprentissage doit être considéré comme participant à la maîtrise du domaine spécifique de recherche. La formation éthique des chercheurs est donc institutionalisée, bien que le choix de la nature de la formation soit laissée aux doctorants, et que cette sensibilisation ne soit pas renouvelée au cours de la carrière académique des chercheurs. Si cela n’impose rien de contraignant, les acteurs de la recherche possèdent tout de même des notions de déontologie de la recherche, et connaissent donc des outils pour remettre en cause les principes immuables de leurs domaines. Dans la même trempe, certains chercheurs proposent des approches originales comme les ‘serious games’ pour introduire des réflexions autour des externalités négatives de la recherche[zotpressInText items= »{8720274:YCP9U4PJ} » style= »chicago-author-date »]. C’est le cas de l’initiative Ma Terre En 180 minutes, sortie tout droit des Labos1.5, un collectif visant à réduire l’impact de la recherche sur l’environnement. Cette initiative est d’ailleurs directement inspirée de la Fresque du Climat, un outil beaucoup utilisé pour sensibiliser les étudiants aux problématiques du changement climatique.
Enfin, certaines initiatives comme le « Broader Statement Impact » évoqué dans le premier volet de cet article, proposent des réflexions à plus grande échelle, en imposant à la communauté de l’IA de se questionner sur l’impact des travaux de recherche publiés. Si ces mouvements sont récents et encore isolés, on peut décemment espérer qu’ils vont contaminer le reste des conférences et groupes de recherche, et peut-être devenir des éléments clés de la recherche future.
Pourtant, ces approches dites ‘bottom-up’ ont leurs propres limitations. Elles sont soumises au bon vouloir des éléments humains qui les composent, ainsi qu’à l’acceptation de leur mise en place par les équipes d’encadrement des conférences, institutions, universités et laboratoires. Elles peuvent aussi, dans des cas moins vertueux, être instrumentalisées : on parle alors de greenwashing ou d’ethics washing. Les images positives renvoyées par la communication autour de ces initiatives ne servent ainsi parfois que l’image marketing des utilisateurs de ces techniques, qui prétendent mettre en place des garde-fous, lesquels ne sont en fait que des façades.
De la responsabilité des uns à la responsabilité des autres
Les approches bottom-up posent d’autres problèmes : elles font peser l’entière responsabilité du respect des valeurs supposées des chartes et du changement aux individus. Ces derniers se doivent donc de porter des valeurs tout en étant mis sous pression. Il est facile de prévoir que ces valeurs sont des préoccupations moindres dans le milieu de l’IA, quand celui-ci est en tension constante : course à la performance, batailles pour les financements, besoins de reconnaissance et le fameux ‘publish or perish’ pour le milieu académique. Les exemples de manquements à l’éthique sous la pression des objectifs ou des supérieurs sont légions, et s’illustrent parfaitement dans le scandale de la triche sur les données des émissions des véhicules Volkswagen. Dans le milieu de l’IA, on retrouve ces tendances dans les déploiements pressés de modèles pas assez testés ou mal construits, la primeur du déploiement primant sur les principes de précaution. Quand les valeurs vont à l’encontre des enjeux économiques et politiques, elles sont écartées pour assurer la rentabilité des travaux entrepris.
Les individus sont aussi freinés par leur capacité d’action limitée ; ils sont bien souvent bloqués par les responsabilités qui leur incombent et ne peuvent agir autant qu’ils le voudraient, ou manquent de leviers d’action. C’est ce qui justifie aussi le focus, dans la recherche, sur les aspects techniques de l’éthique. Beaucoup de chercheurs ne voient pas comment ils pourraient agir autrement ; les autres externalités négatives des SIA ne sont pas de leur ressort. Ils manquent de moyens, d’outils et de leviers pour agir à plus grande échelle ; et bien souvent, suivre une éthique déontologique forte finit par avoir des conséquences négatives sur leurs situations professionnelles.
Seules des initiatives portées par un groupe uni par des valeurs communes peuvent faire front aux intérêts financiers. On pensera notamment à l’histoire du projet Maven, collaboration prévue entre l’armée américaine et Google pour la production de drones autonomes. Ce projet a été étouffé dans l’œuf suite à un mouvement interne au sein de Google, de cadres et développeurs qui se sont sentis révoltés par l’idée que leur travail puisse servir des intérêts meurtriers. Une victoire de l’éthique, qui pose un précédent pour faire valoir des principes au sein des groupes leaders de l’IA. C’est sûrement ce qui motive ces groupes à engager des firmes pour détruire les tentatives d’organisation en interne et de syndicalisation de leurs employés, comme le décrit Grégoire Chamayou dans son livre La société ingouvernable : Une généalogie du libéralisme autoritaire. La lutte est donc engagée, et les rapports de domination inhérents aux structures impliquées n’avantagent pas les employés.
Ces approches reposant sur les individus ne peuvent donc être la solution ; elles sont vouées à n’obtenir que des petites victoires ponctuelles face à des institutions qui jouent de leur avantage pour continuer au maximum le ‘business as usual’. L’éthique, après tout, ne paie pas. Pourtant, c’est bien au niveau de ces institutions que la régulation est nécessaire ; un changement de paradigme doit s’opérer si on veut pouvoir réellement prétendre que l’IA évolue dans un milieu où l’éthique est sérieusement prise en compte, et cela devra passer par une remise en question de la rentabilité avant tout.
Capital, vous n’êtes plus le capital !
Les fonds investis dans les SIA sont faramineux. Ces financements vont pourtant principalement dans des projets dont l’utilité est à remettre en cause. Les fonds consacrés aux véhicules autonomes en sont un exemple parlant. Comment peut-on défendre l’utilité sociétale des véhicules autonomes, quand les arguments de réduction des émissions dues à la mobilité risquent d’être mis à mal par l’effet rebond que certaines études prévoient déjà ? Comment penser que ce projet ne servira pas uniquement aux pays développés alors que les véhicules autonomes ont besoin de villes normalisées, de routes et signalisations en bon état, et donc d’une infrastructure spécifique ? L’automatisation des véhicules a peu de chances d’être utile aux pays en développement ; pire, elle pourrait même servir à accélérer les activités prédatrices dans ces pays, par exemple avec des véhicules autonomes déployés dans les mines, déjà déployés dans certaines localités… Le domaine entier de la vision par ordinateur est ainsi incriminé, ces deux plus grandes contributions et sources de financement étant les voitures autonomes et les systèmes de reconnaissance faciale. La plupart des fonds investis dans les technologies de l’IA ne servent que les intérêts du système extractiviste, et l’entretiennent plus encore.
Une redirection des fonds et investissements des projets nocifs vers des projets à portée sociale ou environnementale est un impératif pour réconcilier les notions d’IA et d’éthique. Cette problématique, bien sûr, dépasse le simple domaine de l’intelligence articifielle et provient du contexte socio-économique lui-même. Mais tant que les technologies sont ancrées dans ce système et sont utilisées pour le maintenir et l’étendre, elles ne peuvent se targuer d’une étiquette éthique sans qu’on y voie un habillage mensonger.
Conclusion
Empruntons à Yaël Benayoun et Irénée Régnauld, dans leur livre Technologies partout, démocratie nulle part l’excellent paragraphe de conclusion de leur chapitre « L’insuffisante réponse éthique » :
Nous attendons des démarches éthiques qu’elles nous aident à mener une réflexion sur les questions de société posées par la technologie. De ce point de vue, l’éthique est une pièce essentielle du débat démocratique. Cependant, telle que pratiquée aujourd’hui, elle ne sert que de cache-misère. La réponse éthique aux grandes questions technologiques ne permet pas une réelle confrontation de points de vue. Elle tend plutôt à dépolitiser les débats et à neutraliser les conflits en évacuant les désaccords de fond qui pourraient surgir. Dans les faits, on ne pourrait que constater que les multiples démarches éthiques engagées se trouvent incapables de répondre aux défaillances profondes des organisations qui les mettent en place. Qu’il s’agisse des chartes, des grilles d’impacts ou des comités, les moyens déployés restent tributaires des jeux de pouvoir et des pressions économiques, voire politiques. C’est la raison pour laquelle ces dispositifs bénéficient rarement des statuts ad hoc leur permettant de garantir leur indépendance, et c’est ce qui explique que les recommandations qui ne vont pas dans le sens des intérêts des industriels soient peu suivies d’effets. Interdire le déploiement d’une nouvelle technologie, par exemple, reste la plupart du temps hors de leur portée. Malgré les déclarations d’intentions, l’éthique est devenue un instrument privilégié pour exercer des pressions sur les régulateurs, afin de légitimer l’ordre établi et de défendre le traditionnel agenda néolibéral, au détriment de toute autre vision du monde.
Ce paragraphe résume bien l’état général de l’éthique telle que pratiquée dans le domaine de l’IA aujourd’hui. Si de nombreuses volontés souhaitent pourtant que l’éthique porte véritablement son rôle de régulateur, elles n’arrivent pas à construire un socle assez solide pour faire face aux défenseurs de l’innovation avant tout. Les SIA tels qu’ils sont déployés aujourd’hui n’arrivent qu’à reproduire, puis amplifier, les torts de la société. Et les moyens mis en place pour limiter l’impact sociétal désastreux de ces déploiements sont insuffisants, puisqu’aucun pouvoir officiel ne les soutient aujourd’hui. Une éthique au niveau sociétal n’est pas suffisante ; ce sont des régulations pénalisantes qui sont nécessaires.
L’IA ne doit pas devenir une prophétie auto-réalisatrice, son arrivée et sa diffusion dans le tout numérique ne doit pas aujourd’hui être considérée comme une fatalité ou un fait accompli. L’acceptation des technologies de l’IA ne doit pas être considérée comme une étape, mais comme une véritable question de société. Il manque aujourd’hui un mode de gouvernance qui puisse réguler les systèmes d’IA et leur imposer des décisions qui puissent aller à l’encontre des intérêts économiques ou politiques des décideurs. Le domaine de l’IA est un domaine encore jeune ; certains de ses impacts négatifs n’ont été découverts que récemment et d’autres viendront bien assez tôt. La réflexion sur le déploiement de ces mécanismes de régulation est à entreprendre au plus tôt, et passera très certainement par divers essais autour des modes de gouvernance et d’encadrement des technologies. Ces instances de gouvernance pourront alors orienter leurs choix par rapport à certaines considérations éthiques, qui auront été reconnues par les communautés diverses de l’IA. On ne parlera plus alors d’IA éthique, mais simplement d’IA approuvée, ou d’IA validant certaines normes.
Car l’IA éthique est un leurre, une illusion. Si l’on questionne l’éthique de chacune des étapes de sa chaîne de développement, on comprend vite que de nombreux points bloquants empêchent l’adjonction du terme « éthique » à un SIA. Si certains engrenages sont grippés et échappent au contrôle des travailleurs du domaine, d’autres peuvent être retravaillés pour apporter des solutions qui soient plus positives pour la société. Une meilleure pratique des SIA est possible – une pratique encadrée, respectueuse des individus et des cultures. Une pratique qui soit inclusive et démocratisante plutôt que biaisée et reproduisant les mécanismes de domination. Néanmoins, cette pratique reste encore à inventer. À nous, travailleurs des SIA, de ne pas appliquer l’IA à un monde hérité, mais à un monde transformé. À penser le monde de demain avant de le verrouiller aujourd’hui.
Bibliographie
[zotpressInTextBib]