Le rôle central des entreprises dans le développement éthique de l’IA

Cet article diffusé le 16 avril 2019 sur The conversation, a été co-écrit par Adélaïde de Lastic, docteure en philosophie de l’entreprise à l’École normale supérieure (ENS), Anne-Laure Thessard, doctorante en philosophie et sémiotique à Sorbonne Université, et Volha Litvinets, chef marketing de recherche chez Fairmarkit qui prépare actuellement un mémoire de philosophie sur l’éthique de l’intelligence artificielle dans le domaine du marketing à Paris-Sorbonne.

 

IA

La mise en place d'un conseil éthique a suscité quelques remous chez Google… Piotr Swat / Shutterstock

 

En décembre 2018, l’Université de Montréal a fait paraître, après des mois de travail collectif, sa « Déclaration pour un développement responsable de l’intelligence artificielle ». Ce texte intervient dans un contexte où, pour la première fois depuis le début de l’humanité, des systèmes autonomes sont capables d’accomplir des tâches que l’on croyait réservées à l’intelligence humaine naturelle. Traiter de grandes quantités d’informations, calculer et prédire, reconnaître des personnes et des objets, etc.

Tout l’enjeu est désormais d’utiliser cette puissance inégalée avec sagesse. Sagesse et intelligence artificielle (IA) vous semblent antinomiques ? Et pourtant, c’est bien de cela dont il s’agit : d’un développement respectueux de la dignité et de la liberté des personnes, ainsi que de l’environnement, qui contribue à l’épanouissement de l’humanité et au respect de tous les êtres sentients (capables d’avoir des expériences subjectives).

Les entreprises, et plus généralement toutes les organisations de travail quel que soit leur statut, ont un rôle majeur à jouer par rapport au développement éthique de l’IA. Par leur potentiel de recherche, de développement, d’action et d’utilisation collectives des IA, elles doivent s’impliquer par la réflexion et par l’action, en définissant notamment un cadre de responsabilité numérique pour le développement futur de leurs activités.
 

Un cadre à trouver

Selon une récente enquête mondiale réalisée par le MIT auprès de 600 dirigeants, 9 entreprises sur 10 utilisent déjà l’IA pour améliorer le parcours de leurs clients. L’utilisation de cette technologie est d’ores et déjà massive et son avenir ne dépend finalement que d’une poignée d’acteurs : six aux États-Unis (la GMAFIA – Google, Microsoft, Amazon, Facebook, IBM, Apple) et trois en Chine (Baidu, Alibaba, et Tencent), selon le magazine Wired.

Google, Apple, Facebook, Microsoft consultent et recrutent déjà des philosophes pour mettre au point un processus interne d’évaluation éthique de la recherche. Facebook, en coopération avec l’université de Munich, vient par exemple de lancer son Centre des recherches sur l’éthique de l’IA. De son côté, Google avait mis en place fin 2017 un comité d’éthique pour « aider les ingénieurs à mettre en pratique l’éthique, et aider la société à anticiper et à diriger l’impact de l’IA afin qu’elle fonctionne au bénéfice de tous ». Ce comité a d’ailleurs été contesté quelques jours seulement après l’annonce par des employés de Google en désaccord avec la composition du comité, ce qui met en lumière les difficultés de mettre en place un cadre clair au sein des entreprises, y compris chez celles à la pointe de l’IA.
 

10 grands principes

La mise en place de ce cadre de responsabilité numérique est pourtant indispensable. En effet, les intelligences artificielles ne réfléchissent pas, elles n’agissent pas non plus : elles exécutent des processus savamment conçus et orchestrés par des humains. Réfléchir et agir impliquent la prise en considération de la responsabilité de ses actes. Ces capacités humaines, la réflexion et l’action, engagent notre responsabilité, notamment vis-à-vis de nos outils technologiques, aussi intelligents soient-ils.

Comme le rappelle la déclaration de Montréal, les IA « ne disent pas ce qui a une valeur morale, ni ce qui est socialement désirable ». Le texte, rédigé par des chercheurs de diverses disciplines, invite donc tous les acteurs à intégrer le fait que les questions techno-éthiques liées aux IA relèvent d’un défi engageant notre humanité avant d’être une opportunité technologique. Elle propose 10 principes à discuter, à améliorer, à prolonger et… à appliquer, qui peuvent inspirer les organisations dans l’élaboration d’un cadre de développement de leur IA qui intègrent les problématiques éthiques.

Ces principes sont finalement, en grande partie, des propositions de valeurs :

Bien-être ; Respect de l’autonomie ; Protection de l’intimité et de la vie privée ; Solidarité ; Participation démocratique ; Équité ; Inclusion et diversité ; Prudence ; Responsabilité ; Développement soutenable.
 

L’IA au service du développement durable

Ces principes font écho à la proposition de « donner un sens à l’intelligence artificielle » qui figure dans le rapport du mathématicien et député Cédric Villani remis au gouvernement français en mars 2018. Il s’agit en effet pour les organisations de réfléchir à la fois sur le « sens » en tant que valeur et sur le « sens » en tant que direction à prendre, que ce soit dans le choix des axes à développer grâce aux IA (santé, éducation, économie, etc.) ou le choix des normes et pratiques à appliquer pour un usage responsable des IA.

Les entreprises peuvent aussi trouver d’autres points de repère pour concevoir le cadre de leur responsabilité numérique dans les travaux des Nations unies, qui ont élaboré en 2017 une stratégie baptisée AI for Good (L’IA pour le bien). Ce plan détaille les possibles utilisations des outils d’intelligence artificielle pour un certain nombre d’objectifs de développement durable, de la lutte contre la pauvreté à la préservation des océans en passant par la pacification des zones de conflit.
 

Intégrer la responsabilité numérique à l’action

À l’échelle des organisations de travail, outre leur adaptation à l’usage des IA, la responsabilité numérique peut se traduire par des actions qui s’intégrent dans une démarche RSO (Responsabilité sociétale des organisations, dite aussi RSE, pour Entreprises) à tous les niveaux de leur plan d’action.

Très concrètement, si l’on reprend les sept thématiques de la norme ISO 26000 qui concerne la responsabilité sociale :

  • Pour la gouvernance : l’organisation responsable doit assurer la gestion et la protection des données financières, elle doit prendre en compte les transformations liées à l’IA pour établir un modèle économique pérenne.
  • En termes de droits des personnes : assurer la protection des données personnelles des clients et des collaborateurs (voir notamment : règlement général sur la protection des données – RGPD).
  • En termes de conditions de travail : former les collaborateurs pour travailler en complémentarité avec l’IA, anticiper les évolutions de besoins en compétences.
  • Sur le plan environnemental : avoir une démarche numériquement écologique (les data consomment beaucoup d’énergie) et utiliser les IA pour rationaliser les dépenses énergétiques.
  • Concernant les consommateurs : promouvoir les produits et modes de consommation adaptés et responsables.
  • Pour l’éthique des affaires : rendre accessibles et transparentes les données d’échanges avec les concurrents et les fournisseurs.
  • Pour les territoires : développer les compétences liées à l’IA et promouvoir les comportements numériquement responsables sur les territoires.
  • Ces actions doivent toutefois être mises en place en tenant compte du risque de la dilution de la responsabilité individuelle dans le groupe. Les deux responsabilités – individuelle et collective – coexistent et s’articulent en effet de façon dynamique. Les individus peuvent être formés aux enjeux et pratiques responsables de l’IA, mais ils ne sont pas des observateurs passifs. Ce sont avant tout des acteurs, conscients et responsables à leur mesure, des enjeux et des évolutions de pratiques liés à l’IA.