Quelle IA pour demain ? Perspectives techniques, politiques et éthiques

Publié le 25/04/2019

Le 04 avril dernier à l'EPF Sceaux s'est tenu un workshop sur le thème de l'intelligence artificielle. Organisé par l'EPF et l'Université de Californie Berkeley, cet événement a réuni de nombreux étudiants et universitaires, partenaires et professionnels, organisations internationales, grandes entreprises, PME et start-up dans le domaine de l'ingénierie, du code, de l'éthique et des sciences politiques. Retour sur l'événement. 

Intelligence artificielle, du virtuel au réel

Après une introduction de Liliane DORVEAUX (adjointe à la direction du campus de l'EPF Montpellier) et Eric SAVATTERO (directeur des formations et du campus de l'EPF Sceaux), Marie LEGRAND (DELL Technologies) et Léa MOHAMMEDI (étudiante en 2ème année de formation par apprentissage à l'EPF Montpellier) ont pris la parole pour un keynote speech sur "l'intelligence artificielle, du virtuel au réel" en évoquant l'impact de l'IA sur nos vies et nos sociétés

En effet, elles expliquent qu'à l’avenir, la quantité de data va augmenter, et de nombreux progrès seront réalisés en matière d’algorithmes. L’une de plus grandes avancées de l’IA repose sur la prédiction. L’IA bouleversera les marchés, car 52% des entreprises manquent aujourd’hui de technologie, et de nouvelles technologies émergeront, les coopérations homme-machine seront plus communes, le changement sera en permanence présent. L’environnement de travail se basera sur la tâche plutôt que sur la mission en elle-même, et les caractéristiques suivantes seront essentielles :

  • L’intelligence émotionnelle
  • La force créatrice
  • La logique

Léa MOHAMMEDI précise "En énergie, l'intelligence artificielle nous permet par exemple de moduler notre consommation et production d'énergie. L'IA est aussi présente dans bien d'autres domaines aujourd'hui, même là où on ne le soupçonne pas". Marie LEGRAND insiste, quant à elle, sur l'importance de l'éthique, de la sécurité et de la transparence dans l'intelligence artificielle. C'est en pensant "futur" que l'entreprise DELL a pu rester compétitive dans la technologie et l'informatique.

"L'importance de l'éthique, de la sécurité et de la transparence dans l'intelligence artificielle"

 

Politique et IA

Deux intervenants ont ensuite échangé avec les élèves sur les liens politique-IA. George KUTUKDJIAN (philosophe et anthropologue de formation, aujourd'hui chargé de médiation à l'UNESCO) a tout d'abord évoqué l'IA et son rôle dans cette branche de l'ONU. Cette table ronde axée sur les questions politiques voit dans le développement de l’IA une évolution comparable à d’autres développements cruciaux qu’ont été le nucléaire ou encore la génétique. Il a été souligné que les risques d’inégalités ne devaient pas être minimisés, et ce y compris en termes de droits de l’homme. Parmi les défis liés à l’intelligence à l’artificielle on compte la liberté d’expression, la propriété de la donnée, les biais tels que celui du genre, la manipulation et la fiabilité, les relations de pouvoir, la responsabilité, l’impact environnemental lié à la consommation d’énergie induite. George KUTUKDJIAN cite également des enjeux et risques liés à l'IA parmi lesquels :

  • Canaliser les stéréotypes
  • Equilibrer les genres
  • Les pratiques discriminatoires
  • Creuser la séparation entre les jeunes et les plus âgés

"Ainsi, l’éducation et l’IA devraient se dédier au développement complet de la personnalité humaine,
y compris la créativité, l’innovation et l’anticipation."

Le sujet de la relation entre la société et les individus a aussi été mis en avant, car les sphères de la vie privée, de la vie sociale et plus largement du public pourraient ne pas avoir les mêmes besoins ni le même avis sur l’IA. Un défi éthique essentiel à relever ? Les potentielles inéquités que l’IA risquerait de creuser entre les pays développés et ceux en voie de développement. Le chargé de médiation à l'UNESCO a cité pour exemple l’usage de l’IA dans la médecine d’un point de vue politique, sans compter les considérations relatives aux données requises dans les domaines bactériologique et pharmaceutique ainsi que les données des patients. La question de la qualité de la data a été posée (données plus ou moins précises, différents types de données, et la question du stockage des données).

Florent PARMENTIER (Responsable du Policy Lab à Sciences Po) a quant à lui traité des choix éthiques de l'Europe face à l'IA, en comparaison avec la Chine et les Etats-Unis, qui n’ont par exemple pas les mêmes rapports à l’éthique. En témoignent les actions européennes du type RGPD ou JEDI (Joint European Disruptive Initiative). Cependant, la question du potentiel rôle économique de l’Europe dans l’IA a été soulevée. Alors que la Chine et les USA semblent avoir privilégié une stratégie B2C, l’Europe se concentre davantage sur le B2B.

Selon cet intervenant, les questions d’éthiques doivent être traitées simultanément avec le développement de l’IA. Il y a une fragmentation du travail, fondée de plus en plus sur les tâches.

 

IA : un parfait jeu de données ?

Une autre table ronde a réuni des acteurs de la Tech comme Gyana, IBM et Microsoft pour questionner l'équilibre entre service et confidentialité. Ils expliquent qu'une solution serait l’anonymisation de la donnée, ce qui n’est pas une idée nouvelle, les expériences passées ayant été accumulées au cours de recensements. La qualité de la donnée intégrée dans le process est en effet essentielle pour un bon apprentissage de la machine.

"Les données clés d’un bon process IA sont : confiance & conformité, équité, transparence, open source"

L’IA est un facilitateur. L’impact sur les gens doit être géré en les plaçant au cœur du développement de l’IA. Il faut avoir conscience que la data disponible qui a été utilisée pour les progrès faits en IA ces 3-4 dernières années, appartient désormais au passé, et que cette data n’est pas structurée.

Six principes de base ont été énoncés par les intervenants :

  • Equité
  • Fiabilité et sûreté
  • Confidentialité et sécurité
  • Inclusion
  • Transparence
  • Responsabilité

Transparence et responsabilité sont vraiment les piliers du développement de l’IA.

Lorsque se pose la question du transfert de la prise de décision de l’homme vers la machine, on doit se demander pourquoi et comment cela est fait. On n’a pas encore de réponses à toutes les questions, mais toutes les questions n’ont pas encore été posées, les développements étant encore en cours.

Afin de réduire les risques de biais et de relever les challenges soulevés par l’IA, il faudrait en plus des considérations techniques, de la sensibilisation et des solutions d’engagement, développer un “serment” pour les codeurs, à l’instar du serment d’Hippocrate pour les médecins. Les questions cruciales qui doivent être traitées sont le consentement et la confiance, la propriété des données, la gestion de la donnée et le stockage des données.

 

L'IA, mythes et réalités : la vision d'un clinicien

Ce keynote speech animé par François BERGER (Clinicien et Directeur du Braintech Lab à l'INSERM) a permi de mettre en avant l’usage de l’IA en médecine dans des domaines tels que la médecine digitale, et l’imagerie médicale.

"L’usage de la robotique et de l’IA peut parfois être plus affective
que ce que l’on pense." 

90% des Américains préfèrent qu’un robot réalise une opération chirurgicale plutôt qu’un humain, même s’il n’est pas prouvé que les robots aient de meilleurs résultats. La médecine est aussi soucieuse de la qualité de la collecte de données (bonne qualité, quantité et quand/comment, confidentialité de la donnée). Des questions sur qui contrôle la donnée, sur le coût du process de l’IA doivent être prises en considération. L’IA devrait être accessible à tous.

François BERGER prend pour exemples la chirurgie par les robots, la détection de cancers par l'analyse d'images médicales et microscopiques : "quel rêve pour le futur de l'OA dans la santé ? Que les ordinateurs, avec des algorithmes adaptatifs, puissent calquer des comportements du cerveau humain, pour aller vers un système médical toujours plus performant et permettant l'autonomie du patient". Il ajoute que "pour que ce chantier fonctionne, l'IA et les algorithmes doivent être validés scientifiquement. On doit aussi veiller à la sécurité des données médicales".

Se pose alors la question de la responsabilité en cas de dysfonctionnement de ces devices. François BERGER explique que le médecin et le constructeur seront alors désignés responsables en cas de problèmes ou d'erreurs avec ces interfaces digitales. Enfin, il conclut ce keynote speech en précisant que l'IA n'est pas sans conséquences sur l'environnement. Il rappelle notamment la différence de consommation d'énergie pour le fonctionnement d'un ordinateur (450 Kw/h) par rapport à celle d'un cerveau humain (20 Kw/h). 

 

Robotique et IA : les enjeux éthiques et sociétaux

Le panel de spécialistes de l’éthique (venant de l'Université Paris VIII et l'Université de Picardie Jules Verne) a évoqué la construction sociale du genre et remis en question la description, l’évaluation et les actions, qui devraient être éclaircies pour définir la société dans laquelle nous souhaitons vivre. En termes de genre, il y a un véritable besoin de data, un manque de data risquant de reproduire et renforcer les biais.

"L’IA n’est pas une création sensible, par conséquent l’utilisation de l’IA pour des appareils ou actions
fondés sur l’émotionnel soulève les questions de la responsabilité, du big data
et de l’automatisation du lien social."

Dans une époque où les robots de compagnie et assistants personnels se développent de plus en plus et prennent une vraie place dans la famille (suivi personnel médical, simulation d'un lien social...), la question des garanties éthiques pour la sécurité des données des utilisateurs se pose

Ingénieurs et développeurs reposent inconsciemment sur leur expérience et passif dans leurs activités de codage. Connaitre ses propres biais mène à considérer d’autres points de vue. Au final, bien souvent, les robots sont le reflet de leur créateur.

Les intervenantes de ces deux universités ont également questionné l'impact et l'influence du genre ou du sexe du scientifique ou du chercheur sur la création d'un robot, et sur leur travail de recherche plus généralement. Ludivine ALLIENNE (UPJV) explique que "le robot est en réalité à l'image de son créateur, et n'est donc pas neutre. L'IA permet de comprendre la marche humaine et le corps humain à partir d'un robot. Il permet d'objectiver nos connaissances et évite les biais". 

"Pourquoi avoir doté le robot Buddy d'émotions ?" s'interroge alors une élève ingénieure de l'EPF. Question à laquelle Alexia RUESCHE (Université Paris VIII) répond : "pour l'intégrer plus facilement dans le cercle familial, instaurer un climat de confiance et un lien social, comme c'est le cas avec un animal de compagnie".

 

Camille CRITTENDEN, directrice adjointe au CITRIS et au Banateo Institute, et co-fondatrice du CRITIS Policy Lab et du Women In Technology Initiative de l'Université de Berkeley), est ensuite intervenue sur le challenge que représente l'équité des genres dans les domaines technologiques pour les entreprises, et comment y parvenir.

 

Présentation des groupes d'étudiants de l'EPF et Berkeley

Enfin, pour conclure ce workshop sur l'intelligence artificielle dans le monde d'aujourd'hui et de demain, des élèves ingénieurs de l'EPF et leurs homologues californiens, ont présenté les résultats d'une étude menée en amont auprès de leurs camarades étudiants. Ils se sont notamment attardés sur la définition d’équité, particulièrement dans le machine learning, et sur la manière dont les choix et compromis sont faits, comme par exemple pour l’optimisation entre la confidentialité et la sûreté des véhicules autonomes. L’étude menée à l’EPF a fourni quelques éléments de réflexions et points de vue des étudiants sur l’Intelligence Artificielle, en termes de craintes et d’espoirs. L’enquête a abordé les questions liées aux compétences techniques requises pour un projet, à l’éthique et la philosophie, et à la législation autour de l’IA.

Les questions soulevées pendant le colloque traitaient également de la répartition du travail entre les systèmes automatisés et les hommes. Des études de cas dans le domaine de l’aéronautique et de l’espace, avec les nouvelles chaines de production de satellite, ont été évoquées. La question de l’IA pour un usage militaire a également été soulevée par Antoine GAUME, responsable de la majeure Ingénierie et Numérique à l'EPF Sceaux. La question de l’usage double des technologies a déjà été abordée dans de nombreux secteurs comme le nucléaire, l’espace, la médecine… Il est possible, de ce fait, de s’appuyer sur cette expérience.

Les étudiants ont été encouragés à remettre en question les outils et applications qu’ils utilisent au quotidien,
et à développer de nouveaux s’ils jugent que ceux qu’ils utilisent contiennent des biais.

L'objectif de ce sondage (un premier travail d'étude pour ces élèves ingénieurs) était de poser les bases d'un futur groupe de travail d'étudiants qui se questionnent sur les domaines dans lesquels l'IA s'implantera demain, et par conséquent, dans quel monde ils pourront potentiellement travailler

 

Conclusions du workshop

A la question "qui souhaite travailler dans l'IA plus tard, tous secteurs confondus ?", de nombreux étudiants ingénieurs présents lors du workshop ont levé la main. 

Betty BONNARDEL (AB5 Consulting) a conclu ce workshop en s'appuyant sur les différents thèmes abordés durant la journée. Elle a sollicité à chaud les réactions du public d'élèves ingénieurs, notamment sur ce qu'ils pensent de ce futur de l'Intelligence Artificielle, comment envisagent-ils la cohabitation et la collaboration homme-machine et pour quelles finalités. Betty BONNARDEL, par ailleurs ancienne élève ingénieure de l'EPF, explique que les robots, en plus de l'intérêt économique, sont là dans une perspective d'aide à la prise de décision et non en remplacement de l'humain. L'homme et la machine doivent donc collaborer. L'IA va permettre d'analyser les tâches contraignantes des hommes pour les soulager.

Une élève présente dans la salle ce jour a posé une question très juste, et que beaucoup d'autres se posent probablement : "Pourquoi l'IA ne remplace-t-elle alors pas complètement les hommes ?". A cela, Betty BONNARDEL répond que c'est parce que le niveau d'automatisation, l'éthique, la morale et la politique entrent en jeu. C'est pourquoi la question de passer à l'étape supérieure dans l'IA se pose, ainsi que les limites à définir. 

En conclusion, l’IA est un outil puissant et prometteur qui requiert d’être abordé avec soin et transparence afin d’assurer que l’IA soit utilisée à bon escient pour la société.

En résumé, les questions importantes de l’IA à traiter sont liées à l’économie politique, la définition d’une bonne société, la répartition du travail (spécialisation économique, cognitive et affective), la nouvelle dispersion du genre, du travail, des valeurs qui mènent à se poser la question éthique "Que voulons-nous retirer de l’IA ?". Résoudre ces questions devrait permettre de développer des systèmes plus bénéfiques pour la société.