Intervention de Claude de Ganay

Réunion du 28 juin 2016 à 18h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Photo issue du site de l'Assemblée nationale ou de WikipediaClaude de Ganay, co-rapporteur :

– Je remercie notre collègue sénateur, Mme Dominique Gillot, pour cette présentation déjà bien complète. Je vais, pour ma part, vous parler de la suite de l'étude de faisabilité, qui traite de façon prospective des nouveaux développements en matière d'intelligence artificielle et de leurs limites, de la délimitation du champ de nos futures investigations et, enfin, du cadre de travail envisagé, c'est-à-dire des méthodes d'investigation retenues et des moyens à mobiliser pour l'étude.

S'agissant tout d'abord des nouveaux développements, nous avons relevé que, en apprentissage profond, ou deep learning, deux technologies, imaginées à la fin des années 1980 et au début des années 1990, font l'objet d'investigations particulièrement poussées depuis trois ans : les réseaux neuronaux à convolution et les réseaux neuronaux récurrents. Et, au-delà de ces deux techniques et d'autres futures découvertes qui profiteront aux neurosciences et rétroagiront très probablement avec la recherche en intelligence artificielle dans un cercle vertueux, le défi scientifique auquel les chercheurs doivent s'atteler, c'est, pour le Pr Yann LeCun, celui de l'apprentissage non supervisé alors que l'apprentissage machine reste le plus souvent supervisé : on apprend aux ordinateurs à reconnaître l'image d'une voiture en leur montrant des milliers d'images et en les corrigeant quand ils font des erreurs. Or les humains découvrent le monde de façon non supervisée. En gros, tant que le problème de l'apprentissage non-supervisé ne sera pas résolu, nous n'aurons pas de machines vraiment intelligentes.

Comprendre l'intelligence reste une des grandes questions scientifiques de notre temps, au-delà même des progrès et des limites de l'intelligence artificielle, et la conception de machines intelligente nécessitera la collaboration ouverte de la communauté de la recherche toute entière. Les machines du futur seront très vraisemblablement dotées, selon le Pr Yann LeCun, de sentiments, de plaisirs, de peurs et de valeurs morales. Cette perspective mérite qu'on s'y attarde car, comme l'indiquent MM. Rodolphe Gélin et Olivier Guilhem, respectivement directeur scientifique et directeur juridique d'Aldebaran puis de Softbank robotics, « La modélisation des émotions est une tâche presque plus facile que l'ensemble des problèmes que les roboticiens ont eu à régler (…), le robot qui utilisera (les techniques de perception des émotions) pourra quasiment lire à livre ouvert les émotions de son interlocuteur ». La perception et l'expression d'émotions devraient bientôt devenir des réalités, or les robots sauront jouer sur les émotions, ce qui pourra se rapprocher d'une forme de manipulation. En plus de pouvoir nous tromper, les systèmes d'intelligence artificielle risquent d'encourager la création de liens affectifs disproportionnés entre l'homme et la machine.

L'autre rupture qui reste possible est celle de la « singularité technologique », appelée aussi simplement singularité, nom que des écrivains et des chercheurs en intelligence artificielle ont donné au passage de l'intelligence artificielle faible à l'intelligence artificielle forte, qui serait un tournant hypothétique supérieur dans l'évolution technologique. Les progrès en matière d'intelligence artificielle, en particulier avec l'apprentissage profond, sont réels mais ne permettent pas de garantir la capacité à créer, au cours des prochaines décennies, une super-intelligence dépassant l'ensemble des capacités humaines.

Nier la possibilité d'une intelligence artificielle forte n'a pas de sens ; toutefois, se prononcer sur son imminence ou sur le calendrier précis de son avènement semble tout aussi peu raisonnable. Par exemple, en s'appuyant sur la loi de Moore, Ray Kurzweil prédit que les machines rivalisant avec l'intelligence humaine existeront avant l'année 2030. Il faut avoir en tête que cela peut arriver tôt ou tard mais sans doute pas dans un délai aussi court. Quoiqu'il en soit, des différences notables ne manqueront pas de demeurer entre cette future et hypothétique intelligence artificielle forte et l'intelligence humaine.

M. Jean-Claude Heudin, directeur de l'Institut de l'Internet et du multimédia, a effectué une comparaison entre le cerveau humain et l'état actuel des connaissances en matière de réseaux neuro-mimétiques. Il montre que les écarts sont encore vraiment considérables, comme vous pouvez le voir dans notre étude. L'intelligence artificielle forte, qui agira sur la base de ce qu'elle sait, devra relever le défi d'agir sans savoir puisque, comme l'affirmait le biologiste, psychologue et épistémologue Jean Piaget : « L'intelligence, ça n'est pas ce que l'on sait, mais ce que l'on fait quand on ne sait pas ».

Après cet essai de prospective scientifique, je voudrais faire un peu de prospective sociologique pour aborder la question de l'acceptabilité sociale de l'intelligence artificielle et celui de sa régulation. L'enjeu de la cohabitation quotidienne avec des intelligences artificielles, de leur acceptation et de leur régulation devra être appréhendé. Les géants de l'Internet s'apprêtent à diffuser de nombreux produits connectés recourant à l'intelligence artificielle, faisant ainsi, peut-être, advenir un monde inédit qui n'aura pas été anticipé, délibéré et choisi. Cependant il ne faut pas tomber dans l'illusion du « jamais vu », ce qui invite à relativiser la nouveauté de l'aide apportée par l'intelligence artificielle, la découverte d'autres outils complexes ayant jalonné l'histoire des civilisations humaines. M. Michel Volle rappelle ainsi que « Des machines remplacent nos jambes (bateau, bicyclette, automobile, avion), des prothèses assistent nos sens (lunettes, appareils acoustiques, téléphones, télévision). L'élevage et l'agriculture pratiquent la manipulation génétique, depuis le néolithique, par la sélection des espèces. La bionique, l'intelligence artificielle ne font que s'ajouter aujourd'hui au catalogue des prothèses qui assistent nos activités physiques ou mentales ».

Toutefois, quand bien même l'illusion du « jamais vu » doit être dénoncée, il convient d'éviter aussi l'écueil du « toujours ainsi ». L'intelligence artificielle entre dystopie technologique et utopie transhumaniste représente un outil à l'autonomie croissante et qui pose de nouvelles questions. Quelles règles éthiques et juridiques définir ? La Corée du Sud s'est ainsi inspirée des lois d'Asimov pour rédiger un projet de charte sur l'éthique des robots, dans le but « d'éviter les problèmes de société qui pourraient découler de mesures sociales et juridiques inadéquates prises pour encadrer l'existence de robots dans la société ».

En France, l'avocat Alain Bensoussan milite en faveur de l'adoption d'un droit des robots au sein de l'association pour le droit des robots qu'il préside – nous n'avons pas encore forgé notre opinion sur ces propositions. Il a ainsi rédigé un projet de charte des droits des robots qui fait de ces derniers des êtres artificiels dotés d'une personnalité juridique particulière et d'un droit à la dignité. Il réfléchit également aux implications en matière de responsabilité et d'assurance. En outre, il demande à ce que tout robot dispose de systèmes de sécurité permettant un arrêt d'urgence. Cette dernière proposition retient tout particulièrement notre attention car il semble nécessaire de toujours pouvoir arrêter une intelligence artificielle, qu'il s'agisse d'un système informatique ou de son incorporation dans un robot. La réversibilité du fonctionnement d'une intelligence artificielle est essentielle. En 2016, Google a également posé la question du manque de contrôle potentiel d'agents apprenants qui pourraient apprendre à empêcher leur interruption dans une tâche. C'est dans ce sens que la firme développe un « bouton rouge » permettant la désactivation des intelligences artificielles.

Pour la Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA), la question du débrayage de certaines fonctions autonomes, voire de la mise hors service du robot par l'utilisateur, est centrale. Elle se demande ainsi : « Quand et comment l'utilisateur peut-il éteindre des fonctions du robot, voire le robot lui-même ? Le robot peut-il ou doit-il empêcher ces extinctions, dans quelles circonstances et sur quelles bases objectives ? ».

Je relève que certains veulent aller plus loin que pouvoir désactiver une intelligence artificielle, ils veulent débrancher toute intelligence de ce type. Une association française contre l'intelligence artificielle (AFCIA) a même été fondée le 18 juillet 2015. Elle juge « illégitime et dangereuse la recherche scientifique visant à créer des organismes à IA suprahumaine » et considère que le seul moyen « d'éviter un avenir funeste pour l'humanité est d'obtenir l'interdiction légale de la recherche en IA à l'échelle mondiale ».

Pour ce qui concerne la délimitation du champ de nos futures investigations, je rappelle que nous allons devoir conduire notre travail dans la perspective d'une année électorale 2017 particulièrement chargée, au cours de laquelle chacun des deux rapporteurs est renouvelable : nos investigations devront, en effet, s'inscrire dans une période qui précède une année d'élections présidentielles, législatives et sénatoriales.

Si l'on met de côté les deux mois d'été, la période utile est d'environ six mois, au lieu d'un an minimum habituellement pour les rapports de l'OPECST. Un tel contexte rend difficile l'élaboration d'un rapport faisant un point complet sur l'ensemble des questions posées par l'intelligence artificielle.

Nous ne voulons donc aucunement prétendre épuiser le sujet et nous souhaitons faire de ce rapport un travail exploratoire sur un thème aux enjeux très diversifiés, tout autant scientifiques et technologiques que politiques, éthiques, juridiques, médicaux, militaires ou économiques. Compte tenu de ces délais contraints, il est nécessaire de ne retenir que certaines problématiques du champ de l'intelligence artificielle dans la conduite de nos investigations, en ayant le souci d'optimiser la plus-value relative du futur rapport.

Comme vous pouvez le voir dans notre étude, nous avons distingué neuf domaines d'investigation parmi les différents thèmes pouvant être circonscrits et nous avons choisi de traiter de manière prioritaire la recherche publique et privée en intelligence artificielle ainsi que les enjeux philosophiques, politiques, juridiques et éducatifs de cette intelligence. Les aspects scientifiques et technologiques constituant le coeur de métier de l'OPECST et sa plus-value par rapport aux autres commissions et délégations, ils ne peuvent être écartés. La place considérable prise par la recherche privée pose la question des enjeux de pouvoir et de sécurité par rapport à la recherche publique. Elle touche même les problématiques de souveraineté et d'indépendance nationale, d'autant plus que la colonisation numérique américaine est une réalité incontestable.

De même, les enjeux philosophiques, éthiques, politiques, juridiques et éducatifs de l'intelligence artificielle soulèvent des questions essentielles. Les identifier permettra de dépasser les peurs et les inquiétudes pointées dans l'introduction de la présente étude de faisabilité en vue d'engager un débat public plus serein à ce sujet.

Nous choisissons donc de mettre de côté différents aspects en motivant nos choix dans l'étude. Ainsi, nous écartons les enjeux strictement économiques, industriels et financiers de l'intelligence artificielle, parce que ce domaine correspond assez peu à la mission et à la plus-value attendue de l'OPECST, que la commission des finances du Sénat a déjà travaillé sur le trading à haute fréquence (THF), ou « high frequency trading » (HFT), que le débat sur les aspects économiques du numérique ne sont pas propres à l'intelligence artificielle et sachant enfin que, en matière de moyens de transports, le Gouvernement s'est vu confier la tâche de déterminer le régime juridique applicable aux voitures autonomes et qu'il n'y a donc pas lieu, pour l'OPECST, d'interférer avec cette mission de l'exécutif.

Par ailleurs, nous sommes convaincus que l'intelligence artificielle sera très bénéfique aux technologies médicales mais cet aspect a déjà été traité à plusieurs reprises par l'OPECST. Notamment, l'année dernière, par un rapport de Mme Catherine Procaccia, sénateur, et M. Gérard Bapt, député, sur le « numérique au service de la santé »1.

Les usages de l'intelligence artificielle pour la défense et les technologies militaires peuvent être écartés pour deux raisons : d'une part, il s'agit d'un sujet qui relève assez largement du droit international et à propos duquel le Parlement est peu compétent et, d'autre part, l'accès à l'information sera rendu extrêmement difficile compte-tenu de la sensibilité du sujet.

En bref, l'angle d'entrée le plus fécond nous semble donc être de mettre l'accent sur les enjeux éthiques car ils permettent d'aborder, de manière transversale, les aspects retenus de manière prioritaire – à savoir la recherche publique et privée ainsi que les enjeux philosophiques, politiques, juridiques et éducatifs de l'intelligence artificielle. Derrière une focalisation sur l'éthique de l'intelligence artificielle, il sera, en effet, possible de poursuivre des investigations dans chacun de ces sous-domaines, en mettant en évidence les opportunités et les risques que représente l'intelligence artificielle. Cette réflexion éthique doit être conduite au sens large et englober, à la fois, l'éthique de la recherche en intelligence artificielle et l'éthique des robots intelligents.

En résumé, il est essentiel de savoir anticiper les problèmes potentiels posés par l'intelligence artificielle. La place de ces machines, notre dépendance à leur égard et la maîtrise que nous conservons de leur évolution sont des questions qui méritent d'être débattues dès aujourd'hui.

La réflexion sur les enjeux éthiques de l'intelligence artificielle doit clarifier le cadre dans lequel s'inscrit la recherche en intelligence artificielle ainsi que les limites éventuelles à fixer à l'intelligence artificielle. Pour l'académicien des sciences, M. Gérard Sabah, l'éthique de l'intelligence artificielle doit se prononcer sur « les impacts de telles machines sur la vie privée, sociale, politique et économique, ainsi que les valeurs qui les sous-tendent et celles qu'elles impliquent. La société doit définir clairement les limites acceptables entre la science et la fiction, le progrès et les risques encourus, afin de préserver notre identité et notre liberté ».

Pour la CERNA, dans son rapport sur l'éthique de la recherche en robotique, le respect de la vie privée doit être une priorité, dans la mesure où les systèmes d'intelligence artificielle et les robots posent de nouvelles difficultés. La CERNA a ainsi formulé neuf préconisations générales, sept sur l'autonomie, cinq sur l'imitation du vivant et quatre sur l'homme augmenté ; elles sont rappelées dans notre étude.

S'agissant des aspects juridiques, nous pourrons faire de la prospective concernant l'autorisation de commercialisation ou le régime de responsabilité applicable. Mettre en place une responsabilité en cascade, instituer des systèmes d'assurance spécifique ou reconnaître une personnalité juridique des robots sont des pistes innovantes que nous n'avons pas encore explorées. Mais à qui faudra-t-il accorder la personnalité juridique : au robot dans son ensemble ou à son intelligence artificielle ? Dans la mesure où le système d'intelligence artificielle pourra migrer d'un corps robotique à un autre, la partie physique du robot ne serait qu'un contenant destiné à recevoir, pour un temps donné, un système. Il pourrait donc être opportun d'opérer une discrimination entre la partie physique et la partie informatique du robot en vue de les soumettre à des régimes juridiques différents, notamment en matière de responsabilité. Il faudrait alors pouvoir, tel l'historien Ernst Kantorowicz distinguant les deux corps du roi, discerner les deux corps du robot.

Dans le contexte que nous vous avons présenté, nous proposons à la fois de ne pas constituer de groupe de travail auprès de nous, de mener des auditions bilatérales, d'organiser deux auditions publiques d'une journée sous la forme de tables rondes, de recourir à un expert et de prévoir des déplacements en France, en Europe et aux États-Unis d'Amérique. Sous réserve d'approbation de la présente étude par les membres de l'OPECST, l'engagement de dépenses afférent sera soumis en juillet 2016 aux Questeurs de l'Assemblée nationale, puis aux Questeurs du Sénat.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion