Chômage de masse, armes autonomes, Terminator en puissance... Faut-il avoir peur de l'intelligence artificielle ?
Deux Français sur trois se disent inquiets des développements de l'intelligence artificielle, selon un sondage publié par "Les Echos".
Jouons-nous aux apprentis sorciers avec l'intelligence artificielle (IA) ? Les récents progrès dans ce domaine, incarnés par la victoire, en 2016, d'un programme développé par une filiale de Google contre le champion du monde de jeu de Go, fascinent autant qu'ils inquiètent. La controverse agite aussi les hautes sphères de la Silicon Valley : cet été, le fondateur de Tesla et SpaceX Elon Musk et le patron de Facebook Mark Zuckerberg se sont écharpés, par médias interposés, au sujet des risques et des opportunités en la matière.
En France aussi, les possibilités grandissantes offertes par les machines inquiètent. Selon un sondage réalisé par l'Ifop et dévoilé le 10 octobre par Les Echos (article abonnés), deux Français sur trois se déclarent "inquiets" face au développement de l'intelligence artificielle. Spectre d'un chômage de masse, invention d'armes autonomes, voire prise de conscience par les machines de leur condition... Les craintes sont nombreuses. Et justifiées ? Franceinfo fait le tour de la question.
L'intelligence artificielle va massivement détruire des emplois
La peur. C'est l'une des inquiétudes les plus prégnantes sur le sujet. Un Français sur deux estime, dans un sondage publié par Les Echos, que le développement de l'intelligence artificielle va directement changer son travail. En automatisant certaines tâches jusqu'à présent épargnées par la mécanisation, l'IA menacerait des pans entiers de l'économie et pourrait mettre des centaines de milliers de personnes au chômage.
L'innovation qui incarne le mieux cette crainte est sans doute la voiture autonome. Après une période de test de trois mois à Pittsburgh (Etats-Unis), le service de transport Uber a déployé à San Francisco une flotte de véhicules automes en décembre. De quoi transformer en profondeur une industrie déjà en crise ?
La réalité. Sur ce point, les avis des experts divergent. En 2013, une étude menée par un économiste et un spécialiste de l'apprentissage des machines de la prestigieuse université d'Oxford (Royaume-Uni) avait fait sensation. Elle estimait que 47% des emplois risquaient de disparaître aux Etats-Unis en raison de l'automatisation. Parmi les métiers particulièrement menacés : les télémarketeurs, les caissiers ou les chauffeurs de taxis. En mai 2016, trois chercheurs de l'Organisation de coopération et de développement économiques (OCDE) tempéraient ce constat et évaluaient que ce risque concernait 9% des emplois dans ses pays membres, rapporte Le Monde.
"Cette inquiétude est légitime, car elle est ancienne : chaque avancée technologique entraîne une modification de la manière de travailler", commente pour franceinfo Jean-Gabriel Ganascia, chercheur en intelligence artificielle, professeur à l'université Pierre-et-Marie-Curie (Paris-VI), et président du comité d'éthique du CNRS.
Le développement des intelligences artificielles va demander de nouvelles compétences et implique de repenser la manière dont nous allons nous former tout au long de la vie.
Jean-Gabriel Ganascia, chercheur en intelligence artificielleà franceinfo
Dans un premier temps, plusieurs métiers pourraient ainsi évoluer plutôt que de disparaître complètement. Derrière le volant des voitures autonomes testées par Uber se trouve en effet systématiquement un conducteur capable d'identifier une situation délicate à gérer pour l'IA, et de reprendre la main le cas échéant.
Cité par Le Monde (article abonnés), le directeur du département IA de l'entreprise Accenture Technology indique de son côté que les "solutions déployées aujourd'hui par les entreprises consistent à prendre en charge des tâches récurrentes", comme le premier tri des candidatures lors d'un recrutement. Des délégations qui, selon lui, "permettent aux collaborateurs de se concentrer davantage sur des activités plus créatives". Et finalement plus humaines.
L'IA va créer des robots tueurs
La peur. Les terrains de guerre vont-ils bientôt être peuplés de robots équipés d'une caméra, capables d'identifier automatiquement une cible et d'ouvrir le feu sans ordre humain ? Il n'est pas interdit de l'envisager : l'analyse d'images en temps réel par des programmes permet aujourd'hui à Facebook de retrouver l'identité de vos amis sur une photo de vacances, ou à une voiture autonome d'identifier une ligne continue sur la chaussée et ainsi de ne pas doubler un véhicule.
De là à s'inquiéter de l'arrivée d'un Terminator ? Certains, comme Bruno Stagno, directeur exécutif adjoint de Human Rights Watch, estiment auprès de franceinfo que "ce n’est pas de la science-fiction". Pour lui, "cela pose une grande question de moralité pour l’humanité car [ces robots tueurs] décideraient de manière autonome et indépendante qui tuer pendant un conflit".
La réalité. Début juillet, l'entreprise Kalachnikov, qui produit le célèbre fusil d'assaut AK-47, a annoncé à l'agence russe Tass avoir développé un module de combat automatisé capable de repérer seul des cibles. Signe que le sujet préoccupe, plus d'un millier d'acteurs de la science et du secteur des nouvelles technologies ont rédigé, fin juillet, une lettre ouverte appelant à un traité international interdisant les "armes autonomes offensives".
Parmi les signataires se trouvent des personnalités éminemment respectées, comme le fondateur de SpaceX Elon Musk, le cofondateur d'Apple Steve Wozniak, ou encore le directeur du département de Facebook dédié à l'intelligence artificielle, Yann LeCun.
L'intelligence artificielle a atteint un point où le déploiement de telles machines est réalisable d'ici quelques années, non quelques décennies. Les enjeux sont immenses : les armes autonomes sont décrites comme la troisième révolution dans le domaine militaire.
Les signataires d'un appel à l'interdiction des armes autonomes
Une analyse que ne partage pas Jean-Gabriel Ganascia. "Il faut spécifier à la machine ce qu'est une cible pour que celle-ci puisse la reconnaître : cela peut par exemple être un individu qui porte du métal sur lui dans un terrain de guerre, détaille le chercheur. Mais craindre que cette décision échappe aux humains relève de la mauvaise foi comme la définissait Sartre [c'est-à-dire un moyen de se défausser de notre liberté et de notre responsabilité]." Le spécialiste préfère mettre en avant des technologies défensives, comme des robots capables de détecter la présence de mines terrestres.
L'IA va nous plonger dans une société de surveillance généralisée
La peur. Les applications de l'IA sont déjà visibles au quotidien lorsque vous naviguez sur internet. En fonction de vos recherches ou de vos abonnements sur les réseaux sociaux, des algorithmes affichent de la publicité ciblée sur vos sites ou applications préférés.
Un avant-goût des années à venir qui inquiète Cédric Sauviat. Passionné par les questions d'éthique, cet ingénieur de formation a créé en 2015 l'Association française contre l'intelligence artificielle. "C'est une technologie qui supprime la vie privée. En se servant des traces numériques des individus, l'intelligence artificielle met à la disposition de ceux qui peuvent s'en servir l'intimité de tout le monde. Et ce mouvement est amené à s'amplifier, à mesure que nous serons de plus en plus entourés d'objets connectés qui vont exploiter ces données", s'alarme-t-il auprès de franceinfo.
La réalité. Cédric Sauviat partage cette crainte avec Oren Etzioni. Directeur de l'institut Allen pour l'intelligence artificielle, un centre de recherches basé à Washington et créé par le cofondateur de Microsoft, il a publié une tribune dans le New York Times début septembre pour proposer d'instaurer trois grandes lois de régulation pour l'intelligence artificielle, à l'image des trois lois de la robotique imaginées par l'écrivain de science-fiction Isaac Asimov en 1942.
La dernière des règles imaginées par Oren Etzioni indique qu'une intelligence artificielle ne peut pas conserver ou divulguer des données confidentielles sans l'accord explicite de l'individu qui en est la source. Et de pointer les enjeux de confidentialité posés par les assistants intelligents, comme les enceintes connectées de Google, Home, et celle d'Amazon, Echo.
Pensez à toutes les conversations auxquelles Amazon Echo est exposé, ou à ce que votre enfant pourrait par mégarde divulguer à une poupée Barbie qui serait connectée. Même un aspirateur automatique apparemment inoffensif crée une carte de votre appartement.
Oren Etzioni, directeur de l'institut Allen pour l'intelligence artificielleau "New York Times"
Autre crainte récurrente : voir des géants du numérique mettre la main sur des données médicales sans l'accord des patients concernés. Cette situation s'est déjà présentée en Europe : le service public de santé britannique (NHS) a en effet conclu un partenariat avec DeepMind, la branche de Google dédiée au développement de l'intelligence artificielle.
Afin de tester une application permettant de repérer facilement des cas d'insuffisance rénale, le NHS a transmis, depuis novembre 2015, des informations médicales d'environ 1,6 million de patients des hôpitaux londoniens. Des données certes anonymisées, mais pour lesquelles les intéressés n'avaient pas été consultés. De quoi valoir au NHS un sévère rappel à l'ordre de la part de l'autorité britannique de protection des données personnelles au début de l'été, rapportait à l'époque Numerama.
L'IA va nous échapper et décider de détruire l'humanité
La peur. Dans les films Terminator ou encore Matrix, l'intelligence artificielle a atteint un tel degré de sophistication que les machines qui en sont équipées ont pris conscience de leur condition et finissent par se retourner contre leurs créateurs.
Cette théorie, dite de la "singularité technologique", a de nombreux adeptes. Le plus célèbre d'entre eux est sans doute l'ingénieur américain Raymond Kurzweil, embauché par Google en 2013 pour travailler sur l'IA. Selon lui, le point de bascule serait attendu pour 2045 : il s'agirait du moment où, portée par un progrès toujours plus rapide, l'intelligence des machines dépasserait celle des hommes.
Les tenants de cette théorie s'appuient sur les progrès fulgurants qu'a connus l'IA depuis quelques années. La clé de cette accélération soudaine réside dans le perfectionnement des moyens technologiques, qui ont permis de rendre bien plus efficace la technique de l'apprentissage profond ("deep learning"), longtemps boudée par les chercheurs, raconte Le Monde. C'est ainsi qu'un assistant vocal comme Siri arrive à déchiffrer instantanément une phrase que vous prononcez à votre iPhone, ou que Facebook détecte automatiquement des images représentant de la nudité pour les interdire sur sa plateforme.
La réalité. Cette théorie de la singularité a le don d'agacer les spécialistes interrogés par franceinfo. "Les progrès dans le domaine de l'intelligence artificielle ont été très importants depuis dix ans, qu'il s'agisse du jeu de Go avec DeepMind, de robotique, de vision par les machines ou même de l'apprentissage, qui a un champ d'application très large", explique Jean Ponce, ancien directeur du département informatique de l'Ecole normale supérieure, aujourd'hui chercheur à l'Institut national de recherche en informatique et en automatique (Inria). Mais pour ce spécialiste, qui étudie la vision artificielle depuis le début des années 1980, concevoir un programme sachant tout faire et capable d'acquérir une autonomie totale est une chimère : "Aujourd'hui, aucune machine n'est réellement intelligente au sens où certains apôtres de l'apocalypse le pensent", assène-t-il.
Je ne vois pas en quoi on en serait plus proche aujourd'hui qu'il y a trente ans de créer une machine véritablement intelligente ! En l'état actuel, la peur de cette singularité me semble futile d'un point de vue technique.
Jean Ponce, chercheur en vision artificielleà franceinfo
"C'est totalement illusoire, abonde le professeur Jean-Gabriel Ganascia. Cela fait bien longtemps qu'une calculatrice, par exemple, surpasse l'homme en vitesse de calcul, et cela n'a effrayé personne."
Un point de vue que ne partage pas du tout Cédric Sauviat, le président de l'Association française contre l'intelligence artificielle. Selon lui, les scientifiques qui travaillent sur le sujet "sont experts pour se tromper et manquer de lucidité". "A partir du moment où l'homme a pour objectif de créer des machines qui peuvent reproduire des fonctions du cerveau humain, il va forcément y arriver si l'on prend en compte l'augmentation exponentielle de la puissance de calcul disponible".
Pour cet ingénieur, la technique repose sur une idée de transgression perpétuelle des limites existantes. "Les spécialistes en informatique sont les moins bien placés pour juger des conséquences morales, économiques ou sociales de leurs travaux", ajoute-t-il, avant d'effectuer un parallèle avec la médecine.
Regardez le professeur Jérôme Lejeune, qui a découvert l'anomalie responsable de la trisomie 21 : il était loin d'imaginer que son invention entraînerait des avortements préventifs, qu'il a d'ailleurs déplorés.
Cédric Sauviat, créateur de l'Association française contre l'intelligence artificielleà franceinfo
"C'est un discours que l'on entend dans la science-fiction depuis les années 1940, et je suis tout à fait favorable à la discussion et à l'expression du débat", réplique Jean Ponce. Le chercheur reconnaît d'ailleurs sans problème "ne pas être le mieux placé pour jauger les conséquences sur la société des avancées technologiques".
"En revanche, je crois ne pas être trop mal placé pour affirmer qu'il n'y a pas d'indice montrant que les machines intelligentes sont pour demain, continue le spécialiste. Et si je l'affirme, ce n'est pas parce que j'ai la tête dans le guidon de mes recherches : c'est parce que je suis réaliste sur l'état de la technologie et de ses avancées. Pour moi, les attentes excessives en matière d'intelligence artificielle, qu'elles soient positives ou alarmistes, sont dangereuses".
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.