Danger de l’intelligence artificielle : réalité ou (science-)fiction ?

Stéphanie Lavaud

18 juillet 2018

France – Si les progrès en intelligence artificielle apparaissent d’abord et avant tout comme bénéfiques, ils comportent aussi des risques – largement été mis en exergue par des productions artistiques -  et qu’il serait malhonnête de nier. Sachant quand même que la menace suprême, celle qui verrait l’avènement d’une super-intelligence aller à l’encontre du bien de l’homme ou de l’humanité, n’a non seulement rien d’une certitude, mais n’est certainement pas à craindre dans un avenir proche. Ce qui n’empêche pas d’y réfléchir collectivement pour l’identifier et l’anticiper.

Real Humans

« Metropolis », « 2001, l'Odyssée de l'espace », « Blade runner », « Tron », « Terminator », « Matrix », « A.I. », « Wall-E », « Eva », « Transcendance », « Her », ou, encore, dernièrement « Real Humans », « Ghost in the Shell »…Les relations entre intelligence artificielle et espèce humaine sont au cœur de l'intrigue de nombreux films ou séries télévisées, et souvent pour le pire plutôt que le meilleur. L’hostilité de la machine, conçue par l’homme, mais devenue incontrôlable et des risques qu’elle lui ferait alors courir, alimente les fantasmes depuis 1927.

Mais ce n’est que depuis quelques années seulement que l’inquiétude autour de l’intelligence artificielle a fait irruption dans le débat public, avec la diffusion d'une lettre d'avertissement sur les dangers potentiels de l'intelligence artificielle, publiée en janvier 2015 et signée par 700 personnalités de monde de l’IA, parmi lesquels l’astrophysicien Stephen Hawking,  le co-fondateur d’Apple Steve Wozniak, le patron de Tesla Elon Musk, le responsable de l’IA chez Facebook Yann LeCun ou encore le professeur de philosophie Nick Bostrom  (voir encadré ci-dessous) – rejoints par plus de 8 000 signataires à ce jour.

Comme un rappel rabelaisien du « science sans conscience n'est que ruine de l'âme », ces personnalités, et beaucoup d’autres, bien conscientes de la progression exponentielle de la recherche en IA et de son impact grandissant sur la société actuelle (reconnaissance vocale, classements d’images, véhicules autonomes, outils de traduction simultanée, assistants personnels, etc.) ont choisi d’alerter l’opinion publique sur l’important de récolter ses avantages « tout en évitant ses pièges potentiels », qu’il s’agisse du risque de voir les machines prendre le pouvoir comme dans Terminator ou plus immédiat d'un chômage massif avec accroissement des inégalités provoqué par le développement de robots-travailleurs au profit de quelques-uns accroissant les inégalités. Ils invitent donc à une orientation éthique des travaux de l'IA et à une réflexion globale sur la place des machines intelligentes dans la société.

Que se passera-t-il quand les machines deviendront superintelligentes ?

« La plupart du temps, les machines sont très inférieures aux hommes en ce qui concerne l’intelligence générale. Et pourtant un jour elles seront (nous l’avons suggéré) superintelligentes. Comment cela va-t-il se passer ? » s’interroge Nick Bostrom, philosophe et spécialiste des technologies émergentes de 45 ans, dans «  Superintelligence: Paths, Dangers, Strategies ». Et c’est là tout le sujet de son ouvrage paru en 2014, devenu un best-seller traduit en 19 langues et qui fait référence en la matière.

A supposer qu’une intelligence soit capable de passer d’un niveau humain à un niveau surhumain, souhaiterait-elle prendre le pouvoir, quelles qu’en soient les raisons – l’auteur démontre, exemples à l'appui, que l’enfer peut être pavé de bonnes intentions, même pour une superintelligence – et, devenir hostile à la survie de l’humanité ? Et enfin, le pourrait-elle ?

Dans ce livre très complet (de près de 400 pages), le directeur de l’Institut pour le futur de l'humanité de l'université d'Oxford échafaude toute sorte de scénarios afin de répondre à ces questions et livre le fruit de sa réflexion sans alarmisme. Le tout est écrit sur un mode très anglo-saxon, avec la volonté d’être compréhensible par tous, y compris des non-geeks – qui se régaleront avec les encadrés très pointus –, et non dénué d’humour ! Bill Gates et Elon Musk l’ont chaudement recommandé, nous aussi !

 

Le livre est sorti en version française en octobre 2017 aux Editions Dunod, 464 p, 18 €.

Faut-il avoir peur de la singularité ?

« Terminator », « Matrix », « Transcendance »…Autant de cartons au box-office qui ont su captiver le spectateur en jouant sur sa peur de la « singularité technologique (ou singularité) ». Une appellation un peu ésotérique qu’écrivains et chercheurs en intelligence artificielle ont donné au passage d’une IA faible (celle que l’on connait aujourd’hui) à une IA forte, c’est-à-dire capable d’une totale autonomie, d’une intelligence supérieure à l’homme (la superintelligence décrite par Nick Bostrom) et donc d’une potentielle prise de pouvoir sur l’homme.

On se rappelle à ce propos de discours catastrophistes issus de figures médiatiques comme Stephen Hawking, qui avait déclaré à la BBC : « je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ». Ou encore de Bill Gates, le fondateur de Microsoft, qui prédisait en 2015 : « dans quelques décennies, l'intelligence sera suffisamment puissante pour poser des problèmes ».

Ces inquiétudes ont d'ailleurs conduit plusieurs spécialistes de l'intelligence artificielle et de la robotique à se réunir à Asilomar, en Californie en janvier 2017 lors de la conférence dénommée « Beneficial AI 2017 » [1]. Aux termes de la rencontre, les spécialistes ont procédé à l'adoption de vingt-trois principes baptisés « Les 23 principes d'Asilomar » et dont l'objectif était d'encadrer le développement de l'intelligence artificielle.

Ainsi, le principe 17 « anti-renversement » : le pouvoir obtenu en contrôlant des intelligences artificielles très avancées devrait être soumis au respect et à l'amélioration des processus civiques dont dépend le bien-être de la société plutôt qu'à leur détournement à d'autres fins.

Ou le 23ième sur le « bien commun » : les intelligences surdéveloppées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l'humanité plutôt que pour un État ou une entreprise.

Un prélude à un droit de la robotique qui n'est pas sans évoquer les romans visionnaires d'Isaac Asimov (voir encadré ci-après).

Des « lois d'Asimov » à un droit de la robotique ?

Dès ses premiers romans, l'écrivain de science-fiction Isaac Asimov a formalisé ses « trois lois » applicables au comportement des robots. Ces « trois lois », qui s'apparentent à des règles éthiques, sont les suivantes :

- première loi, « un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger » ;

- deuxième loi, « un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi » ;

- troisième loi, « un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi ».

Au fil de ses romans et de l’évolution de sa réflexion, Isaac Asimov arrive à la conclusion de la nécessité d’ajouter une quatrième loi, dite « loi zéro ». Elle consiste en une généralisation de la première loi, par le passage d'un individu à l'humanité toute entière : « nulle machine ne peut porter atteinte à l'humanité ni, restant passive, laisser l'humanité exposée au danger ». Une dernière loi aux conséquences considérables puisqu’elle donne le droit aux robots de s’attaquer à des hommes si ceux-ci mettent l’humanité en danger.

Confiants, réservés, ou réfractaires les Français ?

On l’a vu, les films de science-fiction sont plus enclins à montrer les conséquences les plus terribles de l’IA, à la présenter comme une menace existentielle pour notre vie et notre santé, qu’à mettre en avant ses atouts. Et comme les blockbusters sont souvent la seule référence du grand public quant à l’intelligence artificielle – avec la littérature, mais dans une moins grande mesure –, son acceptabilité sociale en pâtit comme en témoignent les sondages d'opinion. L’enquête Ifop réalisée en 2017 reflète assez bien l’ambivalence des Français sur la question.

Lucides, 85% d’entre pensent que l’IA va être une véritable révolution, au même titre qu’Internet. Une révolution qui aura lieu dans moins de 10 ans pour 80% d’entre eux. Elle est perçue comme porteuse d’opportunités pour la vie quotidienne par une petite majorité des Français (54%) contre 26% qui la voit comme comme menaçante et 20% ni l’un ni l’autre. La santé est le secteur où elle leur semble d’emblée le plus utile. Pourtant, un sentiment de menace très fort plane sur des dimensions plus sociétales : 47% des Français considèrent que l’IA constitue plutôt une menace pour la démocratie, 70% pour la protection de la vie privée tandis que 64% y voient plutôt une menace pour l’emploi.

Les Français sont-ils confiants, réservés, ou réfractaires au recours de l’IA dans leur parcours médical ? Une étude toute récente commanditée par OpenText et réalisée en 2018 via Google Survey dans 8 pays dont la France (2000 personnes interrogées) montre que 45 % des Français pensent que l'IA permet l’obtention de diagnostics plus précis, un chiffre plus élevé que chez les anglo-saxons (Australie, Canada, Etats-Unis, Royaume-Uni) qui répondent à l’affirmative à hauteur de 30 % seulement. Pour 29 % Français interrogés, l’avantage principal consiste en une plus grande rapidité de diagnostic. En revanche, seul 1 Français sur 3 ferait confiance au diagnostic d’une intelligence artificielle, dont 22 % voudraient que le diagnostic soit confirmé par un médecin.

« Dans la vie, rien n'est à craindre, tout est à comprendre » disait Marie Curie. L’avenir dira si elle voyait juste.

 

Prédire la mort ? Il y a une IA pour ça

Une IA pourra-t-elle à terme prédire le décès d’un patient hospitalisé ? C’est en tout cas ce à quoi des chercheurs travaillent, et notamment ceux de Google. L’équipe a publié en mai dernier dans Nature sur les capacités Google à utiliser ces modèles d’analyse des données médicales. En prenant l'exemple d'une personne atteinte de cancer du sein métastatique, l’IA a révélé, au lendemain de son admission et en analysant 175 639 données différentes, que celle-ci avait 19,9 % de risque de mourir à l’hôpital. L’hôpital estimait, lui, cette probabilité à 9,3 %. Moins de deux semaines après, la patiente est décédée. Pourquoi une telle différence ? Parce que l’IA de Google est capable d’extraire toutes les données disponibles du dossier médical informatisée, y compris les notes prises à la main par les médecins, personnel infirmier et les autres professionnels de santé.

Aussi performant soit-il, le concept – qui nous rappelle à notre obsolescence programmée – fait froid dans le dos, et on en viendrait presque à regretter les prédictions d’Oscar, le chat du Dr David Dosa[3].

 

 

Commenter

3090D553-9492-4563-8681-AD288FA52ACE
Les commentaires peuvent être sujets à modération. Veuillez consulter les Conditions d'utilisation du forum.

Traitement....