La Révolution de l’IA : Le Chemin vers la Superintelligence

Traduction officielle de « The AI Revolution: The Road to Superintelligence » du blog Wait But Why de Tim Urban.

PDF :  On a fait de cet article un chouette PDF pour les impressions et les consultations hors-ligne. Pour l’acheter, c’est par ici (version en anglais). (Obtenir un aperçu.)

Note : La raison pour laquelle cet article m’a pris trois semaines est que, en faisant de minutieuses recherches sur l’Intelligence Artificielle, je suis tombé sur des trucs incroyables. J’ai compris assez vite que ce qui est en train de se passer dans le monde de l’IA n’est pas juste un sujet important ; c’est LE sujet le plus important pour notre avenir. J’ai donc voulu apprendre autant de choses que possible là-dessus, et ensuite, j’ai voulu m’assurer que j’écrirais un article qui explique réellement l’ensemble de la situation et en quoi c’est si important. Sans surprise, ça s’est avéré être abominablement long, c’est pourquoi j’ai divisé l’article en deux parties. Voici la Partie 1 – la Partie 2 est ici (en anglais).

_______________

Nous sommes à la veille d’un changement comparable à l’émergence de la vie humaine sur Terre. – Vernor Vinge

Ça fait quoi de se trouver ici ?

Cela semble plutôt bouleversant de se trouver là – mais vous devez vous souvenir de quelque chose lorsque vous êtes sur un graphique temporel : vous ne pouvez pas voir ce qui se trouve à votre droite. Donc en fait, voilà comment on se sent lorsqu’on se trouve là :

Ça doit paraître relativement normal, du coup…

_______________

Le Futur Lointain – Arrivée imminente

Imaginez que vous disposiez d’une machine à voyager dans le temps qui vous amène en 1750 – une époque durant laquelle le monde vivait une panne de courant permanente, où la communication longue distance revenait à crier très fort ou à tirer un coup de canon, et où tout moyen de transport reposait sur le foin. Une fois arrivé là-bas, vous attrapez un type, le ramenez en 2015, et vous vous baladez avec lui en observant ses réactions. Pour nous, c’est impossible de comprendre ce que ça lui ferait de voir des capsules brillantes faire la course sur l’autoroute, de parler à des personnes qui se trouvaient de l’autre côté de l’océan plus tôt dans la journée, de regarder des compétitions sportives ayant lieux à des milliers de kilomètres, d’écouter un morceau de musique ayant été joué il y a 50 ans, et de s’amuser avec un rectangle magique qu’on peut utiliser pour capturer une image de la vraie vie, ou enregistrer un moment en direct, générer une carte avec un point bleu paranormal qui indique où on se trouve, voir le visage de quelqu’un et discuter avec alors qu’il se trouve à l’autre bout du pays, et toute autre inconcevable sorcellerie. Tout ça, bien sûr, avant que vous ne lui montriez Internet ou que vous ne lui expliquiez des choses du genre la Station Spatiale Internationale, le Grand Collisionneur de Hadrons, les armes nucléaires, ou la relativité générale.

Cette expérience ne serait pour lui ni surprenante, ni choquante, ni même époustouflante – ces mots ne sont pas assez forts. En fait, il pourrait bien en mourir.

Mais voilà le truc intéressant – s’il retournait en 1750 et, jaloux que l’on ait pu observer ses réactions, il décidait de faire la même chose ; il prendrait alors une machine à voyager dans le temps, remonterait d’autant d’années, trouverait quelqu’un de l’an 1500 (environ), le ramènerait en 1750 et lui montrerait tout ce qu’il y a à voir. Le gars de 1500 serait choqué par tout un tas de choses – mais il n’en mourrait pas. Ça serait une expérience beaucoup moins incroyable pour lui, car 1500 et 1750 étaient des époques très différentes, certes, mais elles l’étaient beaucoup moins que 1750 et 2015. Le gars de 1500 apprendrait des trucs totalement hallucinants sur l’espace et la physique, il serait impressionné par la transformation de l’Europe et sa nouvelle marotte impérialiste, et il devrait revoir sérieusement sa conception de la carte du monde. Mais être témoin de la vie de tous les jours en 1750 – transports, communication, etc. – ne le tuerait certainement pas.

Non, pour que le gars de 1750 s’amuse autant que nous, il faudrait qu’il aille bien plus loin dans le passé – peut-être jusqu’en 12 000 avant J.-C., avant que la Première Révolution Agricole ne donne naissance aux premières villes et au concept de civilisation. Si quelqu’un venant du monde des véritables chasseurs-cueilleurs – d’un temps où les humains n’étaient que, plus ou moins, une espèce animale parmi d’autres – voyait les vastes empires humains de 1750 avec les églises imposantes, les vaisseaux pouvant traverser des océans, leur concept de vivre « à l’intérieur », et leur énorme montagne de savoir accumulé ainsi que leurs découvertes – il en mourrait probablement.

Et si, après sa mort, c’est lui qui devenait jaloux et qu’il voulait faire la même chose. S’il retournait 12 000 ans en arrière jusqu’en 24 000 avant J.-C., attrapait un gars et le ramenait en 12 000 avant J.-C., il lui montrerait tout ce qu’il y a à voir et le gars serait, genre, « Euh, ouais ok, et alors ? ». Pour que le type de 12 000 avant J.-C. s’amuse autant, il faudrait qu’il remonte de 100 000 ans dans le passé et qu’il trouve quelqu’un à qui il pourrait montrer le feu et le langage pour la première fois.

Pour que quelqu’un soit transporté dans le futur et soit si choqué par cette expérience qu’il en meure, il faudrait qu’il avance de suffisamment d’années pour qu’un « niveau de progrès morbide », ou Unité de Progrès Morbide (UPM) soit atteinte. Donc, au temps des chasseurs-cueilleurs, une UPM nécessitait 100 000 ans, mais au taux de la Révolution Agricole, elle ne prenait que 12 000 ans. Le monde qui suivit la Révolution Industrielle se transforma tellement vite qu’une personne de 1750 n’aurait besoin d’avancer que de 200 ans dans le futur pour qu’une UPM ne se produise.

Ce modèle – le progrès humain qui avance de plus en plus vite – est ce que le futuriste Ray Kurzweil appelle la Loi du Progrès Accéléré (« Law of Accelerating Returns ») de l’histoire humaine. Cela existe parce que les sociétés plus avancées ont une capacité à progresser à un rythme plus élevé que les sociétés moins avancées – parce qu’elles sont plus avancées. L’humanité du XIXème siècle avait plus de connaissances et de meilleures technologies que l’humanité du XVème siècle, c’est donc sans surprise que l’humanité fit bien plus d’avancées au XIXème siècle qu’au XVème siècle – l’humanité du XVème siècle ne fait pas du tout le poids face à l’humanité du XIXème siècle.11<—clickez dessus

Ça marche aussi à de plus petites échelles. Le film Retour Vers Le Futur est sorti en 1985 et « le passé » nous ramène en 1955. Dans le film, quand Michael J. Fox retourne en 1955, il est surpris par la nouveauté des télés, le prix des sodas, le manque d’amour envers le cri strident de la guitare électrique, et les variations de l’argot. C’était un monde différent, certes – mais si le film avait été tourné aujourd’hui et que le passé se trouvait en 1985, le film aurait pu être bien plus amusant avec de bien plus grandes différences. Le personnage se serait retrouvé à une époque sans ordinateurs, sans Internet, et sans téléphones portables — le Marty McFly d’aujourd’hui, un adolescent né à la fin des années 90, serait beaucoup plus décalé en 1985 que le Marty McFly du film l’était en 1955.

Il en est  ainsi pour la même raison que l’on a abordé plus haut – La Loi du Progrès Accéléré. Le rythme moyen d’avancement était plus haut entre 1985 et 2015 qu’entre 1955 et 1985 – car c’était un monde plus avancé – bien plus de choses se passèrent au cours des 30 dernières années que pendant les 30 années précédentes.

Donc – les avancées deviennent de plus en plus importantes, et arrivent de plus en plus vite. Cela suggère un futur plutôt intense, pas vrai ?

Kurzweil suggère que le progrès réalisé lors du XXème siècle aurait pu être achevé en seulement 20 ans au rythme d’avancement de l’année 2000 – en d’autres termes, en 2000, le rythme de progrès était cinq fois plus rapide que le rythme de progrès moyen du XXème siècle. Il pense que l’équivalent du progrès réalisé au XXème siècle s’est produit à nouveau entre 2000 et 2014, et qu’il s’en produira encore un autre d’ici 2021, soit dans seulement 7 ans. Une vingtaine d’années plus tard, il pense que l’équivalent du progrès réalisé au XXème siècle se produira plusieurs fois la même année, et encore après, plusieurs fois par mois. En tout et pour tout, à cause de la Loi du Progrès Accéléré, Kurzweil pense que le XXIème siècle connaîtra un progrès équivalent à 1 000 fois celui réalisé au XXème siècle.2

Si Kurzweil et ses partisans ont raison, alors on risque d’être aussi époustouflé par 2030 que notre gars de 1750 l’a été par 2015 – la prochaine UPM pourrait prendre une vingtaine d’années seulement – et le monde de 2050 pourrait être tellement différent du monde d’aujourd’hui qu’on le reconnaîtrait à peine.

Ce n’est pas de la science-fiction. C’est ce que plein de scientifiques plus intelligents et plus cultivés que vous ou moi pensent fermement – et si on regarde l’Histoire, ça semble assez logique, comme prédiction.

Alors pourquoi, quand vous m’entendez dire quelque chose du genre « le monde dans 35 ans sera sans doute absolument méconnaissable », est-ce que vous pensez, « Cool… mais… naaaaaaan… » ? Voici trois raisons pour lesquelles nous sommes sceptiques face à des prévisions exotiques du futur :

1) Lorsqu’il s’agit de l’Histoire, nous raisonnons en lignes droites. Quand nous imaginons le progrès des 30 prochaines années, nous regardons le progrès des 30 dernières pour estimer ce qu’il se passera. Quand on imagine les changements qui auront lieu au cours du XXIème siècle, on prend juste le progrès du XXème siècle et on le transpose à partir de l’an 2000. Notre gars de 1750 a fait la même erreur lorsqu’il a pris quelqu’un de 1500. Il s’attendait à le faire halluciner comme lui avait halluciné en parcourant la même temporalité. C’est plus intuitif pour nous de penser de façon linéaire, alors que nous devrions penser de façon exponentielle. Quelqu’un de plus malin à ce sujet ne prédirait pas les 30 années à venir en se basant sur les 30 précédentes, mais en regardant le rythme de progrès actuel pour émettre un avis. Ça serait plus précis mais encore loin de la vérité. Afin de penser notre futur correctement, vous devez imaginer que les choses bougent à un rythme beaucoup plus élevé qu’actuellement.

2) La trajectoire de l’Histoire très récente raconte souvent une histoire déformée. D’abord, même une courbe exponentielle semble linéaire quand on n’en regarde qu’une petite partie, de la même façon que si vous regardez une partie d’un cercle de très près, ça ressemble presque à une droite. Ensuite, la croissance exponentielle n’est pas totalement uniforme. Kurzweil explique que le progrès se déroule en une succession de « courbes en S » :

Un S est créé par la vague de progrès qui survient lorsqu’un nouveau paradigme déferle sur le monde. La courbe connaît trois phases :

  1. Croissance lente (phase initiale de la croissance exponentielle)
  2. Croissance rapide (phase tardive et explosive de la croissance exponentielle)
  3. Un nivellement tandis que le paradigme arrive à maturité3

Si vous regardez uniquement l’histoire récente, votre position sur la courbe en S au moment présent peut obscurcir votre perception de la vitesse d’avancée des choses. La portion de temps entre 1995 et 2007 a vu l’explosion d’Internet, l’introduction de Microsoft, Google et Facebook au sein de l’intelligence collective, la naissance des réseaux sociaux, et l’apparition des téléphones portables puis des smartphones. C’était la Phase 2 : la poussée de croissance du S. 2008 à 2015 a néanmoins été moins révolutionnaire, en tout cas au niveau technologique. Quelqu’un pensant aujourd’hui au futur pourrait examiner les dernières années pour jauger le rythme actuel d’avancement, mais il passerait à côté du tableau dans son ensemble. En fait, une nouvelle et énorme poussée de croissance (Phase 2) est peut-être en préparation actuellement.

3) Notre propre expérience fait de nous des vieillards têtus lorsqu’il s’agit du futur. Nous basons nos idées sur notre expérience personnelle du monde, et cette expérience a enraciné dans nos têtes le rythme de croissance du passé récent, et on s’attend à ce que les « choses se passent comme ça ». Nous sommes également limités par notre imagination, qui prend notre expérience et l’utilise pour fausser les prédictions futures – mais souvent, notre savoir ne nous permet pas de penser correctement le futur.2 Lorsqu’on entend une prédiction du futur qui contredit notre notion, basée sur l’expérience, de comment les choses marchent, notre instinct nous dit que cette prédiction est naïve. Si je vous dis, plus loin dans cet article, que vous pourriez vivre 150, ou 250 ans, ou ne pas mourir du tout, votre instinct vous dira « C’est stupide – s’il y a bien une chose que je sais de l’Histoire, c’est que tout le monde meurt ». Et effectivement, personne dans le passé n’a survécu à la mort. Mais personne n’avait fait voler d’avions avant que les avions ne soient inventés.

Donc même si naaaaaaaaaan… semble être une réaction adéquate en lisant cet article, eh bien ça ne l’est probablement pas. Le fait est que, si on est vraiment logique et que l’on s’attend à ce que les modèles historiques continuent de la sorte, on devrait conclure que beaucoup, beaucoup, beaucoup plus de choses changeront dans les décennies à venir que ce qu’on pourrait intuitivement penser. La logique suggère aussi que si l’espèce la plus avancée d’une planète continue à effectuer des bonds en avant de plus en plus grands à un rythme qui s’accélère, à un moment, elle fera un bond tellement énorme qu’il altérera la vie telle que nous la connaissons ainsi que la conception même de ce que signifie être humain – un peu comme quand l’évolution a continué de faire de grands bonds vers l’intelligence jusqu’à ce que finalement, elle fit un bond tellement grand pour aboutir à l’être humain, modifiant profondément ce que ça signifiait, pour toute créature, que de vivre sur la planète Terre. Et si vous passez un peu de temps à lire sur ce qui se passe aujourd’hui au niveau de la science et de la technologie, vous commencerez à voir un certain nombre de signes discrets qui impliquent que la vie telle que nous la connaissons actuellement ne peut pas résister au bond qui arrive.

_______________

Le chemin vers la Superintelligence

Qu’est-ce que l’IA ?

Si vous êtes comme moi, avant, vous pensiez que l’Intelligence Artificielle était un drôle de concept exclusif à la science-fiction ; mais, récemment, vous avez entendu des personnalités importantes la mentionner, et vous ne comprenez pas tout.

Il y a trois raisons pour lesquelles beaucoup de personnes ont du mal avec le terme d’IA :

1) Nous associons l’IA à des films. Star Wars. Terminator. 2001 : l’Odyssée de l’Espace. Même les Jetsons. Et ce sont des fictions, à l’image des robots qui sont fictifs. Donc l’IA nous semble un peu fictive aussi.

2) L’IA est un vaste sujet. Elle concerne la calculatrice de votre téléphone, les voitures sans pilote, et d’autres choses du futur qui changeront drastiquement le monde. L’IA correspond à toutes ces choses, et c’est déroutant.

3) Nous utilisons l’IA tout le temps dans nos vies quotidiennes, souvent sans savoir que c’est de l’IA. John McCarthy, qui déposa le terme « Intelligence Artificielle » en 1956, se plaignait que « dès lors que ça marche, plus personne ne l’appelle IA ».4À cause de ce phénomène, l’IA ressemble plus à une prédiction mythique du futur qu’à une réalité. En même temps, ça ressemble aussi à un concept pop du passé qui ne s’est jamais réalisé. Quand Ray Kurzweil entend des gens dire que l’IA a flétri dans les années 1980, il trouve que ça revient à dire que « le net est mort dans le fiasco de la bulle Internet du début des années 2000 »5

Donc clarifions les choses. Premièrement, arrêtez de penser à des robots. Un robot est le conteneur de l’IA. Il imite parfois les formes humaines, d’autre fois pas – mais l’IA est l’ordinateur à l’intérieur du robot. L’IA, c’est le cerveau, et le robot c’est le corps – si elle a un corps. Par exemple, le logiciel et les données qui se trouvent derrière Siri, c’est l’IA, la voix féminine que l’on entend, c’est une personnification de cette IA, et aucun robot n’est impliqué.

Deuxièmement, vous avez probablement entendu parler du terme « singularité » ou « singularité technologique ». Ce terme a été utilisé en maths pour décrire une situation de type asymptote dans laquelle les règles normales ne s’appliquent plus. Ce terme a aussi été utilisé en physique pour décrire des phénomènes comme un trou noir infiniment petit et dense, ou bien le point dans lequel on était tous entassés juste avant le Big Bang. Encore des situations où les règles usuelles ne s’appliquent plus. En 1993, Vernor Vinge écrit un essai célèbre dans lequel il applique le terme de singularité au moment où l’intelligence de notre technologie dépassera notre propre intelligence – un moment selon lui où la vie telle que nous la connaissons changera irréversiblement et où les règles normales ne s’appliqueront plus. Ray Kurzweil embrouilla un peu le propos en définissant la singularité comme le moment où la Loi du Progrès Accéléré atteint un rythme tellement extrême que le progrès technologique se produit à une allure quasi-infinie, et après quoi nous vivrons dans un tout nouveau monde. J’ai découvert qu’un bon nombre de penseurs de l’IA n’utilisent plus ce terme aujourd’hui, et il est un peu bizarre de toutes façons, donc je ne l’utiliserai pas beaucoup ici (même si nous nous concentrerons sur cette idée tout au long de cet article).

Enfin, alors qu’il existe plusieurs types ou formes d’IA, puisque l’IA est un concept assez vaste, les catégories importantes auxquelles nous devons réfléchir sont basées sur les calibres d’IA. Il y a trois calibres d’IA majeurs :

Calibre d’IA 1) L’Intelligence Artificielle Restreinte (IAR) : Parfois appelée IA Faible, l’Intelligence Artificielle Restreinte est une IA qui se spécialise dans un seul domaine. Il existe une IA capable de battre aux échecs le champion du monde de ladite discipline. Et elle ne sait rien faire d’autre. Demandez-lui de trouver une meilleure façon de stocker des données sur un disque dur, et elle vous regardera fixement avec des yeux vides.

Calibre d’IA 2) L’Intelligence Artificielle Générale (IAG) : Parfois appelée IA Forte, ou IA de Niveau Humain, l’Intelligence Artificielle Générale définit un ordinateur qui est dans l’ensemble aussi intelligent qu’un humain – une machine qui peut effectuer n’importe quelle tâche intellectuelle qu’un humain peut effectuer. Créer une IAG est une tâche beaucoup plus difficile que de créer une IAR, et il nous reste encore du chemin. La Professeure Linda Gottfredson décrit l’intelligence comme « une capacité mentale très générale qui, entre autres choses, implique la capacité de raisonner, planifier, résoudre des problèmes, penser de manière abstraite, comprendre des idées complexes, apprendre rapidement et apprendre de ses expériences ». L’IAG pourrait être capable de faire toutes ces choses aussi facilement que vous.

Calibre d’IA 3) La Superintelligence Artificielle (SIA) : Le philosophe d’Oxford Nick Bostrom, penseur majeur de l’IA, définit la superintelligence ainsi : « un intellect qui est beaucoup plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines dont la créativité scientifique, la sagesse générale et les compétences sociales ». La Superintelligence Artificielle peut définir un ordinateur très légèrement plus intelligent qu’un humain, ou bien des milliards de milliards de fois plus intelligent, ou entre les deux. La SIA est la raison pour laquelle l’IA est un sujet si sulfureux, au point que des mots comme « immortalité » et « extinction » apparaîtront plusieurs fois dans cet article.

Jusqu’à présent, les humains ont conquis le premier calibre de l’IA – l’IAR – qui est désormais partout. La Révolution de l’IA est le chemin qui va de l’IAR à la SIA en passant par l’IAG – un chemin auquel nous pourrions ne pas survivre et qui, dans tous les cas, changera tout.

Regardons maintenant avec attention à quoi ressemble ce chemin, selon les penseurs majeurs de l’IA, et pourquoi cette révolution pourrait avoir lieu plus tôt que vous ne l’imaginez :

Où nous en sommes actuellement — Un monde qui tourne à l’IAR

L’Intelligence Artificielle Restreinte est l’intelligence d’une machine qui égale ou dépasse l’intelligence humaine dans un domaine spécifique. Quelques exemples :

  • Les voitures sont truffées de systèmes d’IAR, de l’ordinateur qui gère le système d’anti-blocage des roues à celui qui règle les paramètres du système d’injection de carburant. La voiture sans pilote de Google, qui est actuellement en phase de test, contiendra des systèmes d’IAR robustes qui lui permettront de percevoir et dínteragir avec le monde qui l’entoure.
  • Votre téléphone est une petite usine d’IAR. Quand vous naviguez sur votre application de cartographie, quand vous recevez des recommandations de musique personnalisées de Pandora, quand vous regardez la météo du lendemain, parlez à Siri, ou des dizaines d’autres activités quotidiennes, vous utilisez de l’IAR.
  • Dans votre boîte mail, le filtre à spam est un exemple classique d’IAR – au début, il est armé d’une intelligence qui lui permet de différencier un mail valide d’un spam, puis il apprend et personnalise son intelligence à votre utilisation en se basant sur vos préférences particulières. Le Thermostat connecté de Nest fait la même chose en essayant de comprendre vos habitudes et en agissant en fonction de celles-ci. 
  • Vous savez le truc hyper flippant qui a lieu lorsque vous cherchez un produit sur Amazon et qu’après vous voyez un produit « recommandé pour vous » sur un site différent, ou lorsque Facebook sait qui vous devriez ajouter en ami ? Il s’agit là d’un réseau de systèmes d’IAR, qui travaillent ensemble et partagent leurs informations pour savoir qui vous êtes et ce que vous aimez, et qui choisissent ensuite ce qu’il faut vous montrer. Il en va de même pour le truc d’Amazon « Les gens qui ont acheté ceci ont également acheté… » – il s’agit là d’un système d’IAR dont le boulot est de rassembler des informations sur le comportement de millions de clients et à en faire une synthèse dans le but de vous pousser habilement à acheter plus de choses.
  • Google Traductions est un autre exemple classique d’IAR – très efficace pour une tâche restreinte. La reconnaissance vocale en est une autre, et certaines applications utilisent ces deux IAR en les combinant, vous permettant ainsi de dire une phrase dans une langue et d’avoir le téléphone qui vous ressort la même phrase dans une langue différente.
  • Quand votre avion atterrit, ce n’est pas un humain qui décide à quelle porte il doit se rendre. Et ce n’est pas non plus un humain qui a déterminé le prix de votre billet.
  • Les meilleurs joueurs du monde de Dames, d’Échecs, de Scrabble, de Backgammon et d’Othello sont tous des systèmes d’IAR.
  • L’outil de recherche de Google est un énorme cerveau d’IAR qui utilise des méthodes incroyablement sophistiquées pour ranger les pages dans un certain ordre et pour deviner ce qu’il faut vous montrer en premier. C’est la même chose pour les actus Facebook.
  • Et ça, c’est juste pour le monde de la consommation. Des systèmes d’IAR sophistiqués sont très utilisés dans des secteurs tels que le militaire, l’industrie, et la finance (les traders algorithmiques d’IA à haute fréquence représentent plus de la moitié des actions négociées sur les marchés américains)6, et dans les systèmes experts, notamment ceux qui aident les médecins à faire des diagnostics, ou encore Watson d’IBM qui contenait suffisamment d’anecdotes pour battre à plates coutures les plus grands champions de Jeopardy.

Les systèmes d’IAR tels qu’ils existent aujourd’hui ne sont pas particulièrement effrayants. Au pire, un bug ou une erreur de programmation peuvent causer une catastrophe isolée comme la mise hors service d’un réseau électrique, le dysfonctionnement d’une centrale nucléaire, ou un désastre sur les marchés financiers (comme le Crash Éclair de 2010, lorsqu’un programme d’IAR a réagi de la mauvaise façon à une situation imprévue, causant une chute brève mais importante du marché boursier et emportant 1 milliard de milliards de dollars de valeur boursière, dont seule une partie fut récupérée une fois l’erreur corrigée).

L’IAR n’est pas capable de causer une menace existentielle, mais nous devrions considérer cet écosystème d’IAR relativement inoffensives, dont la taille et la complexité ne font qu’augmenter, comme un précurseur de l’ouragan qui se rapproche et qui changera le monde. Chaque nouvelle innovation en IAR ajoute discrètement un pavé sur la route qui mène à l’IAG et à la SIA. Ou, comme le considère Aaron Saenz, les systèmes d’IAR qui composent notre monde « sont comme les acides aminés à l’intérieur du limon primordial de la jeune Terre » – ce tas de vie inanimé qui un jour, sans prévenir, s’est réveillé.

Le Chemin De l’IAR à l’IAG

Pourquoi C’est Si Difficile

S’il y a bien quelque chose qui vous fait aimer l’intelligence humaine, c’est d’apprendre à quel point c’est incroyablement compliqué d’essayer de créer un ordinateur aussi intelligent que nous. Construire des gratte-ciels, envoyer des humains dans l’espace, comprendre les mécanismes du Big Bang – tout cela est bien plus facile que de comprendre notre propre cerveau ou de créer quelque chose d’aussi cool. Actuellement, le cerveau humain est l’objet le plus complexe de l’univers connu.

Étonnamment, le plus compliqué pour élaborer une IAG (un ordinateur aussi intelligent que des humains en général, pas juste à une spécialité) n’est pas ce à quoi l’on pourrait intuitivement penser. Construire un ordinateur qui peut multiplier deux nombres à dix chiffres en moins d’une seconde – trop facile. En construire un qui peut regarder un chien et dire s’il s’agit d’un chien ou d’un chat – extraordinairement difficile. Faire une IA qui peut battre n’importe quel humain aux échecs ? C’est déjà fait. En faire une qui peut lire un paragraphe d’un livre pour enfant de six ans et qui est capable non seulement de reconnaître les mots, mais d’en comprendre le sens ? Google dépense des milliards de dollars pour réussir à le faire. Les choses compliquées  – comme le calcul, la stratégie financière ou la traduction– sont d’une facilité déconcertante pour un ordinateur, tandis que les choses simples – comme voir, bouger, se déplacer ou percevoir – lui sont follement difficile. Comme l’explique l’informaticien Donald Knuth, « l’IA a jusqu’à présent réussi à faire tout ce qui nécessitait de « réfléchir », mais a échoué à faire ce que la plupart des humains et des animaux font « sans réfléchir ».7

Ce qui est frappant, c’est que ces choses qui nous semblent faciles sont en fait incroyablement compliquées, et elles semblent faciles uniquement parce que les compétences que nous possédons ont été optimisées chez nous (et pour la plupart des animaux) par des centaines de millions d’années d’évolution animale. Lorsque vous tendez la main vers un objet, les muscles, tendons, les os dans votre épaule, coudes et poignets effectuent instantanément une longue série d’opérations physiques, en conjonction avec vos yeux, afin de vous permettre de mouvoir votre main en ligne droite à travers trois dimensions. Cela ne semble pas vous coûter d’effort parce que vous possédez un logiciel perfectionné dans le cerveau qui vous permet de le faire. Il en va de même lorsque vous créez un nouveau compte sur un site ; ce n’est pas qu’un malware est trop bête pour réussir le test de reconnaissance du mot ou de lettres obliques – c’est que votre cerveau est super impressionnant en réussissant à le passer.

D’un autre côté, multiplier de grands nombres ou jouer aux échecs sont des activités récentes pour les créatures biologiques que nous sommes, et nous n’avons pas eu le temps de développer de telles compétences, donc un ordinateur n’a pas besoin de trop travailler pour nous battre. Pensez-y : préféreriez-vous créer un programme qui peut multiplier de grands nombres, ou un programme qui pourrait si bien comprendre l’essence de la lettre B que vous pourriez lui montrer un B dans n’importe quelle police ou écriture manuscrite parmi des milliers, si bien qu’il saurait instantanément qu’il s’agit d’un B ?

Un exemple amusant – quand vous regardez ceci, vous et votre ordinateur pouvez tous les deux voir que c’est un rectangle composé de deux teintes qui s’alternent :

Égalité jusqu’ici. Mais si on enlève le noir laissant ainsi apparaître l’intégralité de l’image…

… Vous n’avez aucun problème à donner une description complète des différents cylindres opaques et translucides, des lames et des coins en 3D qui la compose, mais l’ordinateur échouerait misérablement. Il décrirait ce qu’il voit – une variété de formes bidimensionnelles de plusieurs teintes – c’est d’ailleurs ce que représente l’image. Votre cerveau fait une tonne de trucs fantaisistes pour interpréter la profondeur implicite, le mélange des teintes, et l’éclairage que l’image tente de représenter.8 Et lorsqu’il observe l’image ci-dessous, l’ordinateur voit un collage bidimensionnel blanc, noir et gris, alors que vous voyez facilement de quoi il s’agit – la photo d’une pierre entièrement noire en trois dimensions :

Crédit photo : Matthew Lloyd

Et pour tout ce que nous venons de mentionner il ne s’agit que de prendre de l’information stagnante et de la traiter. Pour être aussi intelligent qu’un humain, un ordinateur devrait pouvoir comprendre des choses telles que les différentes expressions faciales, les distinctions entre être ravi, soulagé, content, satisfait, et heureux, et pourquoi Braveheart était un excellent film alors que The Patriot était complètement nul.

Décourageant.

Bon, alors, comment on y arrive ?

Première Clé pour Créer l’IAG : L’Augmentation de la Puissance de Calcul 

Une chose qui doit absolument arriver pour que l’IAG soit possible : l’augmentation de la puissance des composants informatiques. Si un système d’IA doit devenir aussi intelligent que le cerveau, il lui faudra égaler la capacité de calcul brut du cerveau.

Une façon d’exprimer cette capacité est le total de calculs par seconde (cps) que le cerveau peut faire. On pourrait arriver à ce nombre en trouvant le maximum de cps de chaque structure du cerveau et en les additionnant.

Ray Kurzweil a trouvé un raccourci en prenant l’estimation du nombre de cps d’une structure ainsi que le poids de cette structure comparé au cerveau entier, puis en le multipliant proportionnellement pour avoir une estimation du total. Cela semble légèrement douteux, mais il a effectué cette opération plusieurs fois avec plusieurs estimations de régions différentes, et le total était toujours sensiblement le même – environ 1016 ou 10 quadrillions de cps.

Actuellement, le super ordinateur le plus rapide du monde, le chinois Tianhe-2, a battu ce nombre, atteignant environ 34 quadrillions de cps. Mais Tianhe-2 est aussi particulièrement relou, occupant 720 mètres carrés, utilisant 24 Mégawatts de puissance (le cerveau n’utilise que 20 Watts), et coûtant 390 millions de dollars. Pas vraiment adapté à un usage répandu, ni même à un usage commercial ou industriel.

Kurzweil suggère que nous pensions à l’état des ordinateurs en regardant combien de cps on peut acheter pour $1000. Si ce nombre atteint le niveau humain – 10 quadrillions de cps – cela voudra dire que l’IAG peut être une réalité.

La Loi de Moore est une règle historiquement fiable qui dit que la puissance de calcul maximum du monde double environ tous les deux ans, ce qui veut dire que l’avancée en matière de matériel informatique, comme l’avancée général de l’humain à travers l’Histoire, croît de façon exponentielle. En reprenant la règle des cps / 1 000 $ de Kurzweil, nous en sommes actuellement à 10 trillions de cps / 1 000 $, soit précisément sur la trajectoire prévue illustrée par ce graphique :9

Donc les ordinateurs qui coûtent 1 000 $ aujourd’hui battent le cerveau d’une souris et sont à environ un millième du niveau humain. Cela ne semble pas beaucoup, mais souvenez-vous qu’on était à un trillionième du niveau humain en 1985, à un milliardième en 1995, et à un millionième en 2005. Être à un millième en 2015 nous met en bonne voie d’obtenir en 2025 un ordinateur qui rivalise avec la puissance du cerveau à un prix abordable.

Bon, donc côté matériel, la puissance brute nécessaire à l’IAG est techniquement disponible aujourd’hui, en Chine, et nous aurons un matériel équivalent mais accessible au plus grand nombre d’ici une dizaine d’années. Mais la puissance de calcul brute ne suffit pas à doter un ordinateur d’une intelligence générale – la question qui se pose désormais, c’est comment donne-t-on une intelligence de niveau humain à toute cette puissance ?

Deuxième Clé pour Créer l’IAG : La Rendre Intelligente

C’est la partie délicate. En vérité, personne ne sait vraiment comment la rendre intelligente – on débat encore sur la façon de créer un ordinateur d’un niveau d’intelligence humaine et capable de savoir ce que sont un chien, un B écrit bizarrement, et un film pourri. Mais il existe quelques stratégies plus ou moins farfelues et, à un moment ou un autre, l’une d’elle fonctionnera. Voici les trois stratégies les plus courantes que j’ai découvertes :

1) Plagier le cerveau. 

On pourrait imaginer des scientifiques qui galèrent en classe alors que le gamin assis à côté d’eux est super doué et a d’excellentes notes aux examens, et ils ont beau travailler assidûment, ils n’arrivent pas à atteindre son niveau, et finalement ils décident « Oh et puis merde, je vais juste copier ses réponses ». C’est assez logique – on essaie de construire un ordinateur super complexe, et il se trouve que l’on en a un parfait prototype dans chacune de nos têtes.

Le monde scientifique travaille dur sur le cerveau afin de comprendre à l’aide de la rétro-ingénierie comment l’évolution a fait un truc aussi classe – les estimations les plus optimistes annoncent que l’on pourra le faire d’ici 2030. Lorsqu’on aura fait ça, on connaîtra tous les secrets de la puissance et de l’efficacité du cerveau et on pourra y puiser l’inspiration et en voler les secrets. Le réseau neuronal artificiel est un exemple d’architecture informatique qui imite le cerveau. Au début, ça ressemble à un réseau de « neurones » transistors, connectés les uns aux autres avec des entrées (inputs) et des sorties (outputs), et qui ne connaît rien – comme le cerveau d’un bébé. Il « apprend » en essayant d’effectuer une tâche, disons la reconnaissance d’écriture manuscrite, et au début, ses décharges neuronales entraînant autant de tentatives de décryptage de chaque lettre seront totalement aléatoires. Mais lorsqu’on lui fait comprendre qu’il a donné une bonne réponse, les connexions de transistors utilisées lors de la décharge qui a mené à cette réponse sont renforcées. Lorsqu’on lui dit qu’il a donné une mauvaise réponse, ces connexions sont affaiblies. Après de nombreux essais et via des boucles de rétro-actions, le réseau a lui-même formé des voies neuronales intelligentes et la machine est devenue optimisée pour la tâche. Le cerveau apprend un peu comme cela, mais d’une façon plus sophistiquée, et alors que l’on continue à étudier le cerveau, on découvre de nouvelles manières ingénieuses de tirer parti des circuits neuronaux.

Un plagiat plus extrême implique une stratégie appelée « téléchargement de l’esprit », dans laquelle l’objectif est de découper un vrai cerveau en fines tranches, scanner chacune d’elles, utiliser un logiciel pour assembler une reconstruction en 3D fidèle à l’originale, puis de l’implémenter dans un ordinateur suffisamment puissant. Nous aurions alors un ordinateur officiellement aussi efficient  quele cerveau– il lui faudrait juste apprendre et accumuler de l’information. Si les ingénieurs devenaient vraiment bons, ils seraient capables de copier un vrai cerveau avec une telle précision que la personnalité et la mémoire seraient intactes à l’intérieur de l’ordinateur où la copie du cerveau aurait été téléchargée. Si le cerveau appartenait à Jim juste avant qu’il meure, l’ordinateur se réveillerait en tant que Jim (?), ce qui serait une solide IAG de niveau humain , et nous pourrions alors nous mettre au travail pour transformer Jim en une SIA incroyablement intelligente, ce qui le rendrait sans doute tout excité.

Sommes-nous loin de réaliser une copie d’un cerveau entier ? Eh bien, jusqu’à présent, on n’a pas encore vient tout juste de copier le cerveau long d’un millimètre d’un ver plat, composé de seulement 302 neurones. Le cerveau humain en contient 100 milliards. Si cela ressemble à un projet sans espoir, souvenez-vous de la puissance du progrès exponentiel – maintenant que nous avons conquis le petit cerveau du ver, bientôt, ça sera celui d’une fourmi, puis d’une souris, et le projet sera alors plus vraisemblable.

2) Faire en sorte que l’évolution fasse ce qu’elle a déjà fait auparavant, mais cette fois, pour nous.

Si on constate que les réponses du gamin intelligent sont trop difficiles à copier, on peut essayer de copier sa manière de réviser pour l’examen.

Voici quelque chose que nous savons. Construire un ordinateur aussi puissant que le cerveau est possible – l’évolution de notre propre cerveau en est la preuve. Et si le cerveau est juste trop complexe pour que nous puissions le copier, on pourrait plutôt essayer de copier l’évolution. Le fait est que, même si on pouvait copier un cerveau, ça serait comme essayer de construire un avion en copiant le battement d’ailes d’un oiseau – souvent, les machines sont mieux conçues en utilisant une nouvelle approche spécifique plutôt qu’en imitant exactement la biologie. 

Alors, comment simuler l’évolution pour construire l’IAG ? La méthode, appelée « algorithmes génétiques », fonctionnerait à peu près comme ça : il y aurait un processus d’exécution-évaluation qui aurait lieu encore et encore (de la même façon que les créatures biologiques « exécutent » en vivant et sont « évaluées » en fonction de leur succès ou échec à se reproduire). Un groupe d’ordinateurs effectuerait des tâches, et ceux qui réussissent le mieux se reproduiraient en mélangeant la moitié de leur programmation, une fusion qui donnerait lieu à de nouveaux ordinateurs. Ceux qui réussissent moins bien seraient éliminés. Après de très nombreuses itérations, ce processus de sélection naturelle produirait des ordinateurs de plus en plus performants. Le défi serait de créer une évaluation et un cycle de reproduction automatisés pour que ce processus d’évolution puisse fonctionner tout seul.

Le souci lorsqu’on copie l’évolution, c’est que l’évolution aime prendre un milliard d’années à faire les choses, alors que nous voulons faire cela en quelques dizaines d’années.

Mais nous avons beaucoup d’avantages sur l’évolution. Premièrement, l’évolution n’est pas prévoyante, elle fonctionne au hasard – elle produit davantage de mutations inutiles que de mutations utiles, mais nous pourrions contrôler le processus pour qu’elle privilégie des changements bénéfiques et des réglages ciblés. Deuxièmement, l’évolution ne vise rien, pas même l’intelligence – dans certains environnements, la sélection va même contre l’intelligence supérieure (parce qu’elle utilise trop d’énergie). De notre côté, on pourrait diriger spécifiquement ce processus d’évolution vers une augmentation de l’intelligence. Troisièmement, l’évolution doit innover dans d’autres secteurs afin de faciliter l’intelligence – comme changer la façon dont les cellules produisent de l’énergie – alors que nous, nous pouvons éviter ces fardeaux superflus en utilisant, par exemple, l’électricité. Aucun doute, nous serions bien plus rapides que l’évolution – mais ce n’est pas sûr que l’on soit capable d’améliorer l’évolution suffisamment pour que ce soit une stratégie viable.

3) Faire de tout cela le problème de l’ordinateur, pas le nôtre.

Là, c’est quand les scientifiques sont tellement désespérés qu’ils essaient de programmer l’examen pour qu’il se passe tout seul. Mais cela pourrait bien être la méthode la plus prometteuse que nous ayons. 

L’idée serait de construire un ordinateur dont les deux compétences principales seraient de faire des recherches sur l’IA et de modifier son propre code – lui permettant non seulement d’apprendre mais aussi d’améliorer sa propre architecture. On apprendrait aux ordinateurs à être des informaticiens afin qu’ils s’occupent de leur propre développement. Et ça serait leur mission principale – trouver comment devenir eux-mêmes plus intelligents. Plus de détails à ce sujet un peu plus loin.

Tout Ceci Pourrait Arriver Bientôt

L’avancement rapide en matière de composants et les expérimentations innovantes de nouveaux logiciels ont lieu simultanément, et l’IAG pourrait nous tomber dessus rapidement et sans prévenir, pour deux raisons majeures :

1) La croissance exponentielle est violente, et ce qui semble avancer à la vitesse d’un escargot peut vite s’accélérer :

2) En ce qui concerne les logiciels, le progrès peut sembler lent, mais une seule découverte peut changer instantanément le rythme d’avancée (un peu comme la science qui, à l’époque où les humains pensaient que l’univers était géocentrique, avait du mal à comprendre les lois de l’univers, puis vint la découverte qu’il était héliocentrique, rendant tout beaucoup plus simple). Ou, en ce qui concerne l’ordinateur qui s’améliore lui-même, on a l’impression d’en être loin, mais on n’est peut-être qu’à un seul petit réglage d’une amélioration massive du système, le rendant 1 000 fois plus efficace, et en route vers l’intelligence de niveau humain.

Le Chemin de l’IAG à la SIA 

Au bout d’un moment, nous aurons atteint l’IAG – des ordinateurs dotés d’une intelligence générale de niveau humain. Juste un tas de personnes et d’ordinateurs vivant ensemble en parfaite égalité.

Et alors, en fait, pas du tout.

Le truc, c’est qu’une IAG possédant un niveau d’intelligence et une capacité de calcul identiques à un humain aurait des avantages significatifs sur ceux-ci. Comme :

Matériel :

  • Vitesse. Les neurones du cerveau atteignent un maximum d’environ 200 Hz, tandis que les microprocesseurs d’aujourd’hui (qui seront sans doute encore plus rapide lorsqu’on atteindra l’IAG) tournent à 2GHz, soit 10 millions de fois plus vite que nos neurones. Et les communications à l’intérieur du cerveau, qui se font à environ 120 m/s, sont totalement battues par la capacité de l’ordinateur à communiquer optiquement à la vitesse de la lumière.
  • Taille et stockage. Le cerveau est limité en taille par la forme de nos crânes, et, de toutes façons, il ne pourrait pas être beaucoup plus gros, car sinon les communications internes allant à 120 m/s mettraient trop longtemps pour relier des structures du cerveau éloignées. Les ordinateurs peuvent prendre n’importe quelle taille physique, autorisant ainsi davantage de matériel dédié au travail, une plus grande mémoire vive (RAM), et une mémoire à long-terme (stockage sur disque dur) qui est bien supérieure à la nôtre, tant en capacité qu’en précision.
  • Fiabilité et durabilité. Il n’y a pas que la mémoire d’un ordinateur qui serait plus précise. Les transistors informatiques sont plus précis que les neurones biologiques, et ils ont moins de chance de se détériorer (ils peuvent être réparés ou remplacés, le cas échéant). De plus, les cerveaux humains ont tendance à se fatiguer facilement, alors que les ordinateurs peuvent fonctionner sans arrêt, à haute performance, 24h/24, 7 jours sur 7.

Logiciels :

  • Possibilités de modifications, d’améliorations, et bien d’autres encore. Contrairement au cerveau humain, les logiciels informatiques peuvent être mis à jour, et des réglages peuvent facilement être expérimentés. Les améliorations pourraient s’étendre à des domaines dans lesquels les cerveaux humains sont faibles. Le logiciel de vision humaine est superbement avancé, mais sa capacité d’ingénierie complexe est plutôt bas de gamme. Des ordinateurs pourraient égaler le logiciel de vision humaine mais être tout aussi optimisés en ingénierie ou dans tout autre domaine.
  • Potentiel collectif. Lorsqu’il s’agit de construire une vaste intelligence collective, les humains écrasent toutes les autres espèces. A commencer par le développement du langage et la formation de communautés immenses, puis l’invention de l’écriture, puis de l’imprimerie, et maintenant grâce à Internet, l’intelligence collective de l’humanité est l’une des raisons principales de notre si grande avance sur les autres espèces. Et les ordinateurs seront bien meilleurs dans ce domaine que nous. Un réseau mondial d’IA faisant tourner un programme spécifique pourrait se synchroniser régulièrement, si bien que toute nouvelle information apprise par l’un des ordinateurs serait instantanément transmise à tous les autres. Le groupe pourrait aussi définir un objectif commun, car il n’y aurait pas nécessairement d’opinions dissidentes ou de motivations personnelles comme il en existe dans la population humaine. 10

L’IA, qui atteindra sans doute l’IAG si elle est programmée pour s’auto-améliorer, n’aura aucune raison de considérer « l’intelligence de niveau humain » comme une étape importante – elle n’est un parangon que de notre point de vue – et elle n’aura donc aucune raison de « s’arrêter » à notre niveau. Et étant donné les avantages qu’aurait sur nous une IAG équivalente à l’intelligence humaine, il paraît assez évident qu’elle ne s’arrêtera pas en si bon chemin et continuera sa croissance vers les royaumes de l’intelligence supérieure à l’Homme.

Cela pourrait être plus que chamboulant pour nous lorsque ça arrivera. La raison, c’est que de notre perspective, A) même si l’intelligence diffère d’une race d’animaux à une autre, ce que nous savons à propos de toutes formes d’intelligences animales est qu’elles sont clairement à une échelle en dessous de la nôtre, et B) on considère que les humains les plus intelligents sont BEAUCOUP plus intelligents que les humains les plus stupides. 

Un peu comme ceci :

Tandis que l’IA progressera à toute vitesse dans notre direction, nous la verrons seulement devenir plus intelligente, pour un animal. Puis, quand elle atteindra le plus bas niveau humain – Nick Bostrom utilise le terme « idiot du village » – nous serons, genre, « Oh wow, on dirait un petit débile ! Adorable ! ». Le truc c’est que, dans le grand spectre de l’intelligence, tous les humains, de l’idiot du village à Einstein, sont finalement très proches – donc juste après avoir atteint le niveau de l’idiot du village ainsi que le statut d’IAG, elle sera soudainement plus intelligente que Einstein et on sera tous abasourdis :

Et que se passe-t-il après ça… ?

Une Explosion d’Intelligence

J’espère que vous avez bien profité de l’époque normale, car nous sommes arrivés au moment où cet article va devenir totalement bizarre et effrayant, et il le restera jusqu’à la fin. Je souhaite faire une pause ici pour vous assurer que tout ce que je vais dire est réel – de la vraie science et de vraies prévisions sur le futur émanant de scientifiques et de penseurs les plus respectés. Souvenez-vous de ça.

Enfin, bref, comme je l’ai dit précédemment, la plupart de nos modèles pour atteindre l’IAG impliquent une IA qui s’auto-améliore. Et une fois qu’elle aura atteint le stade d’IAG, même les systèmes formés et développés à l’aide de méthodes qui n’impliquent pas d’auto-amélioration seront suffisamment intelligents pour commencer à s’auto-améliorer s’ils le veulent.3

Et c’est là que nous arrivons à un concept particulièrement violent: l’auto-amélioration récursive. Ça marche comme ça —

Un système d’IA, à un certain niveau – disons, l’idiot du village humain – est programmé avec pour objectif d’améliorer sa propre intelligence. Lorsqu’il le fait, il devient plus intelligent – atteignant à ce stade le niveau d’Einstein – donc maintenant quand il travaille à améliorer son intelligence, avec un intellect du niveau d’Einstein, la tâche est plus simple et il fait de plus grands bonds en avant. Ces bonds le rendent bien plus intelligent que n’importe quel être humain, lui permettant de faire des bonds encore plus grands. Tandis que les progrès sont de plus en plus importants et fréquents, l’intelligence de l’IAG monte en flèche et atteint bientôt la superintelligence d’un système de SIA. C’est ce qu’on appelle l’Explosion d’Intelligence,11 et c’est l’exemple ultime de la Loi du Progrès Accéléré.

Quand l’IA atteindra-t-elle une intelligence générale de niveau humain est une question qui fait débat. Un sondage demandant leur avis à des centaines de scientifiques a donné comme année médiane 2040 pour l’IAG – ça n’est que dans 25 ans. Ça ne semble pas énorme comme ça, jusqu’à ce qu’on considère que beaucoup de penseurs dans ce domaine sont persuadés que la progression de l’IAG à la SIA se fera très rapidement. Voilà ce qui pourrait se passer :

Cela prend des dizaines d’années pour que le premier système d’IA atteigne un niveau d’intelligence générale de bas niveau, mais ça finit par arriver. L’ordinateur est capable de comprendre le monde autour de lui aussi bien qu’un enfant de quatre ans. Soudain, une heure après avoir atteint ce palier, le système produit la grande théorie de la physique qui réunit la relativité générale et la mécanique quantique, quelque chose qu’aucun humain n’avait réussi à faire. 90 minutes plus tard, l’IA est devenue une SIA, 170 000 fois plus intelligente qu’un être humain.

Une super intelligence de cette ampleur ne fait pas partie des choses que nous pouvons comprendre, pas plus qu’une abeille ne peut comprendre l’économie keynésienne. Dans notre monde, quelqu’un qui a 130 de QI est intelligent et quelqu’un qui a 85 de QI est stupide – nous n’avons pas de mot pour qualifier quelque chose doté d’un QI de 12 952.

Ce que nous savons, en revanche, c’est que la domination absolue de l’être humain sur cette Terre suggère une chose : l’intelligence va de pair avec le pouvoir. Ce qui veut dire qu’une SIA, quand nous l’aurons créée, sera l’être le plus puissant de l’histoire de la vie sur Terre ; et tous les êtres vivants, humains compris, seront entièrement à sa merci – et cela risque d’arriver dans quelques dizaines d’années.

Si nos maigres cerveaux ont été capables d’inventer le wi-fi, alors quelque chose 100 fois, 1 000 fois ou 1 milliard de fois plus intelligent que nous n’aura sans doute aucun problème à contrôler à tout moment la position de chaque atome du monde selon sa volonté – tout ce que nous voyons comme de la magie, tous les pouvoirs qu’un Dieu suprême pourrait avoir seraient, pour la SIA, aussi banal que d’appuyer sur un interrupteur. Créer une technologie pour inverser le vieillissement humain, guérir des maladies, combattre la faim, et même la mort, reprogrammer le climat pour protéger la vie future sur Terre – tout devient soudainement possible. Une autre possibilité est la fin immédiate de toute vie sur Terre. Aux dernières nouvelles, si la SIA venait à naître, il y aurait alors un Dieu omnipotent sur Terre – et la question essentielle qui se pose alors est la suivante :

Sera-t-elle un Dieu miséricordieux ?

_______________

C’est le sujet de la Partie 2 de cet article, dont à la traduction est à paraître.


  1. Bon alors il y a deux types de notes maintenant. Les cercles bleus sont les notes amusantes/intéressantes que vous devriez lire. Elles sont là pour des infos ou des réflexions supplémentaires que je ne voulais pas mettre dans le texte principal soit parce que ce sont juste des pensées un peu limite ou parce que je veux dire quelque chose un peu trop bizarre pour apparaître dans le texte normal.

  2. Kurzweil souligne le fait que son téléphone est environ un million de fois plus petit, un million de fois moins cher et mille fois plus puissant que son ordinateur du MIT il y a 40 ans. Bonne chance pour deviner ce qu’un avancement en informatique comparable nous donnera dans le futur, sans compter la croissance exponentielle du progrès.

  3. Bien plus d’informations sur la « volonté » d’un ordinateur dans la Partie 2.


  1. Les carrés gris sont des objets ennuyeux et quand vous cliquerez sur un carré gris, vous vous ennuierez. Ils sont là seulement pour les sources et les citations.

  2. Kurzweil, The Singularity is Near, 39.

  3. Kurzweil, The Singularity is Near, 84.

  4. Vardi, Artificial Intelligence: Past and Future, 5.

  5. Kurzweil, The Singularity is Near, 392.

  6. Bostrom, Superintelligence: Paths, Dangers, Strategies, loc. 597

  7. Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements, 318.

  8. Pinker, How the Mind Works, 36.

  9. Kurzweil, The Singularity is Near, 118.

  10. Bostrom, Superintelligence: Paths, Dangers, Strategies, loc. 1500-1576.

  11. Ce terme a été utilisé pour la première fois par l’un des plus grands penseurs de l’IA, Irving John Good, en 1965.

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *