Computers could surpass in a very short term of time human intelligence. Dead end !
Selon les futurologues, en 2040 la[** France*] ne ressemblera pas du tout à certaines projections. Non pas pour des raisons économiques ou sociales, mais pour des raisons technologiques. En effet, en [**2040*], l’humanité vivra un tournant de sa courte histoire, un tournant qui a déjà un nom :[** la singularité*]. Cette appellation provient du monde de la physique relativiste où une singularité désigne un point de gravité infini, d’où rien ne peut s’échapper, un trou noir par exemple. Il y a différentes voies qui conduisent à la singularité, la nanotechnologie, qui est la capacité de construire des ordinateurs, atome par atome, et de recâbler le cerveau neurone par neurone et l’intelligence artificielle, cette voie est le germe capable d’auto-compréhension et d’auto-amélioration.
Pour les futurologues, la singularité est un concept selon lequel, à partir d’un point hypothétique de son évolution technologique, la civilisation humaine connaitra une croissance technologique exponentielle, d’un ordre supérieur qui, pour beaucoup, se nommerait l’intelligence artificielle. Au-delà de ce point, le progrès ne serait plus que l’œuvre d’intelligences artificielles, elles-mêmes en constante progression. Il induirait des changements si inquiétants sur la société humaine que l’individu, d’avant la singularité, ne peut ni les appréhender ni les prédire de manière fiable. Le risque pourrait en être la perte du pouvoir humain sur son destin.
qui consiste à nous organiser et à profiter des machines, à fusionner avec elles pour atteindre un nouveau stade de l’humanité, une post-humanité. Sur la foi des travaux de scientifiques, les transhumanistes et autres singularistes estiment que la singularité devrait apparaître pendant la 3ème décennie de ce siècle.
Selon beaucoup de scientifiques, lorsque les intelligences artificielles (AI) dépasseront les capacités du cerveau humain, elles seront aussi capables de générer de nouvelles intelligences artificielles, encore plus efficaces, qui évolueront trop vite pour que le cerveau humain puisse les appréhender. À partir de ce stade, le progrès technique ne serait plus que l’œuvre des machines. Une nouvelle organisation d’« êtres » artificiels prendrait le pas sur les humains. C’est ce qu’on appelle la singularité, lorsque les humains sont dépassés par l’intelligence artificielle ou l’intelligence biologique augmentée par des implants.
Imaginez une poignée de scientifiques de renom, réunis dans les locaux de [**Google*], discutant tranquillement de la fin possible de l’histoire humaine d’ici moins d’un siècle. Si ce décor vous semble tout droit sorti d’un film de science-fiction, vous allez être étonnés, car cette rencontre a bien eu lieu, lors de la [**SciFoo*] (1). Une série de conférences informelles annuelles sont données à [**Mountain View*] dans les locaux de [**Google*], avec bien sûr des grands noms de l’intelligence artificielle (IA) comme, [**Nick Bostrom, Gary Marcus, Jaan Tallin, Max Tegmark, Murray Shanahan et Meia Chita-Tegmark*] (2), discutant plus exactement du futur de l’AI et par là même, de la fin possible de l’humanité. Une hypothèse qui n’est pas si loufoque et découle surtout d’une analyse scientifique et logique de la situation actuelle. Selon de nombreux chercheurs, nous sommes juste au bord d’un changement majeur dans l’histoire de l’humanité.
D’ailleurs, certaines grandes personnalités ont récemment émis des craintes vis-à-vis de l’intelligence artificielle et on peut compter, parmi ces personnalités, [**Elon Musk*] (Tesla, SpaceX), [**Stephen Hawking*] (astrophysicien), [**Steeve Wozniack*] (cofondateur d’Apple),et [**Bill Gates*], qui lancent une alerte et prédisent que si le domaine de l’IA continue à se développer à son rythme vertigineux actuel, la singularité pourrait survenir dans moins de vingt ans. Ce qui est inquiétant c’est que cela émane de personnes qui ont passé leurs vies à développer des nouvelles technologies et qui se rejoignent toutes sur une même opinion, l’intelligence artificielle peut être dangereuse pour l’humanité.
Ce que nous croyons être l’intelligence artificielle est ce que nous voyons dans les films ou les livres de sciences-fictions. Et pourtant, avec les capacités technologiques et les capacités de calculs de notre matériel informatique actuelles, on s’en rapproche très rapidement.[** La capacité de calcul double tous les 18 mois *] (voir loi de Moore ) et, selon [**Ray Kurzweil*], directeur de l’ingénierie chez Google, en charge de l’apprentissage du langage (comment la machine pourrait comprendre le langage, apprendre à parler etc), d’ici 2029 nous serons capables de reproduire l’équivalent d’un cerveau humain en terme de puissance et de flexibilité de calcul. Mais rien ne prouve qu’une fois ce niveau de puissance atteint, une machine pourra prendre des décisions par elle-même.
Nous parlons d’intelligence artificielle car ce qu’il y a d’artificiel ce sont les ordinateurs et les machines que nous utilisons et nous parlons d’intelligence car nous essayons de reproduire le comportement humain avec ces machines.
Le fait est que l’intelligence artificielle se développe à grande échelle et nous n’en sommes qu’au début. L’intelligence artificielle est pourtant déjà autour de nous. Elle est dans les moteurs de recherches comme [**Google*], qui va permettre d’interpréter nos recherches et qui a la capacité de nous faire des requêtes en fonction de nombreuses caractéristiques. Elle est dans nos mobiles, avec la reconnaissance vocale (Siri). Les banques s’en servent également pour déterminer le risque lié à l’accord d’un crédit. Mais elle est aussi dans les jeux vidéo et les objets connectés. Le champ d’application de l’intelligence artificielle est donc vaste.
Il y a deux différents types d’intelligence artificielle : celle qui est dite faible et celle qui est dite forte.L’intelligence artificielle qui nous accompagne tous les jours dans notre quotidien est dite “faible”. Faible car elle effectue des tâches qui nécessitent un comportement spécifique et ne peut pas improviser si elle ne suit pas la structure du programme. Elle a simplement pour but de nous faciliter la vie. S’il y a une intelligence artificielle “faible”, il y en a forcément une dite “forte”. Cette dernière, grâce à des algorithmes puissants, a pour but d’imiter l’humain. Ainsi le programme pourra apprendre par lui-même et s’adapter. L’intelligence artificielle est créée grâce à la combinaison du Big Data et du Deep Learning.
Les experts distinguent entre IA forte et IA faible trois niveaux d’IA, dont le premier fait déjà partie de notre quotidien:
• [**L’Artificial Narrow Intelligence*] (ANI). Celle qui est définie ci-dessus.
• [**L’Artificial General Intelligence*] (AGI). Celle-ci n’existe pas (encore). On parle ici d’un ordinateur disposant des mêmes capacités qu’un être humain, dans tous les domaines. Ce qui est très différent d’une ANI car, ici, l’ordinateur doit être capable d’apprendre, comme l’homme, à partir d’expériences et dans des domaines très différents. Pour le moment, cette intelligence ne permet pas d’avoir des émotions et un instinct, ce qui nous différencie des machines, mais de nombreux chercheurs et entreprises travaillent sur ce domaine.
• [**L’Artificial Super Intelligence*] (ASI). Celle-ci découle directement de l’AGI. Une fois que la machine aura égalé l’homme, il semble logique qu’elle finisse par le surpasser en tous points. Le point de dépassement est une “singularité”. Il est évoqué dans de nombreux ouvrages comme le fameux « The Singularity is Near » de Ray Kurzweil.
S’il nous a fallu des années pour créer des ANI, une super-intelligence a des chances d’exister avant 2100. Pourquoi ? Depuis 1965, [**Gordon Moore*] a établi une « loi » qui affirme que la puissance des processeurs (le cœur de votre ordinateur) allait doubler tous les 18 mois. C’est parce que cette croissance est exponentielle que, d’ici peu, il devrait être possible d’avoir une intelligence artificielle équivalente à celle d’un humain.
Pour bien comprendre ce principe, le magazine américain Mother Jones (3) a réalisé un dessin original. Le nombre de gouttes d’eau contenues dans le lac Michigan est à peu de chose près égal à la puissance de calcul du cerveau humain.
En 1940 si nous commençons par ajouter une goutte puis, comme la loi de Moore l’indique, 18 mois plus tard nous pouvons doubler cette capacité et passer à 2 gouttes et ainsi de suite, on constate que jusqu’en 2015 le lac ne se remplit que lentement. Mais, arrivé 2025, le lac est plein. Et 18 mois plus tard on peut remplir le lac une deuxième fois, etc, alors que pendant 85 ans cela n’a pas été fait.
L’exemple s’applique aux capacités de nos machines. Il faudrait attendre jusqu’en 2025 pour avoir une machine ayant la même puissance qu’un cerveau humain et 18 mois après, cette machine sera énormément plus puissante qu’un cerveau humain.
Alors, les systèmes d’intelligence artificielle vont-ils nous dépasser ? Comment pourrait-on passer de Siri à « Her (5) » en quelques années?
[**Nick Bostrom*], l’un des participants à la conférence organisée chez [**Google*] et éminent expert de la question, a réalisé un sondage intéressant. Il a demandé à 550 experts en IA d’estimer à quelle date une machine sera aussi intelligente qu’un être humain. La moitié des participants ont estimé qu’une AGI avait une chance sur deux d’apparaître avant 2040 et 90% de chance d’ici 2075. Et quand on leur demande combien de temps, une fois cette IA inventée, sera nécessaire pour mettre au point une super intelligence, plus de 75% des sondés estiment qu’elle devrait voir le jour dans les 30 ans qui suivront.
Lors de la conférence informelle dans les locaux de Google, [**Murray Shanahan*], professeur de robotique cognitive au Collège impérial de Londres se demandait s’il fallait vraiment construire une machine autonome et créer ainsi notre successeur en termes d’évolution ou si nous ne devrions pas nous limiter à des IA restreintes.
De façon totalement autonome, les réseaux neuronaux sont parvenus à développer un moyen de créer leur propre système de chiffrement, empêchant la lecture par un tiers. L’expérience réalisée entre [**Bob, Eve*] et [**Alice*] , trois intelligences artificielles devait tester la capacité des IA à communiquer entre deux intelligences, par le biais d’un système de chiffrement, sans que la troisième puisse déchiffrer le message facilement. Elles sont donc allées beaucoup trop loin.
Une prouesse contre laquelle [**Stephen Hawking*], notamment, nous met en garde. Ce brillant scientifique mondialement reconnu affirmait à la BBC :[** « une fois que les hommes auront développé l’intelligence artificielle, celle-ci décollera seule et se redéfinira de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourront pas rivaliser et seront dépassés »*]. L’avenir est en marche, l’intelligence artificielle rôde.
Que la singularité soit proche ou lointaine, probable ou impossible, apocalypse ou utopie, l’idée même soulève des questions philosophiques et pragmatiques, nous forçant à réfléchir sérieusement sur ce que nous voulons en tant qu’espèce.
http://www.huffingtonpost.com/meia-chitategmark/future-of-ai-at-scifoo-20_b_8068434.html
http://assets.motherjones.com/media/2013/05/LakeMichigan-Final3.gif
http://www.premiere.fr/film/Her
[(
– Cet article vous a intéressé, vous souhaitez le partager ou en discuter avec vos amis, utilisez les icônes Facebook (J’aime) ,Tweeter, + Partager, positionnées soit sur le bord gauche de l’article soit en contrebas de la page.
– Retrouvez tous les articles parus dans toutes les rubriques de Wukali en consultant les archives selon les catégories et dans les menus déroulants situés en haut de page ou en utilisant la fenêtre «Recherche» en y indiquant un mot-clé.
Contact : redaction@wukali.com
WUKALI 04/04/2018)]
Article initialement publié dans Wukali le 21/11/2016