PrÚs de vingt ans aprÚs la victoire d'un superordinateur sur le champion du monde d'échec Garry Kasparov, une machine affrontera à partir de mercredi le meilleur joueur mondial de jeu de go des dix derniÚres années.
Faut-il trembler ou s'en réjouir?"Au plan symbolique, si la machine gagne, ce sera un moment important", déclare à l'AFP Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle à l'Université Pierre et Marie Curie à Paris. "Et si elle ne bat pas cette fois-ci le champion du monde de go, elle le fera certainement d'ici un ou deux ans?".
En cas de victoire, les craintes de certains scientifiques et entrepreneurs sur les risques Ă terme de l'intelligence artificielle devraient ĂȘtre confortĂ©es alors que la puissance des ordinateurs double environ tous les deux ans. Comme l'enthousiasme de ceux qui en attendent des progrĂšs importants.
"Le suspense reste entier" sur l'issue du tournoi entre le Sud-Coréen Lee Sedol et AlphaGo, un programme développé par Google, estime Olivier Teytaud, chercheur à l'Inria, l'Institut national français de recherche en informatique.
Inventé il y a environ 3.000 ans en Chine, le go est un jeu de stratégie intuitif, profondément complexe en raison de la multitude des combinaisons possibles.
En octobre, AlphaGo est parvenu Ă battre Ă plate couture le champion d'Europe du jeu de go, Fan Hui.
"Il y a une énorme différence de niveau entre les joueurs européens et Lee Sedol", relÚve le Français Yann Le Cun, directeur du laboratoire d'intelligence artificielle de Facebook. "Fan Hui est classé 633e joueur mondial de go".
Lors du match contre Fan Hui, AlphaGo "n'Ă©tait peut-ĂȘtre pas prĂȘt Ă battre Lee Sedol" mais "il a eu plusieurs mois pour progresser en jouant contre lui mĂȘme tous les jours", pointe Olivier Teytaud.
S'il gagne le tournoi qui se tiendra du 9 au 15 mars à Séoul (Corée du Sud), le joueur remportera 1 million de dollars.
- 'Risques considérables' -
Alors qu'il y a quinze jours il pensait pouvoir "remporter une écrasante victoire, cette fois-ci du moins", Lee Sedol a paru moins confiant mardi aprÚs avoir été briefé sur le programme informatique.
"A prĂ©sent, je crois que je ne pourrai peut-ĂȘtre pas vaincre AlphaGo avec une marge aussi importante que 5-0. Je dois ĂȘtre un peu plus stressĂ©", a-t-il dit.
Et s'il perd? "En Asie au moins, ce match est aussi important que celui de l'ordinateur Deep Blue d'IBM contre le Russe Kasparov en 1997 et probablement plus que le triomphe du programme Watson au jeu télévisé Jeopardy" en 2011, note Nick Bostrom, futurologue à l'université d'Oxford.
La victoire de Deep Blue était "une belle réussite technique mais c'était de la force brute, liée à l'augmentation de la puissance des machines", relÚve Olivier Teytaud. La méthode d'AlphaGo est "beaucoup plus subtile, avec des algorithmes applicables dans de nombreux domaines".
Le programme de Google utilise notamment "l'apprentissage profond" (Deep learning), méthode d'apprentissage automatique conçue sur la base de couches de "neurones" artificiels, imitant ceux du cerveau humain.
Cette technique, conjuguée à l'augmentation de la puissance de calcul des ordinateurs et à la disponibilité d'énormes bases de données sur lesquelles entraßner les machines, a permis des avancées considérables.
"Nous assistons à une révolution dans des domaines tels que la reconnaissance vocale, la reconnaissance d'image, l'analyse de vidéo, la compréhension des langues", note Yann Le Cun.
Le pilotage autonomatique des voitures avance à grands pas. "D'énormes progrÚs" sont aussi attendus dans l'analyse des images médicales, notamment pour repérer des tumeurs, souligne-t-il.
Mais pour le physicien britannique Stephen Hawking, "le développement d'une intelligence artificielle complÚte pourrait mettre fin à la race humaine". Selon lui, d'ici cent ans, les ordinateurs seront devenus plus intelligents que les humains.
En juillet, plusieurs milliers de chercheurs et de personnalités, dont Stephen Hawking, ont lancé un appel demandant l'interdiction des armes offensives autonomes ou "robots tueurs".
Avec l'intelligence artificielle, "il existe bien Ă©videmment des risques potentiels considĂ©rables qui ne tiennent pas tant aux techniques elles-mĂȘmes qu'Ă l'usage qui en sera fait", relĂšve Jean-Gabriel Ganascia.
Pour le futurologue Anders Sandberg de l'Université d'Oxford, il faudra veiller aux "valeurs" données aux machines intelligentes "volontairement ou non".
Par Arnaud BOUVIER - © 2016 AFP
0 Commentaires

