Pour retourner sur le sujet plus explicitement voici du même Bill
Comment jouer à se faire peur
une autre mise en garde qui fait froid dans le dos.
Observer.com Le Figaro.fr France Culture et ceux précités
Les progrès de l'intelligence artificielle menacent la survie de l'espèce. Et ce n'est pas madame Michu mais Bill Gates, Stephen Hawking et Elon Musk qui le disent. Ils ne sont d'ailleurs pas les seuls dans la communauté scientifique. Quel est le point commun entre Stephen Hawking, Bill Gates et Elon Musk ?
Le scientifique, le co-fondateur de Microsоft, et celui de Tesla et SpaceX pensent que l'intelligence artificielle constitue une menace pour l'humanité. Bill Gates est le dernier des trois à avoir pris position sur le sujet, la semaine dernière, au détour d'une session de questions-réponses sur Reddit.
L'express.fr et Expantion.fr
Elon Musk joue depuis quelques temps le rôle du Cassandre de l'intelligence artificielle. "Je pense que nous devrions être très prudents. Si je devais deviner ce qui représente la plus grande menace pour notre existence, je dirais probablement l'intelligence artificielle. Je suis de plus en plus enclin à penser qu'il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide.
Avec l'intelligence artificielle, nous invoquons un démon." L'entrepreneur, adepte des projets futuristes dont la faisabilité n'est pas toujours aussi réaliste que celle de ses voitures électriques, passe parfois pour un doux dingue. Mais il n'est pas le seul à tirer la sonnette d'alarme.
Mais aussi:
Le célèbre physicien Stephen Hawking, à qui l'on doit des avancées théoriques significatives dans le domaine des tгоus noirs et de la création de l'univers, se montre lui aussi pessimiste.
"Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme. Mais ce pourrait aussi être le dernier", prévient-il.
Ou encore : "L'impact à court terme de l'intelligence artificielle dépend de qui la contrôle.
Et, à long terme, de savoir si elle peut être tout simplement contrôlée".
On pourrait se dire qu'après tout, c'est l'homme qui programme la machine, et que par conséquent, il suffit de ne pas lui donner d'instructions lui permettant de se retourner contre son concepteur. Sauf que "les programmeurs peuvent échouer à anticiper l'ensemble des façons possibles d'atteindre le but qu'ils fixent à la machine, met en garde Nick Bostrom, directeur de l'Institut du Futur de l'Humanité, qui dépend de l'Université d'Oxford. Ceci en raison de biais et de filtres innés et acquis. Une super-intelligence artificielle dépourvue de ces biais, pourrait employer des moyens, logiques mais регvегs et dangereux pour l'homme, d'atteindre ce but".
Dangereux parce que "complètement con"? Ce genre de bug est inévitable, selon Gérard Berry, informaticien et professeur au Collège de France, qui vient de recevoir la médaille d'or 2014 du CNRS. Dans une interview à Rue89, il explique : "L'homme est incomplet, incapable d'examiner les conséquences de ce qu'il fait. L'ordinateur, au contraire, va implémenter toutes les conséquences de ce qui est écrit. Si jamais, dans la chaîne de conséquences, il y a quelque chose qui ne devrait pas y être, l'homme ne s'en rendra pas compte, et l'ordinateur va foncer dedans. C'est ça le bug. Un homme n'est pas capable de tirer les conséquences de ses actes à l'échelle de milliards d'instructions. Or c'est ça que va faire le programme, il va exécuter des milliards d'instructions."
En d'autres termes, l'ordinateur n'est pas dangereux par supplément de conscience, mais parce qu'il est "complètement con", dixit Gérard Berry.
Bonne lecture pour ce long viaduc du 1er mai
![](/img/smileys/pouce.png)