Stephen Hawking, considéré comme étant un physicien et cosmologiste britannique brillant, a mis en garde contre l’intelligence artificielle. Selon lui, elle « pourrait mettre fin à l’humanité ». Ses craintes sont soutenues par Elon Musk, chef d’entreprise, ingénieur et inventeur, mais ont été rejetées jeudi 9 juin 2016 par l’ancien PDG de Google, Eric Schmidt.
Stephen Hawking met en garde contre le développement de l’intelligence artificielle
Lors d’un entretien à la BBC, l'astrophysicien affirme que l’intelligence artificielle pourrait dépasser l’humanité et que le scénario serait comparable à celui des films Terminator. « Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à l'humanité » a t-il déclaré. Il poursuit en précisant que « les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ». D’après lui, l’intelligence artificielle pourrait être beaucoup plus dangereuse que les armes nucléaires.
Il est vrai que dans le monde de la science-fiction, les intelligences artificielles n’ont que très rarement le rôle du « gentil ». La Google Cars fait partie de ces technologies qui visent à créer ou simuler, chez les robots ou logiciels, une intelligence comparable à l’homme. Peut-être est-ce pour cela que l’ancien PDG de Google, Eric Schmidt, a rejeté les craintes de Stephen Hawking. Qui a raison, qui a tort ? C’est encore trop tôt pour trancher.
Deux thèses mise en doute
Lors de la conférence Brilliant Mind qui s’est tenue à Stockholm ce jeudi 9 juin 2016, Eric Schmidt a voulu calmer les inquiétudes avancées par Stephen Hawking et Elon Musk, rapporte Business Insider. Il a donc mis en doute les thèses de ces deux hommes, qu’il considère comme deux scientifiques très brilliants. Cependant, il sous-entend qu’ils ne sont pas aptes à faire de telles déclarations, n'étant pas des spécialistes de l’informatique.
Afin de parer à toutes éventualités, le laboratoire DeepMind basé à Londres a développé en juin 2016 un interrupteur ou « bouton rouge » en mesure de bloquer la machine en cas de débordement. Ainsi, il permettra aux humains de garder le contrôle sur leurs créations.