Stephen Hawking veut un «gouvernement mondial» pour empêcher les robots de détruire l'humanité

Stephen Hawking veut un «gouvernement mondial» pour empêcher les robots de détruire l'humanité© Grigoriy Sisoev Source: Sputnik
Un enfant lors de l'ouverture d'un musée futuriste à Moscou
Suivez RT en français surTelegram

Le physicien Stephen Hawking estime que «la race humaine s’élèvera pour relever les défis» provoqués par le développement de l'intelligence artificielle. Il a suggéré «une forme de gouvernement mondial» pour maintenir les robots sous contrôle.

«Depuis le début de la civilisation, l'agressivité [de l'espèce humaine] a été utile dans la mesure où elle procurait de nets avantages en termes de survie», a expliqué le célèbre professeur Stephen Hawking dans une interview parue le 7 mars dans le journal britannique The Times.

«[L'agressivité] est programmée dans nos gènes par l'évolution darwinienne. Cependant, la technologie a progressé à un tel rythme que cette agressivité pourrait désormais conduire [l'humanité] à sa destruction par la guerre nucléaire ou biologique. Nous avons besoin de contrôler cet instinct hérité de notre logique et de notre raison», a souligné le scientifique.

Selon Stephen Hawking, la meilleure solution serait «une forme de gouvernement mondial» qui pourrait superviser le développement de la puissance de l'intelligence artificielle (IA). «Mais cela pourrait devenir une tyrannie. Tout cela peut sembler de mauvais augure, mais je suis un optimiste. Je pense que la race humaine s’élèvera pour relever ces défis», a-t-il prophétisé.

Ce n'est pas la première fois que Stephen Hawking met en garde contre les dangers potentiels de l'intelligence artificielle. En 2016, le célèbre physicien avait déjà indiqué dans un entretien à RT :  «Je ne pense pas que le développement de l'intelligence artificielle soit forcément pour le mieux. Quand les machines auront atteint une étape critique et évolueront indépendamment, on ne pourra pas prédire si elles auront les mêmes objectifs que nous».

Dans une séance de questions-réponses sur Reddit, en 2015, il avait évoqué les dangers de l'intelligence artificielle en ces termes : «le vrai risque avec l’intelligence artificielle ce n’est pas la malveillance, mais la compétence.» Cette analyse l'avait déjà conduit à affirmer que les technologies pourraient être «la meilleure ou la pire chose qui soit arrivée à l’humanité» et qu'il qu'il était donc «très important de les gérer correctement».

Lire aussi : Pour Stephen Hawking, il faut plutôt craindre le capitalisme que les robots

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix