L’ancien PDG de Google, Eric Schmidt, a récemment exprimé ses inquiétudes sur le développement rapide de l’Intelligence Artificielle et ses implications potentielles. Selon lui, si l’Intelligence Artificielle atteint le stade où elle peut prendre des décisions de manière indépendante, cela pourrait mettre l’humanité en danger d’ici cinq à dix ans.
Cette prédiction est plus alarmante que les estimations précédentes, qui envisageaient un tel scénario dans une vingtaine d’années. Eric Schmidt a également plaidé pour la création d’une organisation mondiale chargée de réguler l’Intelligence Artificielle et de fournir des informations précises aux décideurs politiques.
Cette suggestion fait écho aux appels d’autres dirigeants technologiques influents, tels que Mark Zuckerberg et Elon Musk, qui ont souligné la nécessité de politiques de sécurité et d’accessibilité pour l’Intelligence Artificielle.
La comparaison de Schmidt entre le développement de l’Intelligence Artificielle et la réglementation des armes nucléaires post-Seconde Guerre mondiale souligne l’urgence de la situation. Il insiste sur le fait que nous ne disposons pas du luxe du temps pour réglementer l’Intelligence Artificielle, contrairement à l’ère nucléaire où il a fallu 18 ans pour parvenir à un traité sur l’interdiction des essais.
Krystel Vanic