Le PDG de Microsoft AI prévient que des modèles d'IA « dangereux » et « apparemment conscients » pourraient arriver dans les deux prochaines années : « Cela mérite notre attention immédiate »

Une IA apparemment consciente pourrait arriver dans les prochaines années, constituant une menace « dangereuse » pour la société, affirme un leader de l'IA.
Mustafa Suleyman, PDG de Microsoft AI, 41 ans, a écrit dans un essai personnel publié plus tôt cette semaine que l'IA apparemment consciente (SCAI), qui est une intelligence artificielle si avancée qu'elle peut convaincre les humains qu'elle est capable de formuler ses propres pensées et croyances, n'est qu'à quelques années.
Même s'il n'existe « aucune preuve » que l'IA soit consciente à l'heure actuelle, il est « inévitable et indésirable » que la SCAI puisse apparaître dans les deux à trois prochaines années, a écrit Suleyman.
La principale inquiétude de Suleyman est que l'IAC puisse paraître empathique et agir avec une plus grande autonomie, ce qui amènerait ses utilisateurs à « croire à l'illusion de l'IA comme entité consciente », au point de plaider pour les droits de l'IA , voire sa citoyenneté. Cela marquerait un « tournant dangereux » pour la société, où les individus s'attacheraient à l'IA et se déconnecteraient de la réalité.
« Cette évolution marquera un tournant dangereux dans le progrès de l'IA et mérite notre attention immédiate », écrit Suleyman dans son essai. Il ajoute plus tard que l'IA « déconnecte les gens de la réalité, fragilise les liens et les structures sociales fragiles et déforme les priorités morales pressantes ».
Suleyman a déclaré être de plus en plus préoccupé par la psychose de l'IA , c'est-à-dire par les personnes qui éprouvent de fausses croyances, des délires ou des sentiments paranoïaques après des interactions prolongées avec des chatbots IA. Parmi les exemples de psychose de l'IA, on peut citer les utilisateurs qui développent une relation amoureuse avec un chatbot IA ou qui se sentent dotés de super pouvoirs après avoir interagi avec lui.
La psychose liée à l'IA ne touchera pas seulement les personnes à risque de problèmes de santé mentale, prédit Suleyman. Il a ajouté que les utilisateurs doivent « de toute urgence » discuter des « garde-fous » entourant l'IA afin de protéger les individus des effets négatifs de la technologie.
Mustafa Suleyman, PDG de Microsoft IA. Photographe : David Ryder/Bloomberg via Getty Images
Suleyman est devenu PDG de Microsoft en charge de l'IA l'année dernière après avoir cofondé et dirigé sa propre startup d'IA pendant deux ans, Inflection AI, selon LinkedIn . Microsoft est la deuxième entreprise la plus valorisée au monde, avec une capitalisation boursière de 3 780 milliards de dollars au moment de la rédaction de cet article.
Suleyman a également cofondé DeepMind, une société de recherche et développement en IA acquise par Google pour environ 600 millions de dollars en 2014.
Suleyman n'est pas le premier PDG à mettre en garde contre les effets néfastes de l'IA. Lors d'une conférence de la Réserve fédérale le mois dernier à Washington, le PDG d'OpenAI, Sam Altman, a déclaré que sa « dépendance émotionnelle excessive » à ChatGPT l'empêchait de dormir.
« Les gens dépendent trop de ChatGPT », a déclaré Altman lors de l'événement. « C'est vraiment dommage. »
Une IA apparemment consciente pourrait arriver dans les prochaines années, constituant une menace « dangereuse » pour la société, affirme un leader de l'IA.
Mustafa Suleyman, PDG de Microsoft AI, 41 ans, a écrit dans un essai personnel publié plus tôt cette semaine que l'IA apparemment consciente (SCAI), qui est une intelligence artificielle si avancée qu'elle peut convaincre les humains qu'elle est capable de formuler ses propres pensées et croyances, n'est qu'à quelques années.
Le reste de cet article est verrouillé.
Rejoignez Entrepreneur + aujourd'hui pour y accéder.
Vous avez déjà un compte ? Se connecter
entrepreneur