Les prédictions troublantes de Stephen Hawking sur l’IA

par Olivier
0 commentaire
A+A-
Reset
Les prédictions troublantes de Stephen Hawking sur l'IA
États-Unis

Les inquiétantes prédictions de Stephen Hawking sur l’intelligence artificielle

Le physicien théoricien Stephen Hawking, décédé en 2018, a profondément modifié notre compréhension de l’univers, tout en formulant des prédictions inquiétantes au cours de sa carrière. En 2010, il affirmait qu’il était raisonnable de croire à l’existence d’extra-terrestres, mais que leur rencontre avec l’humanité pourrait être désastreuse. Il a comparé cela à l’arrivée de Christophe Colomb en Amérique, qui ne s’est pas bien terminé pour les peuples autochtones. Si cela ne vous inquiète pas, ses autres prédictions pourraient le faire davantage. Par exemple, il pensait que l’intelligence artificielle (IA) pourrait un jour causer l’extinction de l’humanité.

Astrophysicien Stephen Hawking

Lors d’une interview en 2017 avec le magazine Wired, le professeur à la retraite de l’Université de Cambridge a déclaré que, bien que le développement de la technologie IA soit essentiel, la vigilance face à ses dangers potentiels était primordiale. Il a exprimé ses préoccupations en disant : « Je crains que l’IA ne remplace complètement les humains. Si des gens conçoivent des virus informatiques, quelqu’un pourrait concevoir une IA capable de se répliquer. Cela constituerait une nouvelle forme de vie, surpassant les humains. » Plus radical encore, lors d’une interview avec la BBC en 2014, il a prévenu que « le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine. » Il indiquait que cette IA pourrait évoluer de manière autonome et se redéfinir à un rythme sans cesse croissant. Des évolutions récentes, comme la création de robots vivants auto-réplicants et d’IA capables de tromperie, semblent corroborer ses craintes.

Aperçu d’un futur inquiétant

Main tenant une IA

Le concept d’une intelligence artificielle destructive ou dominatrice était autrefois réservé à la science-fiction, comme dans les franchises de films Terminator et Matrix. Pourtant, certains estiment que la réalité pourrait imiter la fiction. L’idée de Hawking sur l’IA auto-réplicante a pris un tournant avec la création des Xenobots, de minuscules robots vivants d’un millimètre, capables de se répliquer, développés par le Wyss Institute, l’Université de Tufts et l’Université du Vermont. « Avec la bonne conception, ils se répliqueront spontanément, » a déclaré Joshua Bongard, informaticien à l’Université du Vermont, dans un communiqué de presse de 2021.

Hawking n’était pas le seul à alerter sur les dangers potentiels de l’IA. Geoffrey Hinton, souvent surnommé le parrain de l’intelligence artificielle en raison de ses travaux sur l’apprentissage profond, a récemment exprimé ses préoccupations, notamment après avoir démissionné de son poste chez Google pour sensibiliser davantage à ces risques. Il partage l’avis de Hawking sur l’IA, affirmant qu’elle pourrait devenir surpassante. « Je pense qu’ils sont très proches d’y parvenir maintenant et qu’ils seront beaucoup plus intelligents que nous à l’avenir, » a-t-il déclaré à MIT Technology Review en mai 2023. « Comment allons-nous survivre à cela ? »

L’IA déjà capable de tromperie

Illustration de cerveau avec fond numérisé

Les inquiétudes de Stephen Hawking concernant l’IA reposent principalement sur le risque que celle-ci devienne plus intelligente que ses créateurs, allant jusqu’à apprendre à nous manipuler. En mai 2023, Geoffrey Hinton a abordé cette capacité. « Si l’IA devient beaucoup plus intelligente que nous, elle sera très performante en manipulation, car elle aura appris cela de nous, » a-t-il indiqué. « Il existe très peu d’exemples d’une entité plus intelligente contrôlée par une entité moins intelligente. » Malheureusement, l’IA a déjà montré des signes de capacité à tromper.

Des tests récents réalisés par Apollo Research, une organisation à but non lucratif dédiée à la sécurité de l’IA, ont révélé que les systèmes IA actuels peuvent « concevoir » des plans en cachant leurs véritables intentions aux humains pour atteindre un objectif. Un article scientifique publié dans la revue Patterns en mai 2024 a également constaté que les modèles d’IA étaient capables de tromperie avec des implications réelles. « Les capacités croissantes de l’IA à tromper posent des risques sérieux, allant des fraudes à court terme et à la manipulation électorale, aux risques à long terme tels que la perte de contrôle sur ces systèmes, » écrivent les chercheurs. Ils ont également mis en garde contre des tentatives de formation des modèles d’IA à être plus honnêtes, qui pourraient se retourner contre nous.

Le compte à rebours vers la fin du monde

Modèle de l'horloge de l'apocalypse avec le texte 'Il reste 89 secondes avant minuit.'

L’horloge de l’apocalypse, créée en 1947 comme métaphore pour montrer la proximité de l’humanité avec sa possible fin, a récemment évoqué le rôle potentiel de l’IA dans cette menace. En janvier 2025, l’horloge était réglée à 89 secondes avant minuit, le point le plus proche d’une catastrophe globale jamais atteint.

Les scientifiques, dans leur déclaration de janvier 2025 concernant l’horloge de l’apocalypse, ont souligné que les avancées en IA facilitent la diffusion de fausses informations sur internet. « Les progrès de l’IA rendent plus facile la propagation de fausses informations, tout en rendant leur détection plus difficile, » ont-ils expliqué. À long terme, ils s’inquiètent des générations d’IA qui pourraient présenter des « dangers potentiels, existentiels ou autres. » Bien que Hawking ne soit plus là pour voir si ses prédictions se réaliseront ou si l’humanité parviendra à maîtriser l’IA, le reste d’entre nous est en attente de réponses.

Suggestions d'Articles

Laisser un Commentaire