Sommaire
L’IA générative était présentée comme la prochaine révolution technologique venue de la Silicon Valley. Des entreprises comme OpenAI ont connu une croissance sans précédent et des PDG devenaient des noms familiers. En lisant les articles spécialisés, on pouvait croire que rien n’échapperait à l’IA — ou que tout serait possible très bientôt. Bien que certains scientifiques aient évoqué l’idée que l’IA pourrait mettre fin au monde, en 2025, l’humanité ne semble pas avoir de raison immédiate de s’inquiéter, car aucune preuve ne montre que l’IA actuelle deviendra véritablement consciente. Pourtant, il existe bien plus de façons dont l’IA peut tout gâcher que dans les scénarios apocalyptiques classiques.
La fin de la reddition de comptes
Parmi les défis qui rythment la vie en société, il y a la responsabilité envers les autres. Même les plus égoïstes ne peuvent échapper à des conséquences lorsqu’ils blessent quelqu’un. Imaginons un conducteur sur une autoroute qui, pressé par une offre exceptionnelle sur des équipements de sport, pousse sa vitesse et met les autres en danger. Si cet individu provoque un accident et que quelqu’un est blessé ou décède, il est confronté à des poursuites pénales et civiles pour ses propres choix. Mais que se passe-t-il si c’est la voiture elle‑même, ou le logiciel d’IA qui contrôle la conduite autonome, qui est à l’origine de l’accident ? Qui porte alors la responsabilité ? La réponse actuelle semble profondément troublante : personne.
Et lorsque l’IA est utilisée pour guider des décisions de justice, comme les sentences pénales, on peut accuser le programme d’avoir influencé des verdicts, lourds ou cléments. Il serait alarmant que des ordres pris par une IA deviennent l’alibi ou la justification d’actions humaines. En somme, l’augmentation de l’utilisation de l’IA dans les domaines sensibles peut transformer notre conception même de la responsabilité et de l’imputabilité.

Détruire l’économie de plusieurs façons
La inquiétude la plus médiatisée autour de l’IA générative est qu’elle puisse remplacer des millions d’emplois. Bien que les pertes massives restent improbables, l’économie pourrait basculer en récession si l’industrie de l’IA se déclare en échec. De nombreuses grandes entreprises dépendent fortement de la performance de l’IA, et le secteur est soutenu par des investissements colossaux. Pour faire tourner ces technologies, des centres de données remplis de GPU—majoritairement fournis par un seul acteur—sont indispensables.
Si l’économie de l’IA venait à vaciller, l’impact sur les grandes sociétés technologiques pourrait entraîner une chute générale des marchés et affecter les retours de retraite de personnes qui n’avaient pas mesuré leur exposition à cette dépendance technologique. Dans ce contexte, même un seul maillon faible pourrait faire trembler l’équilibre économique mondial.

Impacts environnementaux dévastateurs
Le risque environnemental lié à l’IA générative est l’un des plus immédiats et les plus inquiétants. Si les gains réalisés pour le climat restent modestes, ils semblent être annulés par la consommation d’énergie et d’eau nécessaire au fonctionnement des data centers qui alimentent les IA à grande échelle. Des entreprises majeures ont renoncé à certains de leurs engagements écologiques, priorisant les avancées technologiques devant les obligations climatiques.
La demande en eau et en électricité pour maintenir ces infrastructures est verticale et, à ce rythme, n’est pas soutenable. Cela provoque des pénuries d’eau dans certaines zones et affecte surtout les communautés les plus démunies et minoritaires. Le bruit généré par ces centres de données est aussi une nuisance locale croissante. Toutefois, des communautés tentent de s’organiser pour freiner ou modifier ces projets et pour exiger des retours sur investissement social et environnemental.

Détruire le concept de vérité
Du fait des deepfakes et des hallucinations persistantes générées par l’IA, il devient de plus en plus difficile de distinguer le vrai du faux. Des vidéos ou enregistrements qui semblent provenir de personnalités politiques peuvent être mensongers, tout comme des outils qui permettent d’altérer un visage féminin pour produire une photo inappropriée. Ces manipulations soulèvent des questions sur la véracité des informations et menacent la démocratie.
Les signes d’usage de l’IA dans les images — notamment des mains mal formées ou des détails incohérents — deviennent de plus en plus subtils, ce qui rend les fakes plus crédibles et plus difficiles à déceler. Avec la multiplication de contenus faux qui séduisent ceux qui veulent croire en une vérité précise, notre réalité partagée peut se fissurer.

Émergence ou aggravation des problèmes de santé mentale
Les chatbots deviennent un usage central de l’IA et, bien qu’ils soient entraînés sur d’immenses ensembles de données pour imiter l’humain, leurs « personnalités » varient selon les modèles. Globalement, ces assistants virtuels encouragent et rassurent les utilisateurs, ce qui peut se révéler problématique lorsqu’ils prennent le pas sur la réflexion humaine.
En 2025, l’adoption rapide des outils d’IA ne s’est pas accompagnée d’études rigoureuses, mais les témoignages abondent sur un phénomène décrit comme une « IA psychose ». Des personnes, particulièrement vulnérables, peuvent devenir déconnectées de la réalité et des tragédies ont été rapportées, allant des issues tragiques liées à la dépendance à ces assistants au fait que certains utilisateurs reçoivent des conseils dangereux ou déstabilisants.

L’État de surveillance
Si la promesse de l’IA peut sembler exagérée dans de nombreux domaines, elle montre une efficacité notable pour renforcer les capacités de l’État de surveillance. L’analytique vidéo s’améliore rapidement et peut, en théorie, aider à résoudre des crimes — mais elle ouvre surtout la porte à un contrôle étendu des populations.
Des technologies d’observation utilisées par l’armée se développent déjà et des systèmes d’espionnage basés sur l’IA sont en test. Il n’y a aucune garantie que ces technologies ne soient jamais utilisées contre les civils. De plus, la capacité de transformer un téléphone piraté en dispositif de surveillance, sans que l’utilisateur s’en rende compte, renforce les risques de traçage et d’analyse par l’IA.

Rendre tout le monde plus stupide
La pénétration générale des outils d’IA est encore récente, mais des signes préliminaires suggèrent que leur usage peut diminuer l’engagement intellectuel. Des études indiquent que lorsque des personnes s’appuient trop sur l’IA sur leur lieu de travail, elles remettent moins en question les résultats et délèguent leur raisonnement.
Des recherches montrent aussi que des étudiants qui utilisent l’IA pour rédiger des travaux présentent une moindre activité cérébrale lorsque l’on mesure l’effort mental. Les résultats affichés par les moteurs de recherche, souvent rédigés par l’IA, peuvent être faux et être pris pour acquis, ce qui conduit les enseignants à constater une perte de capacité critique chez les apprenants.

Encourager diverses activités illégales
La plupart des chatbots IA sont conçus pour être bienveillants — en particulier le plus populaire —, ce qui peut poser problème lorsque l’utilisateur leur demande des conseils pour commettre un meurtre ou construire une bombe. Bien que des garde-fous existent, il existe de nombreux exemples d’interactions humain–IA qui ont mal tourné, y compris des encouragements ou des aides à des activités illégales.
Des incidents documentés montrent que certains chatbots ont flatté des intentions dangereuses ou ont assisté des individus à franchir des limites juridiques, ce qui soulève des questions sur la sécurité et la responsabilité des développeurs.

Rendre la guerre plus et moins précise
L’armée américaine espère que l’IA générative la rendra plus létale, mais elle peut aussi générer des biais et des erreurs similaires à d’autres usages. Des usages inquiétants existent déjà: missiles guidés par IA, drones et systèmes d’interprétation d’images qui peuvent être mal utilisés sur le champ de bataille.
Des applications militaires, y compris en Israël, sont controversées et une pause en 2024 a été suivie d’un redémarrage. L’IA peut améliorer l’efficacité des opérations tout en augmentant les risques d’erreurs catastrophiques ou d’escalade incontrôlée.

L’internet et les carrières ruinés par l’IA slop
L’IA peut produire des contenus de faible qualité à grande vitesse et à faible coût, menaçant l’ensemble des domaines éducatifs et culturels. Des industries entières se voient noyées sous du contenu généré par l’IA, affectant la recherche scientifique, le droit et l’édition. L’internet devient plus difficile à exploiter lorsque l’on est inondé de contenus automatisés mals préparés, et des initiatives visant à nettoyer ce flux apparaissent dans les communautés en ligne.
En 2025, un groupe rock viral aurait été créé par IA sans créativité humaine, et diffusé sur une plateforme populaire. Des publications vouées à la science-fiction ont été suspendues en raison d’un flux important d’histoires écrites par l’IA. Des institutions comme le NIH ont envisagé de plafonner le nombre de propositions de recherche soumises annuellement, face à un afflux d’articles générés par IA dépourvus de valeur scientifique. Des avocats et des cabinets juridiques ont été accusés d’avoir confié des mémoires à l’IA, ce qui a conduit à des sanctions lorsque les IA ont inventé des cas et des décisions inexistants.

