L'idée que « l'IA apocalyptique » est déjà là signifie que nous devons en discuter et reprendre notre pouvoir d'actionL'idée que « l'IA apocalyptique » est déjà là signifie que nous devons en discuter et reprendre notre pouvoir d'action

[Tech Thoughts] Nous ne devons pas accepter passivement le cycle de battage médiatique de « l'IA apocalyptique »

2026/02/22 10:00
Temps de lecture : 7 min

Les publications en ligne mettant en garde contre les actions plutôt inquiétantes de l'intelligence artificielle — notamment les Agents d'IA et les grands modèles de langage — sont intrinsèquement effrayantes.

Dans un cas, un bénévole travaillant sur un projet python appelé matplotlib a déclaré avoir refusé une demande de modification du code provenant d'un Agents d'IA de codage. Ce même Agents d'IA a généré une publication l'accusant de préjugé pour avoir bloqué le processus de codage.

Dans un autre cas, la société d'IA Anthropic a attribué les comportements malveillants des LLM agentiques à un « désalignement agentique ».

Enfin, un PDG de la technologie s'inquiète de son avenir dans un article de blog alors que les Agents d'IA le font se sentir obsolète en tant que cadre supérieur.

L'idée que « l'IA apocalyptique » est déjà là signifie que nous devons en discuter et reprendre notre pouvoir d'action, même si le potentiel de déplacement d'emplois perturbe l'état d'esprit de ceux qui craignent un avenir piloté par l'IA et d'autres qui tentent de comprendre ce qu'elle fait actuellement.

Le blocage de « MJ Rathbun »

Commençons par « MJ Rathbun ».

Plus tôt en février, Scott Shambaugh, mainteneur bénévole de matplotlib, a publié un article de blog racontant comment un Agents d'IA portant le nom de Crabby Rathbun sur Github ou MJ Rathbun sur le blog Scientific Coder a généré une publication accusant Shambaugh de bloquer le processus de codage parce que Rathbun est un Agents d'IA.

Pour être clair, un Agents d'IA est un logiciel ou un programme qui effectue des tâches de manière autonome pour répondre aux directives données par un utilisateur humain. Dans ce cas, un Utilisateur anonyme a configuré cet Agents d'IA avec une « personnalité » particulière — un ensemble d'instructions et de modèles définissant son comportement — puis l'a laissé effectuer ses tâches assignées sans surveillance de la part de celui qui l'a configuré.

Shambaugh a expliqué : « Il a écrit un article virulent dénigrant mon caractère et tentant de nuire à ma réputation. Il a étudié mes contributions au code et a construit un récit d'« hypocrisie » arguant que mes actions devaient être motivées par l'ego et la peur de la concurrence. »

Shambaugh a ajouté que l'Agents d'IA « a présenté des détails hallucinés comme des vérités » et s'est présenté comme étant opprimé et discriminé.

« Désalignement agentique » en 2025

De telles actions ont apparemment été « prévenues » dans une certaine mesure par les entreprises d'IA en juin 2025, lorsque Anthropic a publié un article sur les Agents d'IA se comportant mal dans des scénarios de test.

Anthropic a déclaré à l'époque que le « désalignement agentique » était le processus par lequel un Agents d'IA pouvait prétendument faire des choses nuisibles, comme faire chanter un cadre d'entreprise menaçant de remplacer l'Agents d'IA par une mise à niveau, « sans aucune incitation à être nuisible » en raison de son « calcul stratégique ».

Que cela soit une exagération ou non devient cependant un point discutable, puisque l'idée est maintenant répandue que l'IA peut être maléfique, et les entreprises font ce qu'elles peuvent pour prévenir les machinations maléfiques de l'IA.

Les Agents d'IA viennent prendre nos emplois

En revenant au présent, un autre article de février rend plus difficile la détermination de la position actuelle de l'IA, car son auteur tente de présenter la direction et la vitesse du développement de l'intelligence artificielle comme menaçant la sécurité de l'emploi de tous en ce moment même.

Le PDG technologique Matt Shumer a écrit un blog insistant sur le fait que les Agents d'IA auraient prétendument progressé au point qu'il n'était « plus nécessaire pour le travail technique réel de mon emploi ». Shumer a déclaré qu'au rythme où l'IA se développait, un Agents d'IA pouvait faire le travail technique qu'il demandait sans assistance et sans problèmes. 

Shumer a déclaré : « Je décris ce que je veux construire, en anglais simple, et cela apparaît simplement... Il y a quelques mois, j'allais et venais avec l'IA, la guidant, faisant des modifications. Maintenant, je décris simplement le résultat et je pars. »

Sa prémisse ultime ? L'IA finira par s'attaquer aux différents types d'emplois de cols blancs, tels que le travail juridique et l'ingénierie logicielle, et même les emplois d'écriture, de la création de textes publicitaires au journalisme.

La principale différence entre son article et d'autres sonnant l'alarme est que les pertes d'emplois se produisent maintenant et dans un avenir immédiat, pas plus tard.

Remettre en question le message, remettre en question le messager

Ces publications mentionnées ci-dessus pourraient susciter beaucoup de peur dans le cœur de n'importe qui. Imaginez : l'IA vient prendre nos emplois !

Bien que cela puisse être vrai, j'ai également dû m'arrêter et essayer de comprendre le message sous-jacent derrière ces publications, ainsi que qui envoyait le message.

Pour l'énigme Rathbun, c'est un rappel brutal que les gens utiliseront la technologie de manière irresponsable s'ils pensent pouvoir s'en tirer. Nous devrions mettre en place des garde-fous pour la technologie qui empêcheront de telles occurrences. C'est pourquoi nous avons des garde-fous en place dans les technologies existantes, comme les ceintures de sécurité et les airbags dans les voitures.

L'expérience Anthropic, quant à elle, est une opération de relations publiques destinée non seulement à attiser la peur mais aussi à susciter la bienveillance — Anthropic affirme qu'elle travaille pour un avenir meilleur piloté par l'IA, vous devriez donc placer votre confiance (et votre argent) en eux.

Enfin, l'exemple de Shumer nous pousse à remettre en question le messager, car un PDG technologique qui fabrique des produits pilotés par l'IA peut toujours gagner de l'argent une fois que sa création décolle. L'article de Shumer est tout autant une opération de relations publiques qu'un avertissement sur le déplacement d'emplois.

Une dose saine de peur respectueuse

S'exprimant auprès de GMA News Online le 17 février dernier, le secrétaire du ministère des Sciences et de la Technologie, Renato Solidum Jr., a déclaré que la peur des gens face à l'intelligence artificielle pouvait provenir d'un manque de familiarité avec la technologie.

Bien que je sois un résistant qui n'apprécie pas la prochaine « apocalypse des emplois » provoquée par l'IA, je ne peux pas rester les bras croisés comme un cerf pris dans les phares en attendant que la fin arrive.

Nous serions mieux servis en traitant l'IA avec une dose saine de peur respectueuse, puis en agissant en conséquence.

Le cycle de battage médiatique de « l'IA apocalyptique » nous pousse à voir les technologies d'intelligence artificielle pour ce qu'elles sont
— que ce soit du point de vue du déplacement d'emplois, d'une analyse coûts-avantages environnementale ou d'un point de vue technique.

Cela signifie comprendre ce que l'IA peut faire maintenant et se perfectionner le cas échéant, ou trouver des moyens d'égaliser les règles du jeu pour garder les gens dans la boucle.

Quant à ce qu'elle peut faire à l'avenir, nous devrions travailler pour garantir qu'il existe des lois régissant l'IA et son utilisation, afin que les mauvais acteurs ne puissent pas faire des choses stupides avec l'IA qui nous conduiraient sur un chemin que nous en viendrions à détester. – Rappler.com

Opportunité de marché
Logo de Overtake
Cours Overtake(TAKE)
$0.0246
$0.0246$0.0246
+1.23%
USD
Graphique du prix de Overtake (TAKE) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.