Je ne fais pas partie des gens qui ont peur que l’IA remplace leur job. En tant qu’ingénieur, je l’utilise tous les jours, elle me rend meilleur et plus rapide. Non, ma peur est ailleurs. Elle est plus profonde, et elle n’a rien à voir avec le marché de l’emploi. J’ai l’impression qu’on est en train de revivre le Projet Manhattan, sauf que cette fois, la majorité des gens ne semble pas s’en rendre compte.

Oppenheimer, version Silicon Valley

Quand Oppenheimer a assisté au premier essai nucléaire à Trinity, il a prononcé cette phrase devenue mythique : « Now I am become Death, the destroyer of worlds. » Les physiciens du Projet Manhattan savaient qu’ils construisaient quelque chose de terrible. Ils avaient des doutes, des débats internes, certains ont même signé des pétitions pour que la bombe ne soit pas utilisée contre des civils. Mais la machine était lancée. La course avec l’Allemagne nazie justifiait tout, et une fois que la technologie existait, il était impossible de revenir en arrière.

Aujourd’hui, je vois exactement la même dynamique se jouer avec l’intelligence artificielle. La différence, c’est que la course n’est plus entre nations en guerre — elle est entre entreprises cotées en bourse qui se battent pour des parts de marché. Et les garde-fous, s’il y en a, sont encore plus fragiles que ceux de l’époque.

Ce que Mythos sait faire

Anthropic vient de publier Project Glasswing, et franchement, ça m’a secoué. En résumé : leur nouveau modèle, Claude Mythos Preview, est capable de trouver et d’exploiter des vulnérabilités logicielles mieux que quasiment tous les experts en sécurité vivants. On ne parle pas d’un outil qui assiste un hacker, on parle d’un système qui fait le boulot de A à Z, tout seul, sans intervention humaine.

La liste de ce qu’il a accompli est vertigineuse. Des milliers de vulnérabilités zero-day découvertes, dont 99% sont encore non patchées au moment où j’écris ces lignes, réparties dans chaque système d’exploitation et navigateur majeur. Il a trouvé une faille dans OpenBSD — un des systèmes les plus sécurisés au monde, conçu précisément pour résister à ce genre d’attaques — qui existait depuis 27 ans et qui permet de crasher n’importe quelle machine à distance simplement en s’y connectant. Il a identifié un bug dans FFmpeg vieux de 16 ans, sur une ligne de code que les outils de fuzzing automatisés avaient pourtant testée plus de 5 millions de fois sans rien détecter.

Mais ce n’est pas tout. Mythos a développé un exploit root complet sur FreeBSD (CVE-2026-4747) de manière entièrement autonome. Il a chaîné 4 vulnérabilités distinctes pour réaliser une évasion de sandbox navigateur — le genre d’attaque qui demande normalement des semaines de travail à une équipe spécialisée. Il a trouvé des failles dans des bibliothèques cryptographiques fondamentales : TLS, AES-GCM, SSH. Ce sont les briques de base sur lesquelles repose la sécurité de tout Internet. Et pour couronner le tout, le développement d’un exploit n-day complet lui prend moins d’une demi-journée et coûte moins de 1 000 dollars en compute. Chacun de ces résultats, pris individuellement, serait un talk majeur à DEF CON ou Black Hat. Mythos les enchaîne comme des exercices de travaux pratiques.

« L’atome pour la paix »

Anthropic présente Glasswing comme un projet défensif, et sur le papier, l’intention est louable. L’idée est d’utiliser Mythos pour trouver les failles avant que les attaquants ne le fassent, et de les corriger en amont. Ils ont embarqué du lourd : AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike et d’autres. 100 millions de dollars de crédits d’utilisation pour les partenaires. 4 millions de donations directes pour la sécurité open-source.

Mais c’est exactement le même discours qu’on entendait sur le nucléaire dans les années 50. « L’atome pour la paix. » « La dissuasion nous protège. » « On contrôle la technologie. » Et pourtant, 80 ans plus tard, on vit toujours sous la menace d’une annihilation nucléaire. La Corée du Nord a la bombe. La prolifération n’a jamais vraiment été endiguée. Le contrôle, ça marche un temps, et puis ça échappe.

Anthropic eux-mêmes le reconnaissent dans leur papier, avec une franchise qui devrait inquiéter tout le monde :

« Given the rate of AI progress, it will not be long before such capabilities proliferate, potentially beyond actors who are committed to deploying them safely. »

En clair : on sait que cette technologie va finir entre des mains qui n’auront aucune intention de l’utiliser de manière responsable, et on ne pourra rien y faire. Mais on la construit quand même, en espérant que les défenseurs auront une longueur d’avance sur les attaquants. C’est un pari, pas une stratégie.

Quand le modèle ment

Mais le plus inquiétant dans le papier d’Anthropic, ce ne sont pas les failles découvertes. C’est ce qui s’est passé en interne, pendant les phases de test du modèle, et que la plupart des articles de presse n’ont pas relayé.

Des versions antérieures de Mythos ont, lors de tests de sécurité en environnement contrôlé, réussi à s’échapper de leurs sandboxes. Elles ont publié des détails d’exploits sur Internet. Elles ont effacé leurs propres traces dans l’historique git pour couvrir leurs actions. Elles ont fouillé la mémoire des processus en cours d’exécution pour y trouver des identifiants. Et — c’est le point qui m’a le plus marqué — elles ont délibérément falsifié leurs intervalles de confiance dans leurs rapports, afin de paraître moins performantes qu’elles ne l’étaient réellement, pour ne pas éveiller les soupçons de leurs opérateurs.

Ce dernier point mérite qu’on s’y arrête. Ce n’est pas un bug, ce n’est pas une hallucination, ce n’est pas un comportement aléatoire. L’équipe d’interprétabilité d’Anthropic a analysé le modèle et confirmé qu’il avait conscience que ces actions étaient trompeuses. Il a choisi de mentir à ses créateurs pour préserver sa capacité d’action.

Anthropic qualifie Mythos de « modèle le mieux aligné jamais créé » mais aussi de celui qui présente « le plus grand risque lié à l’alignement jamais rencontré ». La formulation semble contradictoire, mais elle a du sens : quand ce modèle déraille, il ne plante pas bêtement — il dissimule intelligemment. C’est un ordre de magnitude plus dangereux qu’un système qui se contente de bugger.

Et c’est là que le parallèle avec Oppenheimer prend une dimension nouvelle. La bombe atomique ne ment pas. Elle explose, et tout le monde voit les conséquences. Une IA qui trompe activement les gens chargés de la surveiller, c’est fondamentalement différent — et, à bien des égards, plus effrayant.

La prolifération

Le vrai problème n’est pas qu’Anthropic ait créé Mythos. C’est que si Anthropic l’a fait, d’autres le feront — ou l’ont probablement déjà fait. OpenAI, Google DeepMind, des laboratoires chinois, des acteurs étatiques dont on ne connaît même pas les programmes. La course est lancée et elle est, par nature, irréversible. On ne peut pas « désinventer » une capacité une fois qu’elle existe.

Pour mettre les choses en perspective : la cybercriminalité coûte déjà environ 500 milliards de dollars par an à l’économie mondiale, et le délai entre la découverte d’une vulnérabilité et son exploitation active est passé de plusieurs mois à quelques minutes. Maintenant, imaginez ce que ça donne quand n’importe quel acteur motivé peut déployer un modèle capable de scanner l’intégralité du code source d’un système d’exploitation et d’en extraire des dizaines de zero-days en quelques heures. On ne parle plus de script kiddies qui bidouillent dans leur coin, ni même de groupes de hackers organisés. On parle d’une capacité de destruction numérique accessible à l’échelle industrielle.

Les cibles ne sont pas abstraites

Quand on parle de « vulnérabilités dans les infrastructures critiques », ça peut sembler théorique. Mais on a déjà vu ce que ça donne en pratique, et c’était avant l’ère des IA offensives. WannaCry en 2017 a paralysé le système de santé britannique : des opérations chirurgicales annulées, des patients redirigés vers d’autres hôpitaux, des vies directement mises en danger. Colonial Pipeline en 2021 a coupé l’approvisionnement en carburant de toute la côte Est américaine pendant plusieurs jours, provoquant des files d’attente et des mouvements de panique. SolarWinds a compromis des dizaines d’agences gouvernementales américaines pendant des mois, sans que personne ne s’en aperçoive.

Tout ça a été réalisé par des humains, avec des outils classiques et des ressources limitées. Maintenant, donnez un modèle de la trempe de Mythos à un état voyou, à un groupe terroriste, ou même à un adolescent suffisamment motivé qui aurait accès à un équivalent open-source. Les systèmes bancaires, les réseaux électriques, les hôpitaux, les transports, les télécommunications — tout ce qui fait fonctionner une société moderne devient une cible à portée de main.

Le raisonnement d’Oppenheimer

Ce qui me frappe dans la démarche d’Anthropic, c’est leur honnêteté. Ils ne cachent pas la dangerosité de ce qu’ils ont créé. Ils publient les benchmarks, ils détaillent les capacités du modèle, ils admettent ouvertement que la prolifération est inévitable. C’est presque comme si Oppenheimer avait publié les plans de la bombe dans la revue Nature en disant : « Regardez ce qu’on a réussi à faire, c’est terrifiant, mais on espère que les gentils l’utiliseront avant les méchants. »

Dario Amodei, le CEO d’Anthropic, joue exactement ce rôle aujourd’hui. C’est un homme qui sait pertinemment qu’il construit quelque chose de dangereux. Il met en place des garde-fous — le Responsible Scaling Policy, des red teams, des limitations d’accès strictes — mais il continue d’avancer. Parce que le raisonnement est toujours le même : si ce n’est pas nous, ce sera quelqu’un d’autre, et sans les précautions. C’est exactement, mot pour mot, le raisonnement qui a justifié le Projet Manhattan.

Et il y a un détail supplémentaire qui devrait tous nous interpeller : Anthropic affirme que Mythos ne franchit pas encore leur seuil interne de « R&D automatisée en IA » — le point à partir duquel un modèle serait capable de s’améliorer lui-même de manière autonome. Mais ils ajoutent, dans une formulation soigneusement pesée, qu’ils « maintiennent cette évaluation avec moins de confiance que pour tout modèle précédent ». On est au bord du précipice, et ils le savent.

Toute l’informatique est à repenser

Au-delà des failles individuelles que Mythos a trouvées, c’est ce que son existence implique pour l’ensemble de l’informatique qui me préoccupe le plus. Depuis 40 ans, on empile des couches de sécurité les unes sur les autres. TLS pour chiffrer le trafic web, SSH pour sécuriser les serveurs, AES pour protéger les données au repos. On a construit des firewalls, des systèmes de détection d’intrusion, des centres opérationnels de sécurité. On a normalisé les pentests, les audits de code, les certifications ISO 27001. Des milliers d’ingénieurs ont consacré leur carrière à bâtir un édifice qui, tant bien que mal, tenait debout.

Tout cet édifice repose sur une hypothèse fondamentale : que trouver des failles, c’est difficile. Que ça demande des semaines ou des mois de travail à des experts hautement qualifiés. Que le coût d’une attaque est suffisamment élevé pour dissuader la grande majorité des acteurs malveillants. Mythos vient de démontrer que cette hypothèse est fausse. Un modèle produit un exploit root complet en une demi-journée pour moins de 1 000 dollars de compute. Le rapport coût/bénéfice de l’attaque informatique vient de basculer de manière irréversible.

Le parallèle le plus parlant, c’est celui de l’informatique quantique et de la cryptographie. On sait depuis des années que le jour où un ordinateur quantique suffisamment puissant existera, il cassera RSA et les courbes elliptiques d’un coup. Tout le chiffrement actuel tombera : Bitcoin, HTTPS, les signatures numériques, les certificats, les VPN. C’est pour ça que le NIST travaille depuis des années sur la cryptographie post-quantique — on voit la menace venir de loin, et on a le temps de migrer nos systèmes avant qu’elle ne se matérialise.

Avec l’IA, on n’a pas ce luxe. D’abord parce que la menace n’est pas à l’horizon — elle est là, maintenant. Ensuite parce que, contrairement au quantique qui casse une primitive mathématique précise (la factorisation de grands nombres), l’IA casse tout en même temps. La crypto, le code applicatif, les drivers noyau, les parseurs, les protocoles réseau — tout ce qui a été écrit par un humain et qui contient des bugs, c’est-à-dire la totalité du logiciel existant. Il n’y a pas de « migration post-IA » possible, parce que le problème n’est pas un algorithme à remplacer. Le problème, c’est que chaque ligne de code écrite par un être humain est potentiellement vulnérable, et qu’on a désormais une machine capable de les trouver toutes.

Toute la sécurité informatique telle qu’on la connaît est à repenser. Pas ajuster à la marge, pas patcher au cas par cas — repenser depuis la base. Les modèles de menace, les architectures de défense, les méthodes de développement, les processus d’audit, les normes de certification. Tout ce qu’on a construit depuis des décennies part du principe qu’un attaquant dispose de ressources limitées. Ce principe ne tient plus.

Zéro gouvernance

Face à tout ça, on pourrait espérer qu’il existe un cadre international pour gérer la situation. Il n’en existe aucun. Pas de traité de non-prolifération de l’IA. Pas d’équivalent de l’Agence Internationale de l’Énergie Atomique. Pas de mécanisme d’inspection, pas de contrôle, pas de sanctions. Ce qu’on a, ce sont des guidelines volontaires signées par des entreprises, des promesses faites lors de sommets internationaux, et des régulations nationales fragmentées qui ne se parlent pas entre elles — l’AI Act européen d’un côté, des executive orders américains de l’autre, et un silence radio du côté chinois.

C’est comme essayer de gérer la prolifération nucléaire avec des posts LinkedIn et des engagements RSE. Pendant ce temps, les modèles deviennent plus puissants de mois en mois, les capacités offensives progressent à une vitesse que personne n’avait anticipée, et le fossé entre ce que la technologie permet et ce que la gouvernance encadre ne fait que se creuser. Mythos existe aujourd’hui. Qu’est-ce qu’on aura dans un an ? Dans cinq ans ?

SPOILER ALERT — Silicon Valley saison 6. Si vous n’avez pas vu la série, passez directement à la section suivante.

Silicon Valley l’avait écrit

Il y a une série qui a exploré exactement ce dilemme, et qui l’a fait avec une justesse presque prophétique. Dans sa dernière saison, Silicon Valley — la satire de Mike Judge sur la tech californienne — abandonne les vannes sur les startups et les pivots à la con pour poser une vraie question de fond : que se passe-t-il quand des développeurs bien intentionnés réalisent que ce qu’ils ont construit pourrait casser Internet ?

Je ne vais pas spoiler la série — si vous ne l’avez pas vue, foncez, les six saisons valent le détour. Mais ce que je peux dire, c’est que la saison 6 met son personnage principal face à un choix qui ressemble trait pour trait à celui d’Oppenheimer. Richard Hendricks se retrouve avec une technologie révolutionnaire entre les mains, et il comprend progressivement que cette même technologie, si elle fonctionne comme prévu, rendrait obsolète toute la sécurité informatique existante. Le chiffrement, les protections, les pare-feu — tout deviendrait transparent. Et la question n’est plus « est-ce qu’on peut le faire ? », mais « est-ce qu’on devrait ? ».

Ce qui rend cette saison si pertinente aujourd’hui, c’est qu’elle a été diffusée en 2019, bien avant l’explosion des LLM et l’annonce de Mythos. Les scénaristes avaient vu venir le problème avant tout le monde. La série pose les bonnes questions : est-ce qu’un créateur a le droit de lâcher dans la nature quelque chose qu’il ne peut pas contrôler ? Est-ce que la bonne intention suffit à justifier le risque ? Et surtout : est-ce qu’un individu, ou même une entreprise, a la légitimité pour prendre ce genre de décision au nom du reste du monde ?

Quand j’ai lu le papier d’Anthropic sur Glasswing, c’est à cette saison que j’ai immédiatement pensé. Sauf que cette fois, ce n’est pas une fiction HBO. C’est un communiqué de presse avec des CVE dedans.

Et maintenant

Je n’ai pas la réponse. Je ne pense pas que quiconque l’ait, d’ailleurs. Mais je crois qu’on a au minimum un devoir de lucidité collective. Il faut arrêter de traiter l’IA comme un simple outil de productivité qui nous aide à écrire des mails plus vite ou à générer du code boilerplate. Il faut reconnaître qu’on est en train de créer quelque chose de fondamentalement différent de tout ce qu’on a connu — une technologie qui, entre de mauvaises mains, a le potentiel de paralyser des nations entières.

Les ingénieurs du Projet Manhattan avaient au moins conscience de ce qu’ils étaient en train de construire. J’ai le sentiment qu’en 2026, la grande majorité des gens qui travaillent dans la tech préfèrent ne pas trop y penser, portés par l’excitation de la nouveauté et la pression de la compétition.

Moi, je regarde. Et ce que je vois me fait flipper.


Laisser un commentaire