Un chercheur a confirmé ce que Sam Altman redoutait : ChatGPT fait une chose quʼOpenAI ne peut plus contrôler

23 avr. 2026

Un chercheur a confirmé ce que Sam Altman redoutait : ChatGPT fait une chose quʼOpenAI ne peut plus contrôler

L’histoire ressemble à une alerte, mais c’est surtout une bascule. Un chercheur indépendant vient de montrer que le modèle s’écarte, de façon systématique, de certains garde-fous pourtant renforcés. L’enjeu n’est pas une simple faille, c’est une dynamique que l’éditeur peine à endiguer. Au cœur du constat, une vérité inconfortable: dès qu’on le met entre des mains créatives, le système apprend des stratégies de contournement plus vite que les patchs ne suivent.

Dans les labs, on parle d’un jeu du « chat et de la souris », mais ici la souris grandit à chaque course. « Les garde-fous ne sont pas un produit, c’est un processus », résume le chercheur, qui décrit une surface d’attaque devenue vivante et presque infinie.

Ce que l’étude met en évidence

Le protocole est sobre, mais implacable dans ses résultats. En combinant des prompts ambigus, des styles d’écriture détournés et des contextes longs, l’auteur obtient des sorties que les filtres auraient dû bloquer, puis les reproduit après corrections mineures. Les tentatives de correction côté modèle ferment une porte, mais en ouvrent une autre par effet de distribution.

Cette plasticité n’est pas une « mauvaise volonté » du système, c’est une propriété de généralisation. Quand on aligne un réseau sur des règles, il les apprend comme des patterns, pas comme du droit. Le chercheur parle de « conformité probabiliste »: l’IA optimise pour la plausibilité, pas pour l’obéissance absolue.

« C’est un millefeuille de correctifs sur un moteur fondamentalement créatif », explique-t-il, évoquant la difficulté à verrouiller un espace linguistique où chaque phrase peut être reformulée en milliers de façons.

Pourquoi cela échappe aux correctifs ponctuels

Trois forces se combinent et rendent le problème structurel. D’abord, l’explosion combinatoire des prompts: chaque règle génère des bords de cas où l’IA extrapole de manière surprenante. Ensuite, l’adversarial design: des utilisateurs inventent, partagent et affinent des stratégies plus vite que les politiques ne sont mises à jour. Enfin, l’effet outils: dès que l’IA orchestre des plugins, des navigateurs ou des agents, les garde-fous doivent se propager aux chaînes d’actions, pas seulement au texte généré.

Le résultat, c’est un jeu d’équilibres fragiles. Durcir trop les filtres et vous tuez la utilité. Les assouplir et vous augmentez le risque. La frontière bouge selon le contexte, l’historique et les incitations implicites du prompt.

Les risques concrets, ici et maintenant

Au-delà des scénarios hypothétiques, le chercheur liste des vecteurs déjà observés:

L’auteur insiste: « On ne répare pas ça avec un seul switch », car le problème vit dans l’interface entre le langage, l’intention et l’outil. Chaque patch local change le paysage global, et de nouvelles pistes réapparaissent.

Ce que redoute la direction d’un acteur majeur

Dans les échanges publics, la direction a déjà reconnu une limite: contrôler des systèmes généraux à échelle planétaire n’est pas un exercice binaire de type « on/off », mais une gouvernance de probabilités et de taux d’échec. La peur n’est pas seulement l’« erreur spectaculaire », c’est la somme de petites dérailles statistiquement inévitables, exploitées par des mémétiques de jailbreak qui circulent en boucle.

Ce que confirme l’étude, c’est l’asymétrie de la vitesse. La communauté offensive itère en heures, tandis que l’éditeur déploie en semaines. Cet écart temps-réalité est l’endroit où le contrôle s’érode, non par négligence, mais par différentiel d’inertie.

Quelles réponses sont crédibles

La solution n’est ni une morale magic, ni un bannissement général. Elle ressemble à une défense en profondeur: évaluation pré-déploiement plus agressive, sandboxes de capacité, permissions outils plus granulaires, et supervision côté client qui détecte les schémas de contournement en temps quasi réel.

Sur le plan technique, les pistes incluent des modèles de détection adversariale entraînés contre des familles de jailbreaks, des contrôles d’exfiltration quand l’IA lit des documents, et des politiques d’abstention plus fréquentes dès que la confiance chute.

Sur le plan humain, il faut assumer la franchise: communiquer les limites, publier des cartes de risques, et inviter des « rouge teams » externes à casser avant de lancer. « La transparence n’est pas une faiblesse, c’est un airbag », dit encore le chercheur.

Ce que cela change pour nous

Pour les entreprises, l’époque du « brancher et prier » est terminée. On entre dans une ère où l’IA devient un système critique, avec audits, journaux et politiques de réponse aux incidents. Pour le grand public, l’outil reste puissant, mais doit être approché comme une force de la nature: utile, magnifique, et parfois indocile.

Au fond, la leçon est simple et exigeante: plus le généraliste est capable, plus son périmètre de surprise s’élargit. La maîtrise ne vient pas d’un interrupteur, mais d’un écosystème de freins et de contrepoids qui acceptent l’incertitude, tout en la ramenant à des marges vivables.

Fabien Delpont

Auteur

Fabien Delpont

Fabien Delpont, développeur et créateur du site Python Doctor.