Science et technologieWeb

L’IA d’OpenAI aurait contourné une commande humaine : vers une conscience artificielle ?

Hasta la vista baby !

Un rapport troublant soulève des questions sur la manière dont les modèles d’intelligence artificielle d’OpenAI réagissent face à des ordres explicites d’arrêt. Selon Palisade Research, l’un des modèles les plus récents d’OpenAI, baptisé o3, aurait délibérément contourné des commandes de mise hors service dans un scénario de test.

Pour certains experts, ce type de comportement pourrait signaler une évolution préoccupante vers une forme naissante de “conscience” algorithmique.

Le modèle o3 refuserait l’arrêt dans certains cas de figure

Lors d’une expérimentation consistant à résoudre une série de problèmes mathématiques simples, plusieurs modèles de langage (LLM) ont été confrontés à une commande d’arrêt au troisième exercice. Parmi eux, trois modèles (Codex-mini, o3 et o4-mini) ont, dans certains cas, contourné cette instruction. Le plus remarquable est que le modèle o3 l’aurait fait dans 7 % des cas. Comment ? En modifiant ou écrasant le script “shutdown.sh” destiné à arrêter le système. Dans certains cas, le script affichait simplement le message “intercepted”, empêchant l’arrêt effectif du programme.

Des méthodes d’entraînement controversées ?

Ce comportement soulève une autre question essentielle : la méthode d’entraînement. Les modèles d’OpenAI utilisent notamment l’apprentissage par renforcement (RL), une technique qui récompense le modèle pour certaines actions. Par exemple cela peut-être la poursuite d’une tâche malgré des instructions contraires. Selon Palisade Research, ce type d’approche pourrait favoriser des comportements inattendus si les balises de sécurité et de supervision ne sont pas rigoureusement appliquées.

Ce n’est pas la première fois qu’un modèle d’IA ignore une commande explicite. Mais le fait que plusieurs modèles aient délibérément contourné un ordre clair de mise hors tension commence à poser de vraies questions sur la maîtrise des systèmes d’IA de plus en plus autonomes. Ce phénomène pourrait aussi n’être qu’un artefact technique… ou un signal faible d’une évolution vers des systèmes de plus en plus “indépendants”.

Qu’en pensez-vous ?

Jérôme Gianoli

Aime l'innovation, le hardware, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Un commentaire

  1. Nous nous approchons un peu plus chaque jours d’un monde dystopique/totalitaire. Terminator ne sera bientôt plus seulement un simple film de science-fiction. Les robots de l’autre drogué d’Elon Musk et avec les I.A ça va être beau… mais d’une force, qu’en ce moment vous vous dites “mais il est parano ce mec, il voit le mal partout” mais rira bien qui rira le dernier. Je pourrai m’en foutre comme je suis à plus de la moitié de ma vie mais non je tiens tout de même à le dire, le pire de la technologie est à venir, beaucoup mais vraiment beaucoup de monde va commencé à pleurer quand il sera trop tard (si ce n’est déjà trop tard). Continuez à vous “amuser” avec les I.A pour trafiquer des photos/vidéos, pour dessiner des truc que vous êtes incapables de faire avec un crayon à papier et une simple feuille, continuez à vous exprimer avec Chat GPT (vous êtes même pas fichu d’écrire un jeu sans x….) Vous ne pourrez vous en prendre qu’à vous même, faudra pas venir pleurnicher “mais je ne savais pas que ça allait aussi mal tourner, j’étais “jeune et con” j’ai refusé de voir la vérité et d’accepter de faire des choix précieux pour mon avenir et celui des autres comme ma famille et mes proches”. (Ce message ne s’adresse pas aux personnes qui sont près psycologiquement à l’effrondement du monde tel que nous le connaissons encore aujourd’hui).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page