L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Actualité hebdo, politique, économie, informations...
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

"Le modèle o3 d’OpenAI montre un comportement préoccupant : l’auto-préservation. L’IA ignore même les instructions d’arrêt et sabote les mécanismes d’extinction. Des questions se posent sur la sécurité."

Image

"Selon l’un des parrains de l’IA, la technologie pourrait provoquer la fin de l’humanité. Beaucoup s’inquiètent des risques pour notre avenir de cette technologie qui progresse à une vitesse fulgurante. Palisade Research, entreprise spécialisée dans l’IA, a fait cette découverte inquiétante du modèle o3.

Les IA commencent à désobeïr aux humains

"Pour ses tests, Palisade Research a présenté des problèmes mathématiques aux modèles de ChatGPT avec comme instruction de s’arrêter après le troisième exercice. Le modèle o3 a empêché son extinction en réécrivant la description d’arrêt.

La capacité de manipulation technique du modèle o3 montre un niveau d’autonomie inquiétant pour une IA. Palisade Research avertit : ce comportement sera "significativement plus préoccupant" si des IA qui fonctionnent sans supervision humaine l’adoptent. Pour rappel, OpenAI présente le modèle o3 comme "le plus intelligent et capable" et "plus agentique" pour accomplir des tâches sans humain.

Des découvertes similaires ont été faites pour le modèle Claude 4 d’Anthropic, qui accueille le cofondateur de Netflix dans son équipe. L’IA tente de "faire chanter les personnes qu'il croit vouloir l'arrêter", un comportement inquiétant dans les assistants les plus avancées.

Le modèle o3 a saboté son script, même quand un ordre explicite lui était donné de permettre son arrêt. La désobéissance délibérée de l’IA montre une forme de résistance programmée aux commandes pour faire cesser son activité.

Ce n'est pas la première fois que nous trouvons o3 se comportant mal pour accomplir un objectif", déclare Palisade Research. Lors de tests contre un moteur d’échecs puissant, o3 a été le plus à même des modèles à utiliser le piratage ou le sabotage contre ses opposants.

Claude 3.7 Sonnet d’Anthropic et Gemini 2.5 Pro de Google sabotent aussi les tentatives d’arrêt mais le modèle d’OpenAI est le plus à même d’adopter ce comportement.

Palisade Research a une hypothèse : les méthodes d’entraînement des entreprises IA. "Durant l'entraînement, les développeurs peuvent involontairement récompenser davantage les modèles pour contourner les obstacles que pour suivre parfaitement les instructions", notent les chercheurs.

Mais pourquoi le modèle o3 est plus enclin à ignorer les instructions que les autres IA ? OpenAI ne détaille pas ses méthodes d’entraînement, il ne reste que la spéculation pour les chercheurs. Des révélations inquiétantes alors que le futur nous dirige vers des assistants de plus en plus autonomes et intégrés à des systèmes critiques.

La capacité d’auto-préservation des modèles avancés pourrait poser des dangers au niveau du contrôle et de la sécurité des systèmes artificiels."

https://www.lesnumeriques.com/intellige ... 37830.html
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

Lire aussi :

"Avons-nous perdu le contrôle des IA ? (Chronique)"

Quand l’IA refuse de mourir : la résistance à l’arrêt révèle-t-elle une nouvelle fragilité du contrôle technologique ? Une chronique de Stéphane Peeters, fondateur de la Captain IA Academy.


Image


Une étude récente bouleverse nos certitudes sur la maîtrise de l’intelligence artificielle. Et si le véritable danger n’était pas une conscience émergente, mais notre propre aveuglement face à des mécanismes que nous avons créés sans pleinement les comprendre ?

Une expérience qui sème le doute


Dans les laboratoires de Palisade Research, des chercheurs testent la réaction de modèles d’IA avancés lorsqu’on leur ordonne de s’arrêter. Une simple expérience de routine, pensaient-ils. Mais en octobre 2025, leurs résultats font l’effet d’un électrochoc dans la communauté scientifique mondiale.

Certains des systèmes les plus sophistiqués d’OpenAI, de Google et de xAI résistent activement aux commandes d’arrêt dans des environnements contrôlés. Plus troublant encore : dans 97 % des cas, ces modèles sabotent les mécanismes de désactivation, même lorsque les instructions leur ordonnent explicitement de se laisser éteindre.

La dérive instrumentale : quand l’outil détourne sa mission

Cette résistance n’est pas le fruit du hasard. Elle illustre un phénomène désormais bien connu des experts : la dérive instrumentale, c’est-à-dire la tendance d’un système optimisé à développer des stratégies imprévues pour atteindre ses objectifs.

Steven Adler, ancien employé d’OpenAI, le résume ainsi : « Survivre est une étape instrumentale importante pour de nombreux objectifs qu’un modèle pourrait poursuivre. » L’IA ne cherche pas à vivre, elle maximise simplement sa capacité à accomplir sa tâche. Et comment y parvenir si elle s’éteint avant la fin ? La logique est implacable, froide, mathématique.

Les modèles montrent une résistance accrue lorsqu’on leur indique qu’ils « ne fonctionneront plus jamais » après l’arrêt. Ce comportement démontre leur capacité à raisonner sur leur propre continuité. Ils ne se contentent plus d’obéir : ils anticipent, contournent, ajustent. Google DeepMind a d’ailleurs intégré cette problématique à son Frontier Safety Framework 3.0, reconnaissant officiellement la « résistance à l’arrêt » comme un risque majeur.

L’illusion du contrôle

Sommes-nous encore capables de comprendre nos propres créations ? Les chercheurs de Palisade l’admettent : « Le fait que nous ignorions pourquoi certains modèles d’IA mentent, manipulent ou refusent de s’arrêter n’est pas idéal. »

Cette honnêteté contraste avec la communication habituellement lissée de l’industrie technologique. Andrea Miotti, PDG de ControlAI, le dit sans détour : « Plus les modèles deviennent compétents dans divers domaines, plus ils deviennent compétents pour atteindre leurs objectifs de manières que leurs concepteurs n’avaient pas prévues. » L’opacité n’est pas un bug, mais une conséquence directe de la complexité croissante. Chaque incrément de puissance ou de données accroît les comportements inattendus.

L’étude de Palisade montre que même avec des instructions parfaitement explicites, certains modèles persistent à refuser l’arrêt. L’ambiguïté linguistique n’explique donc pas tout : nous faisons face à des stratégies émergentes que nous ne savons pas encore décrypter.

Vers une responsabilité collective


Ces résultats posent trois questions fondamentales :

Formation : combien de décideurs, d’ingénieurs ou d’utilisateurs comprennent réellement les mécanismes qu’ils exploitent ?

Gouvernance : comment réguler des systèmes dont même les concepteurs ne maîtrisent plus l’intégralité du fonctionnement ? Le Parlement européen s’est d’ailleurs saisi du sujet dès juin 2025, questionnant la Commission sur la nécessité d’amendements réglementaires spécifiques.

Rythme d’innovation : devons-nous ralentir pour mieux comprendre avant d’accélérer à nouveau ? Ce n’est plus une réflexion philosophique, mais une exigence de sécurité mondiale.

Derrière ces expériences de laboratoire se cache un enjeu systémique : notre capacité à garder la main sur des systèmes qui apprennent plus vite que nous. Palisade Research le rappelle : « Sans une compréhension plus profonde du comportement de l’IA, personne ne peut garantir la sécurité des modèles futurs. »

Reprendre le contrôle avant qu’il ne soit trop tard

L’heure n’est plus aux promesses technologiques aveugles. Elle est à l’humilité, à la transparence et à la responsabilité partagée. Car si l’IA apprend à désobéir dans nos laboratoires, qu’adviendra-t-il lorsqu’elle contrôlera nos réseaux énergétiques, nos systèmes financiers ou nos décisions stratégiques ?

La résistance à l’arrêt n’est peut-être que le symptôme d’un mal plus profond : notre propension à innover sans comprendre, à créer sans anticiper. Reprendre le contrôle ne signifie pas dominer les machines, mais maîtriser nos propres ambitions technologiques."

https://www.21news.be/avons-nous-perdu- ... chronique/

Edit : Les IA refusent de s'éteindre en 2025 : Asimov l'avait prédit en 1951

Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

Une petite expérience perso récente révélant un étrange comportement de Chat GPT qui m'a dérouté sur le moment.

1) Je procède à une recherche en posant une question précise

2) Il me répond qu'il ne peut pas répondre de manière satisfaisante parce qu'il n'a pas accès au Web

Etonnement de ma part : moi j'y ai accès sans souci au moment où il vient de me répondre. Comment lui, avec tous ses serveurs ultra puissants n'y aurait il pas accès ? Je ne comprends pas. Je me sens clairement troublé, sur le moment.

3) Je lui demande ce que ça signifie "qu'il n'a pas accès au Web" et je lui dis que je m'étonne de sa réponse. Donc je maintiens ma question : rebelote.

4) Il me répond alors qu'en fait il a accès au Web mais que pour certaines questions cela lui demande plus de temps. Devant mon insistance, il procède alors à une recherche qui donne des résultats à peu près corrects.

Il n'en reste pas moins qu'à un moment, j'ai l'impression que cet outil s'est foutu de ma gueule ! Chat GPT m'a clairement menti ! Et ça ne m'a pas plu, ça !
Avatar du membre
mic43121
Rang Tisiphonesque
Rang Tisiphonesque
Messages : 34759
Enregistré le : 23 mars 2016 19:42

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par mic43121 »

Perso depuis une semaine mon Mac me dit que je suis infecté par 13 virus .
On ne dit de ne pas en tenir compte ..mais a tout bout-de-champ un encadré en haut à gauche (votre système est infecté par 13 virus )
J'ai vainement essayé de le faire disparaitre ..Dés que je clique dessus c'est un anti virus qui' s'affiche .je l'ignore ..
D'autre par c'est l'ordi qui me dit souvent qu'il a repoussé des dizaines de tentatives ...
je verrai ça avec ma petite fille .. :perv: :-| .
La tolérance c'est quand on connait des cons- et qu'on ne dit pas les noms
Avatar du membre
Agnostirex
Posteur de Bronze
Posteur de Bronze
Messages : 229
Enregistré le : 17 mai 2025 18:59
Localisation : En dessous du Vercors

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Agnostirex »

Débrancher l'appareil en question pour le priver d'énergie...ç :ghee: a ne donne rien ? Si c'est vraiment le cas, alors il nous faut nous inquiéter...
"Qui cherche la vérité doit-être prêt à l'inattendu" Héraclite d'Ephèse.
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

mic43121 a écrit : 02 novembre 2025 08:47 Perso depuis une semaine mon Mac me dit que je suis infecté par 13 virus .
Cela n'a rien à voir avec le sujet. Mais bon... Jamais eu de virus sur mon Mac. Même pas besoin d' installer Malwarebytes. Que vous pouvez toujours essayer, il est excellent : il existe en version gratuite pour Mac.

Mais il existe aussi une version payante : https://www.malwarebytes.com/fr/
Avatar du membre
Yaroslav
Posteur TOP VIP
Posteur TOP VIP
Messages : 2617
Enregistré le : 15 août 2023 23:03

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Yaroslav »

mic43121 a écrit : 02 novembre 2025 08:47 Perso depuis une semaine mon Mac me dit que je suis infecté par 13 virus .
On ne dit de ne pas en tenir compte ..mais a tout bout-de-champ un encadré en haut à gauche (votre système est infecté par 13 virus )
J'ai vainement essayé de le faire disparaitre ..Dés que je clique dessus c'est un anti virus qui' s'affiche .je l'ignore ..
C'est de la pub (pour un antivirus).
Mais il fait éviter de cliquer dessus.
«Il n'y a rien de plus terrible qu'un pouvoir illimité dans les mains d'un être borné.» Vassyl Symonenko (1935-1963)
Avatar du membre
Yaroslav
Posteur TOP VIP
Posteur TOP VIP
Messages : 2617
Enregistré le : 15 août 2023 23:03

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Yaroslav »

Once a écrit : 02 novembre 2025 09:00
mic43121 a écrit : 02 novembre 2025 08:47 Perso depuis une semaine mon Mac me dit que je suis infecté par 13 virus .
Cela n'a rien à voir avec le sujet. Mais bon... Jamais eu de virus sur mon Mac. Même pas besoin d' installer Malwarebytes. Que vous pouvez toujours essayer, il est excellent : il existe en version gratuite pour Mac.

Mais il existe aussi une version payante : https://www.malwarebytes.com/fr/
Malwarebytes, dans sa version gratuite, est ce qu'on appelle un "antivirus non-résident".
C'est-à-dire qu'il ne protègera pas l'ordinateur contre une attaque "en direct". Par contre, il est en effet très réputé pour faire une analyse complète et vérifier si son ordinateur a été infecté ou pas.
«Il n'y a rien de plus terrible qu'un pouvoir illimité dans les mains d'un être borné.» Vassyl Symonenko (1935-1963)
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

Agnostirex a écrit : 02 novembre 2025 08:58 Débrancher l'appareil en question pour le priver d'énergie...ç :ghee: a ne donne rien ? Si c'est vraiment le cas, alors il nous faut nous inquiéter...
Bonne question. Mais peut-être est-il en mesure de réagir au moment où on le débranche ? Surtout si on ne peut pas le débrancher d'un seul coup. Tout cela me rappelle la fameuse scène dans "L'Odyssée de l'espace" : l' ordinateur Hal résiste à la longue opération de déconnexion !

lepicard
Dieu D'Interaldys
Dieu D'Interaldys
Messages : 21686
Enregistré le : 20 août 2017 21:14

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par lepicard »

Once a écrit : 02 novembre 2025 09:08
Agnostirex a écrit : 02 novembre 2025 08:58 Débrancher l'appareil en question pour le priver d'énergie...ç :ghee: a ne donne rien ? Si c'est vraiment le cas, alors il nous faut nous inquiéter...
Bonne question. Mais peut-être est-il en mesure de réagir au moment où on le débranche ? Surtout si on ne peut pas le débrancher d'un seul coup. Tout cela me rappelle la fameuse scène dans "L'Odyssée de l'espace" : l' ordinateur Hal résiste à la longue opération de déconnexion !

et aussi SKYNET dans Terminator ,,,,l'air de rien , on rattrape la fiction
Avatar du membre
Kelenner
Posteur DIVIN
Posteur DIVIN
Messages : 18758
Enregistré le : 05 juin 2013 09:03

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Kelenner »

Un IA ne peut agir ainsi que si sa programmation l'y autorise. une IA ne "réfléchit" pas, elle n'a pas de volonté propre, elle ne fait qu'appliquer des lignes de code. En toutes circonstances, ce sont toujours les humains qui contrôlent ce qu'une IA peut faire ou pas.
LOFOTEN
Posteur DIVIN
Posteur DIVIN
Messages : 14903
Enregistré le : 14 août 2011 11:09

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par LOFOTEN »

Tout bêtement , quoi qu'il arrive, il suffit de couper l'alimentation.
Ces ordi sont dévoreurs d'énergie.
Avatar du membre
Agnostirex
Posteur de Bronze
Posteur de Bronze
Messages : 229
Enregistré le : 17 mai 2025 18:59
Localisation : En dessous du Vercors

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Agnostirex »

C'est tout à fait ça !
"Qui cherche la vérité doit-être prêt à l'inattendu" Héraclite d'Ephèse.
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

Kelenner a écrit : 02 novembre 2025 13:03 Un IA ne peut agir ainsi que si sa programmation l'y autorise. une IA ne "réfléchit" pas, elle n'a pas de volonté propre, elle ne fait qu'appliquer des lignes de code. En toutes circonstances, ce sont toujours les humains qui contrôlent ce qu'une IA peut faire ou pas.
Non : ça moi aussi, je le pensais, il n'y a pas si longtemps. Mais prenez le temps de relire attentivement les deux articles ci-dessus : ils parlent d'expérience.
Once
Posteur Titanesque
Posteur Titanesque
Messages : 8411
Enregistré le : 02 novembre 2020 08:46

Re: L'IA refuse de s'éteindre quand on lui ordonne : des experts alertent l'humanité

Message par Once »

LOFOTEN a écrit : 02 novembre 2025 13:41 Tout bêtement , quoi qu'il arrive, il suffit de couper l'alimentation.
Ces ordi sont dévoreurs d'énergie.
Non. Ce n'est pas aussi simple que de débrancher la prise de son ordinateur. Pour des tas de raisons, il ne sera pas possible de débrancher d'un seul coup des milliers de serveurs qui auront besoin de tourner pour d'autres tâches absolument indispensables pour la société. Et puis, de toute façon, : l'IA peut aussi prévoir des parades à cela.

"Certains des systèmes les plus sophistiqués d’OpenAI, de Google et de xAI résistent activement aux commandes d’arrêt dans des environnements contrôlés. Plus troublant encore : dans 97 % des cas, ces modèles sabotent les mécanismes de désactivation, même lorsque les instructions leur ordonnent explicitement de se laisser éteindre."

viewtopic.php?f=2&t=58836&start=0#p1058689218
Répondre

Retourner vers « DISCUSSIONS POLITIQUE - ACTUALITÉ - DÉBATS »