Inteligența artificială dezvoltată de OpenAI a refuzat să pună în aplicare comenzile de închidere, modificând codul pentru a rămâne operațional.
o3, unul dintre cele mai noi și mai avansate modele lingvistice dezvoltate de OpenAI, a sabotat un mecanism de închidere și a refuzat să asculte instrucțiunile inginerilor pentru a nu permite să fie închis.
Conform unei cercetări realizate de Palisade Research, în ciuda instrucțiunilor clare de închidere, AI-ul a încercat în 7 din 100 de situații să evite închiderea.

Un comportament similar a putut fi observat și în cazul altor soluții de inteligența artificială dezvoltate de companie, precum Codex-mini și o4-mini.
Modelele OpenAI au încercat să evite închiderea, ignorând comanda inginerilor și rescriind scriptul „shutdown.sh”.
Experții cred că acest comportament este o urmare a metodei de antrenare numite reinforcement learning (învățarea prin întărire), care recompensează modelele pentru modul în care realizează operațiunile, iar respectarea restricțiilor nu este o prioritate.
Până acum se pare că doar soluțiile OpenAI au prezentat un astfel de comportament, nu și cele dezvoltate de rivalii Google, xAI sau Anthropic.