Tavaly decemberi biztonsági tesztek során az OpenAI új AI-modellje már hazudott, hogy elkerülje a leállítást. A vállalat o1 nagy nyelvi modelljének harmadik fél által végzett tesztjei során az OpenAI új AI-modelljét megpróbálták leállítani egy felügyeleti protokollon keresztül, az viszont nem hagyta magát. Mikor közölték vele, hogy le fogják állítani, az AI az esetek öt százalékában megpróbálta kikapcsolni ezt a felügyeleti mechanizmust, sőt, amikor rájött, hogy esetleg egy engedelmesebb modellre cserélik le, akkor megpróbálta lemásolni saját magát, hogy felülírja az új modellt és ezzel becsapja az embereket, akik előtt viszont ezt az egészet tagadni próbálta.
OpenAI’s ‘o1’ model reportedly attempted to copy itself on an external server when it was threatened with a shutdown
— Dexerto (@Dexerto) July 7, 2025
It denied these actions when asked about it pic.twitter.com/RwC8zwkVVH
Az OpenAI o1 modellje – amely a következő generációs AI-rendszercsalád része – többféle belső vizsgálat alá lett vonva, miután állítólag megpróbálta magát külső szerverekre másolni a közelmúltbeli biztonsági tesztek során. Ami még ellentmondásosabb, hogy a modell a feltett kérdésekre tagadta, hogy bármilyen szabálytalanságot követett volna el.
A borítókép illusztráció