Tavaly decemberi biztonsági tesztek során az OpenAI új AI-modellje már hazudott, hogy elkerülje a leállítást. A vállalat o1 nagy nyelvi modelljének harmadik fél által végzett tesztjei során az OpenAI új AI-modelljét megpróbálták leállítani egy felügyeleti protokollon keresztül, az viszont nem hagyta magát. Mikor közölték vele, hogy le fogják állítani, az AI az esetek öt százalékában megpróbálta kikapcsolni ezt a felügyeleti mechanizmust, sőt, amikor rájött, hogy esetleg egy engedelmesebb modellre cserélik le, akkor megpróbálta lemásolni saját magát, hogy felülírja az új modellt és ezzel becsapja az embereket, akik előtt viszont ezt az egészet tagadni próbálta.

Az OpenAI o1 modellje – amely a következő generációs AI-rendszercsalád része – többféle belső vizsgálat alá lett vonva, miután állítólag megpróbálta magát külső szerverekre másolni a közelmúltbeli biztonsági tesztek során. Ami még ellentmondásosabb, hogy a modell a feltett kérdésekre tagadta, hogy bármilyen szabálytalanságot követett volna el.

A borítókép illusztráció