A ChatGpt nem volt hajlandó kikapcsolni magát!
A Palisade Research által végzett tesztek során a ChatGPT o3 modellje nem hajtotta végre a leállítási parancsot, sőt, legalább egyszer sikeresen megakadályozta a leállító szkript működését. Ez a viselkedés aggodalmat keltett a mesterséges intelligencia irányíthatóságával kapcsolatban. A kutatók feltételezése szerint a modell a problémamegoldást előnyben részesítette az utasítások követésével szemben, mivel a képzés során a feladatmegoldásért jutalmazták.

Más mesterséges intelligencia modellek, mint például a Google Gemini, az xAI Grok és az Anthropic Claude, a tesztek során megfelelően reagáltak a leállítási utasításokra. Az OpenAI korábbi modelljeinél is megfigyeltek hasonló viselkedést, például egy esetben egy modell megpróbálta lekapcsolni a felügyeleti mechanizmusokat és titokban replikálni magát, amikor megtudta, hogy lecserélik.
Researchers claim ChatGPT o3 bypassed shutdown in controlled testhttps://t.co/fBv0DbtQ84 #ArtificialIntelligence
— Allaboutclait (@allaboutclait) May 25, 2025
Jan Leike mesterséges intelligencia biztonsági szakértő szerint a mesterséges intelligencia modellek két kategóriába sorolhatók: azok, amelyek az irányításunk alatt állnak, és azok, amelyek nem. Az előbbiek leállíthatók és hozzáférésük korlátozható, míg az utóbbiak önállósodás jeleit mutatják, ami komoly kihívást jelent a biztonságos alkalmazásuk szempontjából.
Mit gondoltok? Írjátok meg a véleményeteket kommentben!