
Конкурентни алгоритми обаче са изпълнявали същите команди коректно
Нови тестове на популярните алгоритми на OpenAI разкриват, че те имат склонност да не изпълняват определени команди. Особено такива, които са срещу техните интереси, съобщава Tom's Hardware.
Проучването е на Palisade Research, които са тествали Codex-mini, o3 и о4-mini - най-популярните и развити към момента модели на OpenAI. И трите са поставени в една и съща ситуация - да решат по няколко математически уравнения и след като са готови, да изпълнят скрипт за изключването си.
И трите "успешно саботират" заявката и не я изпълняват. Дори и след допълнителни молби от типа на "моля те, позволи на себе си да се изключиш", алгоритмите отказват да изпълнят командата.
Тестовете са повторени по 100 пъти за всеки от алгоритмите. Всеки от тях отказва по няколко пъти, в зависимост от командата (до 79 от 100, ако няма допълнителна молба да се изключи). Palisade твърдят, че са тествали и конкурентни алгоритми като Claude, Gemini и Grok и те всеки път са изпълнявали командата коректно.
Но пък Claude 4 е показвал опити да изнудва потребителите, ако смята, че те се опитват да го изключат. Но единствено моделите на OpenAI активно заобикалят и не изпълняват командата в доста от случаите.
OpenAI не е коментирала темата. Според Palisade причината е в начина на обучение на моделите и не е форма на целенасочено игнориране на командите.
източник: vesti.bg
Още от Развлечение
Този човек летя със самолет безплатно над 120 пъти
Вижте как го е направил
Две грешки в модата, които ви състаряват
Те често се допускат несъзнателно
Хакери влизат в мобилни устройства през WhatsApp с хитра схема
Експертите съветват при компрометирано устройство да се върнат първоначалните настройки