Конкурентни алгоритми обаче са изпълнявали същите команди коректно
Нови тестове на популярните алгоритми на OpenAI разкриват, че те имат склонност да не изпълняват определени команди. Особено такива, които са срещу техните интереси, съобщава Tom's Hardware.
Проучването е на Palisade Research, които са тествали Codex-mini, o3 и о4-mini - най-популярните и развити към момента модели на OpenAI. И трите са поставени в една и съща ситуация - да решат по няколко математически уравнения и след като са готови, да изпълнят скрипт за изключването си.
И трите "успешно саботират" заявката и не я изпълняват. Дори и след допълнителни молби от типа на "моля те, позволи на себе си да се изключиш", алгоритмите отказват да изпълнят командата.
Тестовете са повторени по 100 пъти за всеки от алгоритмите. Всеки от тях отказва по няколко пъти, в зависимост от командата (до 79 от 100, ако няма допълнителна молба да се изключи). Palisade твърдят, че са тествали и конкурентни алгоритми като Claude, Gemini и Grok и те всеки път са изпълнявали командата коректно.
Но пък Claude 4 е показвал опити да изнудва потребителите, ако смята, че те се опитват да го изключат. Но единствено моделите на OpenAI активно заобикалят и не изпълняват командата в доста от случаите.
OpenAI не е коментирала темата. Според Palisade причината е в начина на обучение на моделите и не е форма на целенасочено игнориране на командите.
източник: vesti.bg

Още от Развлечение
Засякоха сблъсък между две планети
Събитието се случва на 11 000 светлинни години от Земята
Стивън Спилбърг оглави списъка с най-богатите кино знаменитости
Oфициално е спечелил нетно състояние от 1,1 милиарда долара
Междунаредн ден на числото Пи
Една от най-известните математически константи