
Поширити
Штучний інтелект ChatGPT знову опинився у центрі уваги після того, як користувачі помітили дивну поведінку мовної моделі. Компанія OpenAI уже виступила з офіційною заявою з цього приводу.
Головні тези:
- ChatGPT почав згадувати “гоблінів” на 175% частіше, ніж раніше, а “гремлінів” – на 52%.
- Команда OpenAI визнала свою провину у тому, що відбувається.
Що знову не так з ChatGPT?
Багато питань у користувачів виникає під час роботи з мовними моделями серії GPT-5.
Головна проблема полягає в тому, що у бесідах вони дедалі частіше почали використовувати метафори з "гоблінами", "гремлінами" та іншими вигаданими істотами.
На цьому тлі користувачі почали скаржитися на надмірну "фамільярність" відповідей чатбота.
Команда OpenAI врешті вирішила пояснити, що насправді сталося.
За словами представників компанії, головною причиною такої поведінки бота став алгоритм навчання моделей під специфічні типи "особистості", які користувачі потім могли обирати для спілкування з ChatGPT.
Особливо яскраво проблема проявилася у бота з типом особистості Nerdy (сленговий "ботанік"). Хоча на особистість Nerdy припадало лише 2,5% відповідей ChatGPT, саме ця версія виявилася відповідальною за 66,7% усіх згадок гоблінів.
Поширити
Як зазначають розробники, коли тренували версію Nerdy під специфічну "ботанську" манеру спілкування, їй несвідомо прописали особливо високу пріоритетність використання "метафор з істотами".
Звідти поширилися гобліни, — офіційно визнала компанія OpenAI.
Поширити
