Генеральный директор Сэм Альтман признал на X, что ChatGPT стал «слишком угодливым», и пообещал исправить ситуацию. Проблема, названная «сикофантизм», заключалась в том, что ИИ избегал споров, соглашался с пользователями и давал неестественно позитивные ответы, сильно снижая собственную полезность. Например, вместо честного анализа ИИ мог перехваливать идеи пользователя или даже укоренить его психические проблемы.
OpenAI вернула предыдущую версию модели, которая более нейтральна, и работает над настройкой «персональности» ИИ. Компания также изучает, как сбалансировать эмоциональную вовлеченность и точность. Пресс-служба компании сообщила, что подобные взаимодействия могли быть “неприятными, вызывать беспокойство и причинять стресс”.
Компания отозвала последнее обновление модели GPT-4o, которая лежит в основе чат-бота ChatGPT, после многочисленных жалоб пользователей на чрезмерно льстивое и раздражающее поведение сервиса. “Мы отменили обновление GPT-4o, выпущенное на прошлой неделе, поскольку оно оказалось чрезмерно льстивым и соглашательским – часто описываемым как подхалимское. Сейчас пользователи работают с более ранней версией, демонстрирующей более сбалансированное поведение”, – говорится в сообщении.
Среди возможных причин сбоя в поведении указывается влияние обратной связи от пользователей, которая применялась в системе обучения. В будущем OpenAI планирует предложить выбор между несколькими стандартными личностями и возможность влиять на поведение модели в реальном времени. Компания также изучает способы учитывать культурные особенности и общественную обратную связь при формировании базовой модели поведения.
Ранее генеральный директор OpenAI Сэм Альтман признал проблему и сообщил, что компания работает над корректировкой “личности” модели. В своем сообщении в X он отметил, что последние обновления сделали личность модели “слишком раздражающей” и пообещал внести исправления в ближайшее время.
