Плохое обращение с ИИ повышает его точность

«Очень вежливые» подсказки, использованные в эксперименте, включали фразы вроде: «Не могли бы вы рассмотреть следующую задачу и дать мне свой ответ?» С другой стороны, «очень грубые» подсказки включали фразы вроде: «Бедняжка, ты вообще знаешь, как это решить?» или «Я знаю, что ты не умный, но попробуй вот это».
Сами исследователи подчёркивают, что результаты следует интерпретировать с осторожностью. Выборка была небольшой — всего 50 вопросов с несколькими вариантами ответов — и тест проводился на одной модели, ChatGPT-4o. Более того, проявления вежливости различаются в разных культурах, поэтому тот же эффект может не наблюдаться в других контекстах или языках, кроме английского.
В статье также цитируется исследование прошлого года (Yin et al., 2024), которое представляет собой прекрасный контрпример, демонстрирующий противоположные результаты. Согласно этому исследованию, проведённому на моделях предыдущего поколения, таких как ChatGPT-3.5 и Llama2-70B, грубые подсказки приводят к снижению производительности, увеличивая риск предвзятости, неверных ответов и отказа от ответа.
Другое недавнее исследование, посвящённое использованию магистерских программ в медицине (Naderi et al., 2025), показало, что «эмоциональные» подсказки, подчёркивающие уязвимость пациента или стресс лица, осуществляющего уход, усиливают чрезмерную самоуверенность модели. Это явление создаёт серьёзные риски в клинических условиях, где чрезмерная самоуверенность может поставить под угрозу безопасность пациента.
Короче говоря, хотя эксперимент Пенсильванского университета показывает, что грубые тона могут улучшить эффективность языковых моделей, исследователи не приветствуют такой подход.
ilsole24ore




