Исследование Пенсильванского университета показало, что большие языковые модели (LLM) отвечают точнее, если обращаться к ним не вежливо, а грубо. Прямолинейные промпты давали правильные ответы в 84,8% случаев, а более мягкие формулировки — в 80,8%.
Для исследования было переписано 50 базовых вопросов по математике, науке и истории в пяти разных тонах — от «очень вежливого» до «очень грубого». ChatGPT-4o должен был ответить на каждый из них. Полученные результаты показали, что предыдущие выводы относительно того, что модели «поощряют» тактичность — неверны. Современные модели действуют как строго функциональные машины, которые ценят прямоту больше, чем вежливость.
«Вопреки ожиданиям, невежливые запросы стабильно превосходили вежливые. Это может говорить о том, что новые языковые модели иначе реагируют на тональность обращения», — написали авторы исследования Ом Добария и Ахил Кумар.