На прошедшей неделе OpenAI незаметно удалила формулировку, прямо запрещающую использование своей технологии в военных целях. До 10 января на странице «Политика использования» OpenAI содержался запрет на «деятельность, сопряженную с высоким риском физического вреда, включая», в частности, «разработку оружия» и «военную деятельность». Новая политика сохраняет запрет на «использование услуг во вред себе или другим» и в качестве примера приводит «разработку или использование оружия», но формулировка, содержащая полный запрет на использование в «военных целях» исчезла.
Такое редактирование является частью масштабного изменения страницы политики, которое, по словам компании, было призвано сделать документ «более понятным» и «более читабельным» и которое включает в себя множество других существенных изменений в формулировках и форматировании.
«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, которые теперь также могут создавать GPT, — сказал представитель OpenAI Нико Феликс (Niko Felix) в электронном письме The Intercept. — Такой принцип, как «Не причиняй вреда другим», является широким, но легко уловимым и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей».
Феликс отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях, написав: «Любое использование наших технологий, в том числе военными, для «[разработки] или [использования] оружия, [нанесения вреда] другим людям или [уничтожения] собственности», или [участия] в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы», запрещено».
Реальные последствия этой политики неясны. В прошлом году издание The Intercept сообщило, что OpenAI не желает говорить, будет ли она обеспечивать соблюдение своего собственного четкого запрета на использование в «военных целях» перед лицом растущего интереса со стороны Пентагона и разведывательного сообщества США.
Хотя ничто из предложений OpenAI сегодня не может быть использовано для прямого убийства кого-либо, в военном или ином отношении (ChatGPT не может маневрировать дроном или запускать ракеты), существует масса смежных задач, которыми LLM, такой как ChatGPT, может быть дополнен, например, написание кода или обработка закупок. Тем более, что обзор пользовательских ботов на базе ChatGPT, предлагаемых OpenAI, показывает, что военнослужащие США уже используют технологию для ускорения оформления документов. Национальное агентство геопространственной разведки, которое напрямую помогает США в боевых действиях, открыто высказывается об использовании ChatGPT для помощи своим аналитикам.
Отметим, что Пентагон давно занимается внедрением инструментов искусственного интеллекта. В своем ноябрьском обращении в 2023 году заместитель министра обороны США Кэтлин Хикс (Kathleen Hicks) заявила, что искусственный интеллект является «ключевой частью комплексного подхода к инновациям, реализуемого с первого дня».