На этой неделе компания OpenAI без шума удалила из своей политики использования явный запрет на использование ее технологий в военных целях. Эта политика призвана диктовать правила использования таких мощных и чрезвычайно популярных инструментов, как ChatGPT.
До 10 января на странице "Политика использования" OpenAI включала запрет на "деятельность с высоким риском физического вреда, в том числе" конкретно на "разработку оружия" и "военные действия". Этот недвусмысленный запрет на военное применение, казалось бы, исключал бы любое официальное и крайне прибыльное использование Министерством обороны или другими государственными вооруженными силами. В новой политике сохранен запрет на "причинение вреда себе или другим" и приводится "разработка или использование оружия" в качестве примера, но полный запрет на использование в "военных целях" исчез.
Об удалении, произошедшем без объявления, сообщается в рамках крупной переработки страницы политики, в которой компания заявила, что намеревалась сделать документ "более понятным" и "удобным для чтения". Переработка включает много других существенных изменений языка и форматирования.
В переписке с The Intercept представитель компании Нико Феликс сообщил:
Мы стремились создать набор универсальных принципов, которые были бы просты для запоминания и применения, особенно так как наши инструменты теперь используются во всем мире обычными пользователями, которые теперь также могут создавать собственные GPT. Такой принцип, как "Не причиняйте вреда другим", широк, но легко усваивается и актуален во многих контекстах. Кроме того, мы конкретно упомянули оружие и нанесение ущерба другим в качестве явных примеров.
Феликс отказался говорить, распространяется ли более расплывчатый запрет на "вред" на все военное использование, написав:
Любое использование нашей технологии, в том числе военными, для '[разработки] или [использования] оружия, [причинения вреда] другим или [уничтожения] собственности, или [осуществления] несанкционированной деятельности, нарушающей безопасность любой службы или системы ', запрещено.
По крайней мере на словах. Как будет на деле — посмотри.