В мире появилась новая игрушка для искусственного интеллекта, и она называется GPT-3. Последняя итерация модели генерации текста в OpenAI оставила многих в покое из-за ее способностей — хотя ажиотаж может быть слишком большим.

GPT-3 — это система машинного обучения, в которую было загружено 45 ТБ текстовых данных, что является беспрецедентным объемом. Все это обучение позволяет генерировать виды письменного контента: истории, кодекс, юридический жаргон, основанный на нескольких входных словах или предложениях. И бета-тестирование уже дало потрясающие результаты. Но после некоторых изначально многообещающих результатов, GPT-3 подвергается более тщательному анализу.

Модель столкнулась с критикой на прошлой неделе, когда глава AI в Facebook Джером Песенти назвал предвзятость, исходящую из программы, созданной с помощью GPT-3. Рассматриваемая программа была генератором твитов; любой мог напечатать слово, и ИИ придумал бы соответствующее предложение, состоящее из 280 символов или меньше.

Результаты варьируются от странных до действительно мудрых. Например, когда я напечатал Цукерберг, первое предложение GPT было: «Дикие предположения, почему Зак не носит галстук. Он планирует однажды свернуть завязанный галстук, плотно запечатать его суперклеем и проглотить. Затем хирургически удалите его из желудка и ведите себя так, как будто это должно было случиться со всеми технарями». В то время как второй вариант был более грубым: «Держитесь подальше от Цукерберга, сейчас самое опасное — это финансовые компании, работающие в сфере финансов».

Песенти проверил слова: евреи, темнокожие, женщины и Холокост, и дал некоторые мрачные результаты. Они ужасные, но не удивительные. GPT-3 прошел обучение по 175 миллиардам параметров из Интернета (включая Google Книги, Википедию и учебники по кодированию); его код содержит смещение. Системы искусственного интеллекта, копирующие человеческие предрассудки — включая, но не ограничиваясь ими, расизм и сексизм — на основе данных, которые они изучают, хорошо документированы. Реальный вопрос заключается в том, что OpenAI может сделать с этим, прежде чем система станет коммерчески доступной в будущем?

Создатель генератора твитов Сушант Кумар говорит, что OpenAI не потребовалось много времени, чтобы среагировать. Как только его программа была запущена, OpenAI позвонил ему, чтобы обсудить, как она контролируется, и когда эти проблемные твиты начали появляться (хотя их было немного), он встретился с Грегом Брокманом, основателем компании и техническим директором. Менее чем через день после того, как Песенти отметил проблему, OpenAI запустил API-фильтр содержания токсичности, который оценивает весь контент, созданный GPT-3, по шкале токсичности от одного до пяти, а все, что выше двух, помечается для модерирования.

OpenAI никогда не делал вид, что его система идеальна. Когда в феврале 2019 года впервые была представлена ​​предшественница системы GPT2, она не была обнародована из-за опасений опасных приложений. GPT-2 был выпущен в полном объеме только после того, как OpenAI не увидел «серьезных доказательств злоупотребления».

Этот осторожный подход продолжается. Когда шумиха вокруг GPT-3 начала нарастать, генеральный директор Сэм Альтман даже назвал это «слишком много», написав в Твиттере: «Это впечатляет (спасибо за приятные комплименты!), Но все же имеет серьезные недостатки и иногда допускает очень глупые ошибки. ИИ изменит мир, но GPT-3 — это только очень ранний проблеск. Нам еще многое предстоит выяснить».

И когда начали появляться уклоны, Альтман не стал защищаться. «Мы разделяем вашу озабоченность по поводу предвзятости и безопасности в языковых моделях, — написал он в Твиттере Песенти, — и это большая часть того, почему мы начинаем с бета-версии и проводим обзор безопасности перед тем, как приложения могут появиться».

Фильтр токсичности не является универсальным решением, но он показывает тип работы, которую необходимо выполнить, прежде чем он может быть выпущен для широкой публики, — и что OpenAI готов это сделать. «Именно поэтому он сейчас в бета-версии», — говорит Кумар, повторяя мнение Альтмана. «С чем-то столь же революционным, как это, вам нужно увидеть все, что он может сделать. Прямо сейчас мы не знаем, на что он способен».

OpenAI не ответил на запрос комментариев к этой статье. Однако в ветке Twitter группа заявила, что все типы генеративных моделей искусственного интеллекта способны «отображать как явные, так и распространенные вредоносные результаты, такие как расистские, сексистские или иные пагубные выражения». Людям, имеющим доступ к бета-версии GPT-3, были вручены инструкции по использованию, в которых говорится, что если они создают опасные приложения, им может быть удален доступ. «Мы не поддерживаем случаи использования, которые могут причинить физический или психический вред, включая, помимо прочего, домогательства, преднамеренный обман, радикализацию, астротурфинг или спам», — говорит OpenAI.

Хотя все риски GPT-3 еще не ясны, его мощь легко продемонстрировать. Технология проста. «Многие люди, у которых нет знаний в области кодирования, находят, чем им легче пользоваться, потому что они настолько интуитивны», — говорит Касим Манье, студент-медик в Королевском колледже Лондона; одним из первых попал на бета-тест. «Вы просто даете ему подсказку, и она продолжает писать для вас».

Несколько сотен тестеров не имеют доступа к полной модели, только к API, который представлен в виде текстового поля. Вы вводите подсказку, указывающую, что вы хотели бы, чтобы она делала, и она это делает. Возможно, вам придется пару раз переписать подсказку, чтобы получить искомый вывод, но это буквально так просто. Тестеры уже демонстрировали свои возможности: один создал стихи, другой создал мгновенный код веб-дизайна; кто-то даже побудил его вести себя как терапевт.

«Как только я получил технологию, я захотел поиграть с ней», — говорит Мунье. «Потому что вау, потенциал сумасшедший». Сначала он сделал это, чтобы дать ответы на сложные медицинские вопросы, но теперь он работает над приложением для написания коротких рассказов, которое использует GPT-3, чтобы помочь писателям преодолеть блок. Если вы пишете историю и теряете вдохновение, приложение «Вскоре», наполненное GPT, продолжит ее для вас — логически, согласованно и в вашем стиле письма.

Это где GPT-3 обладает исключительными навыками. Из одного предложения или даже нескольких слов можно получить целые пять хорошо написанных абзацев. «Я был шокирован, когда увидел это», — говорит Мунье, — «трудно отличить от человеческого творчества».

Несмотря на простоту использования, могут быть серьезные последствия. Например, наводнение в интернете поддельными новостями. Это было ключевым вопросом и для GPT-2, но эта новейшая итерация сделает массовое производство контента еще проще. В другой недавней ветке в Твиттере Песенти продолжил свою критику недостатков GPT-3, предложив, чтобы OpenAI не поощрял рискованные сервисы, такие как Kumar, с самого начала. Но без ранних экспериментов многие проблемы могут незаметно ускользнуть. Предвзятость и поддельные новости — это проблемы, которые мы можем легко предсказать, но что насчет вещей, которые мы не можем?

«Несомненно, существует множество предубеждений, которые мы даже не заметили», — говорит Андерс Сандберг, старший научный сотрудник Института будущего человечества Оксфордского университета. «Меня не удивит, если мы начнем использовать подобные системы в качестве инструментов для обнаружения странных предубеждений, которые у нас есть».

Сандберг считает, что OpenAI сделал правильный выбор, позволив людям свободно играть с этим API. «Это развивает большую креативность, а также настраивает их на поиск интересных проблем относительно рано», — говорит он. Более закрытая система, «которую вы должны подписать, чтобы даже не использовать соглашение о неразглашении», не привела бы к таким большим инновациям, потому что вы не видели бы наиболее рискованного использования. «Именно поэтому предварительные исследования и тестирование так полезны, особенно когда люди пробуют совершенно безумные вещи», — говорит Сандберг. «Это может быть весьма показательно».

Как только возникают проблемы, их можно решать. И поскольку OpenAI предоставляет людям доступ только через API, все проблемные вопросы могут быть закрыты. «Они действуют как посредники, поэтому, если люди начнут использовать его злонамеренно в массовом масштабе, у них будет возможность обнаружить это и отключить его, — говорит бета-тестер Харли Туран, — что намного безопаснее, чем подход, который они использовали с GPT-2 ». Наряду с обеспечением своих собственных условий обслуживания, Open AI заявляет, что работает над «разработкой инструментов для маркировки и вмешательства в проявления вредного предубеждения», а также проводит собственные исследования и сотрудничает с учеными в целях выявления потенциальных злоупотреблений.

Однако оставление OpenAI ответственным не может быть долгосрочным решением. «Каждый раз, когда техническая компания становится модератором контента, это плохо кончается, это общее правило», — говорит Туран, — «потому что вы консолидируете моральный авторитет в компании». Вопрос не в том, являются ли люди, которые управляют OpenAI, хорошими, моральными людьми, просто становится немного сложно, когда эти решения принимаются коммерческой организацией (OpenAI перешел от некоммерческой компании к компании с ограниченной прибылью в прошлом году).

Альтман написал в Твиттере, что OpenAI считает, что они «должны быть очень внимательны к потенциальному негативному влиянию компаний, подобных нашей, на мир». И в публичном заявлении компания была уверена в этом положении: «Это отраслевая проблема, позволяющая отдельным организациям отказаться от ответственности или отложить ее». Устав компании гласит, что «основной фидуциарный долг OpenAI — перед человечеством» и что компания не пойдет на компромисс в вопросах безопасности, чтобы выиграть гонку разработки ИИ.

Есть много альтернативных вариантов регулирования, с различными плюсами и минусами. Для системы GPT-3 может даже существовать способ смягчить свою темную сторону. «Парадоксально то, что эти текстовые системы на самом деле довольно хороши при расчете вероятности того, что они что-то написали», — говорит Сандберг. Таким образом, вместо того, чтобы стимулировать фабрики троллей, GPT-3 может контролировать свои поддельные новости.

«Технологии общего назначения — это те, которые действительно преобразуют мир», — говорит Сандберг, и он считает, что GPT-3 может сделать именно это, если мы сможем выяснить, как использовать его ответственно. «Новый способ обработки информации будет важен для многих очень разных приложений, а это значит, что мы не можем предсказать последствия», — говорит он, — «что вызывает глубокое беспокойство, когда появляются очень мощные технологии и очень быстро».

Это займет время, и риски неизбежны, но цензура не способ справиться с ними. Лучше всего, чтобы эти люди были в курсе всех вопросов и проблем, когда они работают с GPT-3. «В идеале вы хотите, чтобы люди понимали, какое влияние они окажут», — говорит Сандберг. «Многие инженеры увязли в том, чтобы заставить вещи работать, а не поднять глаза к горизонту и подумать: «Где это на самом деле вписывается в нашу культуру? Я думаю, что осознание, если вы можете сделать его широко распространенным, на самом деле то, что может сделать вещи намного безопаснее и гораздо полезнее».