Майлз Брандэйдж, экс-руководитель OpenAI по политике, выступил с резкой критикой компании. За «переписывание истории» своего подхода к развертыванию потенциально опасных систем ИИ. Брандэйдж утверждает, что GPT-2 заслуживала повышенной осторожности на момент ее выпуска, и что это было «на 100% согласовано» с нынешней стратегией итеративного развертывания OpenAI.
«Выпуск GPT-2 компанией OpenAI, в котором я участвовал, был на 100% согласован и предвосхитил нынешнюю философию OpenAI об итеративном развертывании», — написал Брандэйдж. «Модель выпускалась постепенно, с уроками, которыми делились на каждом этапе. Многие эксперты по безопасности в то время благодарили нас за эту осторожность».
Брандэйдж, присоединившийся к OpenAI в качестве исследователя в 2018 году, был руководителем исследований в области политики компании в течение нескольких лет. В команде OpenAI по «готовности к AGI» он уделял особое внимание ответственному развертыванию систем генерации языка, таких как платформа чат-бота ИИ OpenAI ChatGPT.
GPT-2, о которой OpenAI объявила в 2019 году, была предшественницей систем ИИ, питающих ChatGPT. GPT-2 могла отвечать на вопросы по теме, обобщать статьи и генерировать текст на уровне, иногда неотличимом от текста, написанного людьми.
Хотя GPT-2 и ее результаты сегодня могут выглядеть примитивно, они были передовыми на тот момент. Ссылаясь на риск злонамеренного использования, OpenAI изначально отказалась публиковать исходный код GPT-2, предпочтя вместо этого предоставить избранным новостным изданиям ограниченный доступ к демонстрационной версии.
Это решение было встречено неоднозначными отзывами в индустрии ИИ. Многие эксперты утверждали, что угроза, создаваемая GPT-2, была преувеличена, и что не было никаких доказательств того, что модель можно использовать во вред так, как описывала OpenAI.