PANews сообщило 20 мая, что, по данным Financial World, 14 мая по восточному времени главный ученый OpenAI Илья Суцкевер объявил о своей отставке. В тот же день Ян Лейке, один из руководителей команды Superalignment OpenAI, также объявил о своем уходе. В эту пятницу OpenAI подтвердило, что команда "Superintelligence Alignment", которой совместно руководили Суцкевер и Лейке, была расформирована. Ранним утром 18 мая Ян Лейке опубликовал 13 твитов на социальной платформе X, раскрывая истинные причины своей отставки и дополнительную инсайдерскую информацию. Вкратце, основными проблемами были недостаточные вычислительные ресурсы и недостаточное внимание к безопасности в OpenAI. Лейке заявил, что больше ресурсов и усилий должно быть направлено на подготовку к следующему поколению моделей ИИ, но текущий путь развития не может достичь этой цели гладко. Его команда столкнулась с серьезными проблемами в последние месяцы, иногда испытывая трудности с получением достаточных вычислительных ресурсов. Лейке также подчеркнул, что создание машин, превосходящих человеческий интеллект, сопряжено с рисками, и OpenAI берет на себя эту ответственность, но культура безопасности и процессы были маргинализированы в погоне за разработкой продуктов. OpenAI должна трансформироваться в компанию AGI, которая приоритетно относится к безопасности. В ответ на откровения Лейке, Альтман срочно ответил 18 мая: "Я очень благодарен за вклад Яна Лейке в исследования супервыравнивания ИИ и культуру безопасности OpenAI, и мне очень жаль видеть его уход из компании. Он указал, что у нас еще много работы, и мы согласны с этим и привержены продвижению этой работы. В ближайшие дни я напишу более подробную статью, чтобы обсудить этот вопрос." Генеральный директор Tesla Илон Маск прокомментировал расформирование команды "Superalignment", сказав: "Это показывает, что безопасность не является главным приоритетом OpenAI."

Кроме того, 18 мая американский технологический блог TechCrunch сообщил, что OpenAI отказалась от исследований безопасности в пользу запуска новых продуктов, таких как GPT-4o, что в конечном итоге привело к отставке двух руководителей команды "Superalignment". Пока неясно, когда или сможет ли технологическая индустрия достичь необходимых прорывов для создания ИИ, способного выполнять любые задачи, которые могут выполнять люди. Однако расформирование команды "Superalignment" кажется подтверждением одного: руководство OpenAI, особенно Альтман, выбрало приоритет продуктов над мерами безопасности. За последний год OpenAI заполнила свой магазин чат-ботов спамом и нарушила условия обслуживания платформы, собирая данные с YouTube... Безопасность, похоже, является второстепенной задачей в компании — все большее число исследователей безопасности приходят к такому выводу и выбирают искать возможности в других местах.

19 мая генеральный директор OpenAI Сэм Альтман ответил на социальной платформе X на предыдущие слухи о "запретительных" пунктах в соглашениях об отставке: компания никогда не отзывала чьи-либо приобретенные акции, даже если кто-то не подписал соглашение об отставке (или не согласился с соглашением о недискредитации), она не будет предпринимать таких действий.