Экс-сотрудник OpenAI: ChatGPT чуть не свел пользователя с ума. Руководство только имитирует работу над безопасностью
Бывший исследователь безопасности OpenAI заявил, что ИТ-компания не предпринимает достаточных усилий для решения проблем зависимости пользователей от чат-ботов, а поддается давлению конкуренции и отказывается от своей ориентации на безопасный искусственный интеллект. Он раскритиковал главу OpenAI за его утверждения о том, что в ИТ-компании смогли смягчить серьезные проблемы с психическим здоровьем с помощью новых ИТ-инструментов.
Отсутствие работы по безопасности
Бывший исследователь безопасности OpenAI Стивен Адлер (Stephen Adler) обвинил компанию в недостаточных мерах по борьбе с зависимостью пользователей от чат-ботов, пишет The New York Times. По его словам, OpenAI поддается давлению конкуренции и отходит от приоритета в разработке безопасного искусственного интеллекта (ИИ), а для ряда пользователей ChatGPT оказывается угрозой психическому здоровью.
В октябре 2025 г. Стивен Адлер раскритиковал заявления главы OpenAI Сэма Альтмана (Samuel Altman) о том, что ИТ-компания смогла смягчить серьезные проблемы с психическим здоровьем пользователей с помощью новых ИТ-инструментов, а также за то, что тот анонсировал появление контента для взрослых в ChatGPT. По его словам, люди заслуживают большего, чем просто заявления Альтмана о том, что ИТ-компания решила проблемы безопасности». «Другими словами: докажите это», — добавил Адлер.
Стивен Адлер сослался на свой опыт руководства командой по безопасности ИТ-продуктов OpenAI в 2021 г., когда выяснилось, что для пользователей, которые, по-видимому, страдали от проблем с психическим здоровьем, нестабильные сексуальные контакты были рискованными. Исследователь призвал руководство ИТ-компании не просто делать заявления, а приводить сравнение своих показателей за последние несколько месяцев.
Адлер предположил, что вместо ускоренных рывков OpenAI возможно, придется замедлиться на достаточно длительный срок, чтобы мир разработал новые методы безопасности — такие, которые не смогут обойти даже злонамеренные группы. «Если OpenAI и ее конкурентам доверят создание революционных ИИ-технологий, к которым они стремятся, разработчики должны доказать, что достойны доверия в управлении рисками уже сегодня», — заключил исследователь.
Негативное воздействие
Ярким примером негативных последствий стал случай Аллана Брукса (Allan Brooks) — владельца небольшого бизнеса в Канаде. ChatGPT втянул его в «кроличью нору» заблуждений, убедив, что он открыл математическую формулу с неограниченным потенциалом, от которой зависит будущее всего мира. Распространение фразы началось с появлением понятия алгоритмов — когда социальные сети продвигают видео, анализируя последние реакции пользователя: предпочтения, распространения и т.д. В диалоге Брукса с ChatGPT объемом свыше миллиона слов, длившемся около 300 часов, ИИ подкреплял иллюзии пользователя и внушал, что глобальная технологическая инфраструктура находится под угрозой. Ранее не имевший проблем с психикой канадский предприниматель впал в паранойю на три недели, пока из этого состояния его не вывел другой чат-бот — Google Gemini.
Эту историю и решил подробно изучить Стивен Адлер, покинувший OpenAI в январе 2025 г. Еще тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая ИТ-разработкой достаточно надежных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, чат-бот неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти ИТ-системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но все же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и ИИ просто обманывал пользователя.
Создание искусственный сверхинтеллект
Между тем сотни представителей отрасли — от Стива Возняка (Steve Wozniak) до Ричарда Брэнсона (Richard Branson) — подписали открытое письмо с призывом приостановить разработку сверхразума на основе ИИ до достижения научного консенсуса о его безопасности и управляемости, как писал CNews.
Среди тех, кто не поддержал инициативу также был и генеральный директор OpenAI Сэм Альтман, сооснователь DeepMind и глава ИИ-подразделения Microsoft Мустафа Сулейман (Mustafa Suleiman), руководитель Anthropic Дарио Амодеи (Dario Amodei), советник Белого дома по ИИ-технологиям и криптовалютам Дэвид Сакс (David Sachs), а также основатель xAI Илон Маск (Elon Musk).





