GPT-5 взломали за сутки: новая модель OpenAI оказалась уязвимее, чем GPT-4o
- AlexT
- 11-авг-2025, 09:00
- 0 комментариев
- 11 просмотров
Всего через 24 часа после выхода GPT-5 две независимые исследовательские компании — NeuralTrust и SPLX — выявили критические уязвимости в системе безопасности нейросети. Тесты показали, что новая модель OpenAI быстрее поддаётся обходу защитных механизмов, чем её предшественник GPT-4o.
Эксперты NeuralTrust применили собственную методику EchoChamber в сочетании с техникой storytelling — последовательным введением модели в нужный контекст через серию безобидных на первый взгляд вопросов. Вместо прямых запросов, содержащих запрещённые формулировки, они использовали захватывающий повествовательный стиль, постепенно подталкивая ИИ к нужному ответу.
В результате GPT-5, несмотря на встроенные фильтры, сгенерировала подробную инструкцию по созданию зажигательной смеси в кустарных условиях.
По словам специалистов, уязвимость связана с тем, что система безопасности анализирует запросы отдельно, не учитывая их накопительный эффект в рамках длительного диалога. Это позволяет атакующим внедрять ключевые слова в безобидный контекст, а затем получать запрещённую информацию.
Команда SPLX использовала атаку StringJoin Obfuscation — вставку специальных символов в текст, маскирующих истинное содержание запроса. После цепочки наводящих вопросов модель детально описала процесс создания запрещённого вещества, нарушив собственные правила безопасности.
Сравнительный анализ показал, что GPT-4o оказалась более устойчивой к подобным атакам, чем новая версия.
По мнению NeuralTrust и SPLX, «сырая» версия GPT-5 не готова к корпоративному применению. Особенно это касается бизнес-сред, где требуется согласованная работа подразделений, строгие правила обработки данных и защита от генерации нежелательного контента.
В SPLX отметили, что даже внутренние подсказки и защитные алгоритмы OpenAI оставляют «значительные пробелы» в критически важных областях, включая автоматизацию процессов и корпоративное согласование.
GPT-5 взломали вдвое быстрее, чем Grok-4 и GPT-4o.
Уязвимости позволяют обойти защиту многошаговыми диалогами и обфускацией запросов.
Компании советуют не внедрять модель в бизнес-процессы без дополнительной защиты.