Эпоха «больше мощности» для ИИ почти завершилась — и это тревожный сигнал
- AlexT
- 28-ноя-2025, 08:00
- 0 комментариев
- 19 просмотров

Илья Суцкевер, один из ключевых архитекторов раннего развития OpenAI, выступил с предупреждением: привычная модель прогресса в ИИ, основанная на простом расширении инфраструктуры, приближается к пределу возможностей. Сегодня большинство компаний делает ставку на наращивание вычислений — строятся более крупные дата-центры, закупаются ускорители, масштабируются кластеры. Логика понятна: чем больше ресурсов и данных, тем умнее модель. Но, по мнению Суцкевера, эта формула перестаёт давать ощутимый эффект.
До сих пор технологический рывок в ИИ происходил в основном благодаря «количественному» росту: увеличение обучающих датасетов, рост числа параметров и постоянное расширение вычислительных мощностей. Модели становились мощнее без необходимости фундаментально менять архитектуру или механизмы обобщения информации. Такой путь устраивал бизнес — он давал предсказуемый результат и не требовал массового привлечения элитных исследовательских команд.
Однако сейчас растёт давление сразу с нескольких фронтов:
Доступные для обучения данные практически исчерпаны — значительная часть интернет-корпуса уже обработана и включена в современные датасеты.
Экстенсивная стратегия перестаёт быть экономически оправданной: расходы растут быстрее, чем заметные улучшения качества моделей.
Простое «раздувание» инфраструктуры не приближает отрасль к главной цели — созданию ИИ уровня общего интеллекта (AGI), который способен учиться, рассуждать и переносить опыт так же гибко, как человек.
Суцкевер подчёркивает: даже гипотетический стократный рост текущей ИИ-инфраструктуры даст лишь косметический прогресс — модели будут быстрее и точнее в узких задачах, но не станут по-настоящему универсальными или значительно smarter в плане адаптивного познания.
Одновременно Суцкевер обращает внимание на другую фундаментальную проблему — разрыв в способности к генерализации. Люди обучаются контекстно и итеративно: достаточно разобрать несколько примеров, обсудить идеи, разобрать ошибки в диалоге с наставником — и формируется глубокое понимание предмета. Для моделей такой формат почти недоступен. Им требуется формализованный, строго размеченный и многоэтапный процесс обучения с проверкой промежуточных результатов по чётким критериям. И даже при этом КПД обучения у ИИ ниже, чем у человека.
В отличие от людей, современные LLM:
с трудом переносят полученные знания на принципиально новые контексты;
зависят от массивного количества примеров вместо концептуального понимания;
вынуждены «перебирать» данные, а не строить внутренние причинно-следственные модели окружающего мира.
Механизм, который позволил бы кардинально сократить этот разрыв, пока остаётся ненайденным. Научное сообщество признаёт, что не обладает готовым рецептом для качественного скачка в обучении ИИ без огромных датасетов.
Суцкевер считает, что ИИ-сектор неизбежно войдёт в новый этап — период интенсивных научных исследований, где прогресс будет достигаться не «масштабом», а открытием принципиально новых методов, которые позволят моделям мыслить глубже и учиться эффективнее.
Запуск его собственного проекта Safe Superintelligence нацелен именно на такие разработки. Команда стартапа делает ставку на фундаментальные исследования механизмов интеллекта и безопасного развития сверхмощных систем, не рассчитывая на эффект простого увеличения инфраструктуры.