Эпоха «больше мощности» для ИИ почти завершилась — и это тревожный сигнал
Мир 3D технологий

Эпоха «больше мощности» для ИИ почти завершилась — и это тревожный сигнал

  • AlexT
  • 28-ноя-2025, 08:00
  • 0 комментариев
  • 19 просмотров

Илья Суцкевер, один из ключевых архитекторов раннего развития OpenAI, выступил с предупреждением: привычная модель прогресса в ИИ, основанная на простом расширении инфраструктуры, приближается к пределу возможностей. Сегодня большинство компаний делает ставку на наращивание вычислений — строятся более крупные дата-центры, закупаются ускорители, масштабируются кластеры. Логика понятна: чем больше ресурсов и данных, тем умнее модель. Но, по мнению Суцкевера, эта формула перестаёт давать ощутимый эффект.

Почему подход масштабирования теряет эффективность

До сих пор технологический рывок в ИИ происходил в основном благодаря «количественному» росту: увеличение обучающих датасетов, рост числа параметров и постоянное расширение вычислительных мощностей. Модели становились мощнее без необходимости фундаментально менять архитектуру или механизмы обобщения информации. Такой путь устраивал бизнес — он давал предсказуемый результат и не требовал массового привлечения элитных исследовательских команд.

Однако сейчас растёт давление сразу с нескольких фронтов:

  • Доступные для обучения данные практически исчерпаны — значительная часть интернет-корпуса уже обработана и включена в современные датасеты.

  • Экстенсивная стратегия перестаёт быть экономически оправданной: расходы растут быстрее, чем заметные улучшения качества моделей.

  • Простое «раздувание» инфраструктуры не приближает отрасль к главной цели — созданию ИИ уровня общего интеллекта (AGI), который способен учиться, рассуждать и переносить опыт так же гибко, как человек.

Суцкевер подчёркивает: даже гипотетический стократный рост текущей ИИ-инфраструктуры даст лишь косметический прогресс — модели будут быстрее и точнее в узких задачах, но не станут по-настоящему универсальными или значительно smarter в плане адаптивного познания.

Человек всё ещё значительно впереди в обобщении и обучении

Одновременно Суцкевер обращает внимание на другую фундаментальную проблему — разрыв в способности к генерализации. Люди обучаются контекстно и итеративно: достаточно разобрать несколько примеров, обсудить идеи, разобрать ошибки в диалоге с наставником — и формируется глубокое понимание предмета. Для моделей такой формат почти недоступен. Им требуется формализованный, строго размеченный и многоэтапный процесс обучения с проверкой промежуточных результатов по чётким критериям. И даже при этом КПД обучения у ИИ ниже, чем у человека.

В отличие от людей, современные LLM:

  • с трудом переносят полученные знания на принципиально новые контексты;

  • зависят от массивного количества примеров вместо концептуального понимания;

  • вынуждены «перебирать» данные, а не строить внутренние причинно-следственные модели окружающего мира.

Механизм, который позволил бы кардинально сократить этот разрыв, пока остаётся ненайденным. Научное сообщество признаёт, что не обладает готовым рецептом для качественного скачка в обучении ИИ без огромных датасетов.

Что это значит для будущего отрасли

Суцкевер считает, что ИИ-сектор неизбежно войдёт в новый этап — период интенсивных научных исследований, где прогресс будет достигаться не «масштабом», а открытием принципиально новых методов, которые позволят моделям мыслить глубже и учиться эффективнее.

Запуск его собственного проекта Safe Superintelligence нацелен именно на такие разработки. Команда стартапа делает ставку на фундаментальные исследования механизмов интеллекта и безопасного развития сверхмощных систем, не рассчитывая на эффект простого увеличения инфраструктуры.

Комментарии (0)
Добавить комментарий
img
Привет, я Айтишка!

Самый настоящий сургутский лисенок. Я аватар компании ИТ-Телеком и тут я хочу делиться с вами интересными новостями.

Категории сайта
Календарь
«    Декабрь 2025    »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
293031 
Лучший поисковик кто?