Сэм Альтман: к концу 2025 года ChatGPT заработает на миллионе GPU — а в будущем их станет в сто раз больше
Мир 3D технологий

Сэм Альтман: к концу 2025 года ChatGPT заработает на миллионе GPU — а в будущем их станет в сто раз больше

  • AlexT
  • 22-июл-2025, 12:00
  • 0 комментариев
  • 11 просмотров

Генеральный директор OpenAI Сэм Альтман заявил, что к концу 2025 года инфраструктура ChatGPT и других ИИ-моделей компании будет работать более чем на 1 миллионе GPU. В долгосрочной перспективе Альтман планирует увеличить это число в 100 раз — до фантастических 100 миллионов ускорителей.

Для сравнения: сегодня инфраструктура xAI Илона Маска, обеспечивающая работу чат-бота Grok 4, использует около 200 тысяч графических процессоров Nvidia H100. Таким образом, планы OpenAI предполагают вычислительные мощности как минимум в пять раз больше — только до конца 2025 года.

В своём посте в X Альтман подчеркнул, что гордится командой OpenAI и шутливо добавил «лол» к планам увеличить мощности в 100 раз — однако эксперты убеждены, что намерения более чем серьёзны. По данным Tom's Hardware, ещё в начале 2024 года OpenAI была вынуждена приостановить развёртывание GPT-4.5 из-за нехватки доступных GPU. С тех пор масштабирование инфраструктуры стало одним из главных стратегических приоритетов компании.

Если OpenAI действительно выйдет на уровень 100 миллионов GPU, это сделает её крупнейшим потребителем вычислительных ресурсов для искусственного интеллекта в мире. При этом финансовые оценки впечатляют: стоимость закупки такого количества ускорителей при средней цене одного GPU около $30 000 может составить примерно $3 триллиона — это сопоставимо с целым ВВП Великобритании. И это только закупка железа, без учёта расходов на электроэнергию и строительство дата-центров.

Сейчас OpenAI уже управляет крупнейшим дата-центром в мире — объектом в Техасе, который потребляет около 300 мегаватт. К середине 2026 года его энергопотребление должно вырасти до 1 гигаватта. Однако такие масштабы создают серьёзную нагрузку на региональную энергосеть и требуют дорогой модернизации инфраструктуры.

Чтобы снизить зависимость от ограничений поставщиков, OpenAI диверсифицирует свои вычислительные мощности. Помимо облачной платформы Microsoft Azure, компания развивает собственные дата-центры вместе с Oracle и, по слухам, тестирует TPU от Google. Такая стратегия позволяет гибко масштабировать мощности и конкурировать с другими технологическими гигантами — Meta✴, Amazon и другими игроками рынка искусственного интеллекта.

При этом эксперты подчёркивают, что планы Альтмана по 100 миллионам GPU сегодня выглядят скорее как амбициозная цель, чем как реальный проект. Для их реализации потребуется прорыв в области производства чипов, энергоэффективности и архитектуры дата-центров. Ожидается, что OpenAI будет разрабатывать собственные ускорители и новые ИИ-архитектуры — именно такие шаги могут приблизить создание AGI (искусственного общего интеллекта), к которому стремится Альтман.

Комментарии (0)
Добавить комментарий
img
Привет, я Айтишка!

Самый настоящий сургутский лисенок. Я аватар компании ИТ-Телеком и тут я хочу делиться с вами интересными новостями.

Категории сайта
Календарь
«    Июль 2025    »
ПнВтСрЧтПтСбВс
 123456
78910111213
14151617181920
21222324252627
28293031 
Лучший поисковик кто?