Бум інвестицій у ШІ — революція чи фінансова бульбашка?
Інвестиції в ШІ досягли $1 трлн. Антон Спірідонов аналізує, чи є це новою фінансовою бульбашкою, і порівнює з доткомами 2000 року.
Гроші у штучний інтелект вливаються безпрецедентними темпами — від венчурних раундів до трильйонних інфраструктурних проектів. Але чи дорівнює масштаб капіталовкладень реальній віддачі? Сьогодні перед нами парадокс: провідні компанії демонструють рекордні прибутки й операційні грошові потоки, тоді як значна частина стеку ШІ працює в мінус; інвестиційні схеми стають дедалі циркулярнішими, а ринкові оцінки — напружені до межі. У цій колонці — стислий аналіз фактів, що визначатимуть наступні 2–5 років ринку ШІ.
Циркулярні гроші та гігавати потужностей: як влаштований "маштабований попит"
Останні два роки сформували нову архітектуру попиту: великі гравці одночасно інвестують у постачальників чипів і беруть на себе довгострокові зобов’язання викуповувати ті самі ресурси. Показовий кейс — зв’язка OpenAI–Nvidia: оголошений у вересні 2025 року початковий транш у $10 млрд спрямований на будівництво дата-центрів не менше ніж на 10 ГВт; при цьому OpenAI орендує GPU, розподіляючи витрати на п’ятирічний строк служби обладнання. За оцінкою Дженсена Хуанга, 1 ГВт ЦОД — це близько $50 млрд капексу, з яких $35 млрд — GPU.
Подібні петлі є і з AMD: OpenAI зобов’язується розгорнути до 2030 року близько 6 ГВт обладнання, натомість AMD отримує варанти на 160 млн власних акцій замість готівки. Ще один вузол — CoreWeave, де Nvidia має частку ~7%: провайдер уже розгорнув понад 250 тис. GPU Nvidia і має довгий контракт на викуп "надлишкових" хмарних потужностей до 2032 року. За оцінками провідних видань і аналітиків, сукупна вартість кола угод між OpenAI, Nvidia, AMD, Oracle, CoreWeave та партнерами сягає приблизно $1 трлн і потребує понад 20 ГВт нових обчислень — енергопрофіль на рівні двох десятків ядерних реакторів.
Паралельно "Велика четвірка" (Microsoft, Google, Amazon, Meta) нарощує капітальні витрати до $320–325 млрд у 2025 році проти $223 млрд у 2024-му. Окремі компанії подвоюють інвестиції за два роки: Microsoft — до ~$80 млрд, Amazon — понад $100 млрд. Це самопідтримувальна гонка озброєнь, у якій CAPEX сусіда задає планку для всіх.
Оцінки, левередж і історичні рими: чим AI-бум схожий і не схожий на доткоми
Маржинальний борг у США досяг історичних максимумів (понад $1 трлн), а його відношення до ВВП — приблизно на третину вище піку епохи доткомів. "Magnificent Seven" формують понад 30% капіталізації S&P 500 — концентрація, вища за 2000 рік. Nvidia перетнула $4 трлн ринкової вартості; мультиплікатор P/E перевищує 50, а співвідношення ціна/продаж — понад 25. Приватні оцінки рухаються ще швидше: OpenAI за рік пройшла траєкторію $157 → $300 → $500 млрд попри збитки у мільярди доларів і тонку валову маржу в моделях доступу.
Водночас є критична різниця з 1999–2000 роками: нинішні ключові клієнти інфраструктури ШІ — не збиткові стартапи, а гіпермасштабатори з сотнями мільярдів операційних грошових потоків. Це підвищує фінансову стійкість ядра екосистеми, навіть якщо її периферія перегріта.
Економіка стеку: де виникає прибуток, а де він зникає
Найгостріша асиметрія — між прибутковою інфраструктурою (чипи, хмара) і збитковими бізнес-моделями на рівні моделей та застосунків. За підсумками 2024 року провайдери базових моделей (OpenAI, Anthropic) демонструють багатомільярдні збитки: витрати на інференс "з’їдають" до половини виручки, навчання — до трьох чвертей. Стартапи поверх моделей часто платять провайдерам більше, ніж заробляють: показові кейси, де витрати на API сягають 100–160% виручки. Навіть хмара фіксує, що AI-доходи поки що відстають від хвилі капінвестів: співвідношення інвестицій до профільної виручки оцінюється близько 16:1.
Паралельно зростають технічні вимоги: моделі міркування потребують у 5–10 разів більше обчислювальних токенів, що підвищує собівартість запиту. Компанії вже "пришивають" до інфраструктури угоди з постачання енергії, включно з атомними проєктами, — це робить криву витрат крутішою та довшою.
Що може піти не так і хто виживе: тригери корекції та сценарій 2–5 років
Є низка факторів, здатних перевести перегрів у корекцію.
— Плато продуктивності моделей і сповільнення приросту якості без експоненційного зростання витрат.
— Боргова вразливість інфраструктури (приклад високого левереджу окремих провайдерів та довгі оффтейк-контракти на обчислення).
— Енергетичні обмеження і затримки з введенням нових потужностей.
— Регуляторні ризики (антимонопольні розслідування, вимоги прозорості) та великі інциденти безпеки.
Найімовірніший сценарій — "змішаний результат": ядро ринку (чипи, хмара, гіпермасштабатори) продовжать зростати й монетизувати продуктивність, тоді як частина "чистих GenAI"-стартапів пройде через 30–60% перегляд оцінок. За аналогією з інтернетом: технологія — справжня й довгостроково трансформаційна, але короткостроково ринок схильний переплачувати за "кращий випадок", який настане пізніше.
Як діяти бізнесу і інвесторам у фазі шуму
Для підприємств із реальними процесами ШІ уже сьогодні дає 10–20% приросту продуктивності в типових функціях за пів року стійкого застосування — за умови правильної інтеграції. Проте 70%+ пілотів так і не масштабується, а "зекономлений час" часто випаровується у покращення якості, не перетворюючись на пропускну здатність. Отже, тактика проста: обирайте задачі з вимірюваною віддачею, будьте чесними щодо TCO й енергопрофілю, уникайте залежності від одного постачальника й готуйтеся до волатильності цін на обчислення.
Для інвесторів урок історії незмінний: справжність технології не гарантує правильності оцінок. Відділяйте "інфраструктурні прибутки сьогодні" від "продуктових обіцянок завтра", уникайте монокультури постачальників і не забувайте про баланс ризику: ймовірна корекція в AI-секторі може бути відчутною, але навряд чи системною. Переможуть ті, хто будують економіку на одиниці — з прозорою маржею, дисципліною капіталу та реальним, а не циркулярним попитом.
Інші колонки з розділу
Які кроки необхідно зробити для впровадження розподіленої генерації і чому ці рішення важливі в довгостроковій перспективі?
Які кроки необхідно зробити для впровадження розподіленої генерації і чому ці рішення важливі в довгостроковій перспективі?