Українська правда

DeepSeek витратила понад $1,6 млрд на тренування ШІ, а не $6 млн, як заявлялось раніше — SemiAnalysis

DeepSeek витратила понад $1,6 млрд на тренування ШІ, а не $6 млн, як заявлялось раніше — SemiAnalysis
DeepSeek
0

Китайський ШІ-стартап DeepSeek витратив близько $1,6 млрд на тренування великої мовної моделі з можливістю мислення R1, попри те, що раніше повідомлялося про всього $6 млн, йдеться у звіті від SemiAnalysis.

Вартість навчання DeepSeek-R1 стала однією з головних тем навколо китайського стартапу, оскільки розробникам вдалося досягти рівня OpenAI при значно менших витратах. Хоча раніше були різні припущення, аналітики SemiAnalysis повідомляють, що DeepSeek використовує близько 50 тисяч ШІ-чипів Hopper від NVIDIA та очікує на постачання ще 10 тисяч.

Через експортні обмеження США до Китаю, DeepSeek використовують не лише чипи H100, які до релізу BlackWell були найкращими у галузі, а й менш потужні H800, спеціально розроблені для Китаю H20, та A100. Найбільше у китайського стартапу саме H20 – близько 30 тисяч з урахуванням додаткових замовлень. Далі йде по 10 тисяч H100, H800 та A100.

Згідно зі звітом SemiAnalysis, загальні капіталовкладення стартапу в сервери становлять приблизно $1,6 млрд, з яких близько $944 млн було витрачено на операційні потреби. Аналітики також зазначають, що $6 млн, за які нібито вдалося провести навчання моделі V3 – це лише частина витрат на попереднє навчання та незначна частина загальних витрат. Ця сума покриває лише вартість процесорів, використаних для попереднього навчання.

Хоча фактична вартість навчання моделей китайського стартапу виявилася вищою за початкові оцінки, виробники чипів та інші гравці ринку з оптимізмом сприймають появу нового конкурента. Водночас китайське походження компанії та нещодавній витік даних викликають занепокоєння. Через потенційні ризики безпеки ВМС США, Конгрес, Пентагон та сотні компаній по всьому світу, обмежують доступ своїх співробітників до DeepSeek.

Поділитися:
Посилання скопійовано