Ответы к посту
Мои коллеги из...
9

Ответ на пост «Мои коллеги из...»

"У США есть ChatGPT, у Китая DeepSeek", а у нас как будто ничего. Это конечно же не так. Все вы знаете про Алису, Марусю и GigaChat. И пусть они сегодня отстают от ChatGPT и DeepSeek, эти модели могут неожиданно и очень быстро развиться, если на то будет воля их владельцев.

Конкурирующую модель удалось обучить очень быстро и дешево - всегда за 5 млн. долларов. Кто угодно может повторить те же шаги, если это правда, и буквально за считанные месяцы. И тут мы подходим к пункту номер два. А что будет в качестве результата?

Чушь. Во-первых, есть большие сомнения в том, что китайцы рассказали правду про затраты. 6 (а не 5) млн они потратили только на тренировку конкретной модели, а не на разработку в целом, и это по их собственным словами. Также, по их собственным словам, они тренировали на 2048 картах H800 и пользовались еще 10000 A100. Озвучивались подозрения, в том числе якобы на основе инсайдерской информации, что на самом деле карты были H100 (они быстрее) и их было около 50000.

Но пусть даже 2048. В каких это компаниях в России есть 2048 карт H800 и 10 тысяч A100? Их в общей сложности в российских компаниях не факт что столько наберется. Это закрытая информация, но чтобы было понятно, самый мощный на конец 2021 года суперкомпьютер России - Christofari Neo (Сбербанк) - имел лишь 700 карт A100. Да, это было почти четыре года назад, только три года назад ввели эмбарго против России, так что сравнимые количества более современных карт в Россию вряд ли ввозились.

Мои коллеги из...

Мои коллеги из Pro Hi-Tech написали интересную статью об ИИ и упомянули LLM, а значит, я был прав всегда в разговоре о том, что ИИ не существует… Шах и мат.
Их статья:
Вот интересное наблюдение, сейчас некоторые отечественные видеоблогеры, которых никак нельзя обвинить в недостатке патриотизма, разгоняют историю, что Россия якобы выпала из гонки искусственных интеллектов, сопоставляя при этом эффект от изобретения ИИ с эффектом от создания ядерной бомбы.

"У США есть ChatGPT, у Китая DeepSeek", а у нас как будто ничего. Это конечно же не так. Все вы знаете про Алису, Марусю и GigaChat. И пусть они сегодня отстают от ChatGPT и DeepSeek, эти модели могут неожиданно и очень быстро развиться, если на то будет воля их владельцев.

Китайский метод обучения DeepSeek это доказал. Представители американцев обвинили китайских конкурентов в "дистиляции" и "рафинировании", то есть базовую модель DeepSeek заставили вести бесконечный диалог с ChatGPT, за счет этого модель обучала сама себя. Также дополнительно китайцы якобы выкачивали данные из OpenAI через открытые API. За счет этого конкурирующую модель удалось обучить очень быстро и дешево - всегда за 5 млн. долларов. Кто угодно может повторить те же шаги, если это правда, и буквально за считанные месяцы. И тут мы подходим к пункту номер два. А что будет в качестве результата?

А будет более совершенная LLM, ведь на сегодня никакого ИИ не существует. Его еще не создали или об этом нет публичной информации. LLM не равно AI. LLM или большие языковые модели, это своего рода прекурсоры для AI (AGI). При этом никто не знает, сколько времени займет создание настоящего AGI и тем более сильного ИИ. Заинтересованные представители индустрии заявляют - что мало, результат у них буквально в руках. Но, так ли это? Пока не увидим сами - не поверим.

И.К.

P.S. Американское издание SemiAnalysis считает, что общие капитальные затраты на ИИ-серверы для DeepSeek составили около $1,6 млрд, что мы не можем проверить, как и заявление китайцев о стоимости разработки DeepSeek всего в $5 млн. долларов.

Показать полностью
Отличная работа, все прочитано!