так это не только обучения цена, это цена так же его работы, а за нее они уже сами получают денег
Логично, сколько нужно мощностей что бы с такой скоростью обрабатывать запросы в том же GPT4, при том что у модели от 8к до 64к контекста(удивлю, но GPT это не одна модель, а примерно 15 и все разные) и миллионы пользователей. Сейчас на рынке начинается демпинг поскольку небольшие модели для личного пользования можно легко запустить и на домашнем ПК. У GPT уже конкурентов как говна: LLaMA 2/3/3.1, Claude 2/3.5, DeepSeek, Mistral, WizardLM(потеряшка на фоне 3й Лламы, а на деле офигенная модель особенно 22*8), CommandR, Gemini... и это я только перечислила реально прям раскрученные модели у которых есть 70b+ варианты.
Много сервисов появилось, где шарят доступы к моделям, на подобии OpenRouter и TogetherAI. Цены реально смешные, и у вас доступ к моделям огромного размера, которые работают по скорости не хуже API GPT.
Эти сервисы демпингуют цены, на том же TogetherAI за регу вообще дарят 5 долларов на халяву, а на OpenRouter мелкие ЛЛАМЫ - БЕСПЛАТНЫЕ! Для простых задач вам литературной 8б хватит, если она нормально обучена и из нее весь мусор удален.
Моделька МЕТА сейчас отнюдь не лучшая, Клод ее раком поставит как и Визард, особенно в так называемом "человеческом языке".
А это для справки сколько моделек у GPT.