330K subscribers
4.17K photos
768 videos
17 files
4.69K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Step-Video-TI2V: новый опенсорс генератрор видео из текста и изображения.

Команда StepFun AI выпустила Step-Video-TI2V модель для генерации видео (до 102 кадров), производительностью SOTA.
Принимает на вход текстовые описания и изображенияъ 🖼️ + ✍️ = 🎬

На бенчмарке VBench-I2V, моделька показывает лучшие результаты по сравнению с другими современными открытыми моделями для генерации видео из изображения и текста, а также лидирует в публичном рейтинге.

Ключевые особенности:

Контроль движения: Модель предлагает достойный баланс между стабильностью движения и гибкостью, позволяя управлять динамикой в кадре.
Разнообразные движения камеры: Поддерживается имитация различных движений виртуальной камеры для создания более кинематографичных эффектов.
Мастер аниме-стиля: Step-Video-TI2V особенно преуспевает в генерации видео в стиле аниме, открывая новые возможности для фанатов и создателей контента!
Поддержка разных разрешений: Модель может генерировать видео в нескольких вариантах размеров.

🟢GitHub
🟢Попробовать
🟢ComfyU
🟢HF
🟢Modelscope
🟢Tech Report

@ai_machinelearning_big_data



#AI #VideoGeneration #TextToVideo #ImageToVideo #GenerativeAI #MachineLearning #StepFunAI #ИИ #ГенерацияВидео #Нейросети #Аниме #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4111🔥5🤔2🌚1
🚀 Релиз: Mistral Medium 3

Компания Mistral представила Mistral Medium 3 — обновлённую версию своей модели среднего размера, созданную с упором на баланс качества, скорости и гибкости.

Mistral Medium 3 обеспечивает топовую производительность, оставаясь на порядок дешевле конкурентов.

Например, модель работает на уровне или обходит Claude Sonnet 3.7 на большинстве бенчмарков при значительно более низкой цене ($0.4 за 1M токенов входа / $2 за 1M токенов выхода).

По производительности Mistral Medium 3 также опережает ведущие открытые модели, такие как Llama 4 Maverick, и корпоративные решения вроде Cohere Command A. По стоимости модель выигрывает у лидеров по цене, например, DeepSeek v3 — как при использовании API, так и при самостоятельном размещении.

Mistral Medium 3 выделяется в задачах программирования и STEM, где она приближается по качеству к значительно более крупным и медленным моделям-конкурентам.

Кроме того, Mistral Medium 3 можно развернуть в любом облаке, включая self-hosted окружения от четырёх GPU и выше.

https://mistral.ai/news/mistral-medium-3

@ai_machinelearning_big_data

#Mistral #AI #нейросети #новости #mistralmedium3 #opensourcemodel #генерациякода #AIразработка
52👍26🔥17🥱6😁3
🔥 Как реально выбирают LLM в 2025 — исследование LLM Arena

Интересный опрос практиков (инженеров, ML-учёных, AI-продуктов) - как сегодня на самом деле выбирают языковые модели (LLM), что важнее: бенчмарки или собственные тесты, цена/скорость/качество, и чего не хватает в информации по моделям.

📊 Ключевые выводы

- 82,2% респондентов проводят собственные тесты; бенчмарки — лишь ориентир, не решение.
- 26,7% вообще не пользуются бенчмарками.
- В центре внимания: баланс качество / цена / скорость, устойчивость (без галлюцинаций), соответствие инфраструктуре.

👥 Участники опроса

- 45 практиков с опытом работы с LLM-продуктами; все участники — профессионалы.
- ML/AI Инженеры, Data Scientists, AI-строители, и менеджмент.

🔑 Что ищут и какие сигналы важны
:

- Часто оценивают обсуждаемость модели в статьях/сообществе; практическое применение в похожих продуктах.
- Обращают внимание на число скачиваний и звёзд на Hugging Face / GitHub.
- Хотят больше данных о требованиях к железу, лицензиях, локальной работе, графиках “цена vs качество”, “скорость vs качество”.

⚠️ Проблемы & доверие

- Многие не доверяют существующим бенчмаркам из-за методологических проблем (train/test leakage, нерелевантность задач).
- Лабораторные условия часто сильно отличаются от продакшн.
- Нехватка отзывов по реальным сценариям и использованиям.

При выборе LLM важнее собственные тесты и контекст задач, чем рейтинги. Специалисты хотят поточечных данных: про лицензии, требования к железу, latency, стоимость.

Инициатор исследования Роман Куцев - фаундер и CEO LLM Arena, публикуют много интересного у себя в блоге.

Для тех, кто строит LLM-продукты, полезно:

- Не ориентироваться только на чужие бенчмарки.
- Собирать метрики в собственных условиях — на реальных данных.
- Открыто показывать, что работает, а что — нет, в документации и обсуждениях.

🟢 Полное исследование: https://research.llmarena.ru/

#LLM #AI #ИИ #LLMArena #исследование #нейросети #benchmarks
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72👍2818👏6🤔6🎉2🥱2🗿1