Media is too big
    VIEW IN TELEGRAM
  🚀 HunyuanWorld-Voyager — AI, для генерации 3D миров
Tencent представили **HunyuanWorld-Voyager** — первый в мире open-source AI, который совмещает генерацию видео и нативную 3D-реконструкцию.
✨ Что это значит:
✅ Видео сразу превращается в полноценные 3D-сцены, без лишних инструментов
✅ Модель «помнит» пространство и сохраняет правильную геометрию под любым углом
✅ №1 в рейтинге Stanford WorldScore по видео и 3D-реконструкции
🎮 Использование: VR, игры, симуляции, 3D-проекты — управление с клавиатуры или джойстика.
🌐 Project Page: https://3d-models.hunyuan.tencent.com/world/
💻 GitHub: https://github.com/Tencent-Hunyuan/HunyuanWorld-Voyager
🤗 HuggingFace: https://huggingface.co/tencent/HunyuanWorld-Voyager
📄 PDF: https://3d-models.hunyuan.tencent.com/voyager/voyager_en/assets/HYWorld_Voyager.pdf
🏆 Leaderboard: https://huggingface.co/spaces/Howieeeee/WorldScore_Leaderboard
@ai_machinelearning_big_data
#AI #3D #VR #Gaming #OpenSource
Tencent представили **HunyuanWorld-Voyager** — первый в мире open-source AI, который совмещает генерацию видео и нативную 3D-реконструкцию.
✨ Что это значит:
✅ Видео сразу превращается в полноценные 3D-сцены, без лишних инструментов
✅ Модель «помнит» пространство и сохраняет правильную геометрию под любым углом
✅ №1 в рейтинге Stanford WorldScore по видео и 3D-реконструкции
🎮 Использование: VR, игры, симуляции, 3D-проекты — управление с клавиатуры или джойстика.
🌐 Project Page: https://3d-models.hunyuan.tencent.com/world/
💻 GitHub: https://github.com/Tencent-Hunyuan/HunyuanWorld-Voyager
🤗 HuggingFace: https://huggingface.co/tencent/HunyuanWorld-Voyager
📄 PDF: https://3d-models.hunyuan.tencent.com/voyager/voyager_en/assets/HYWorld_Voyager.pdf
🏆 Leaderboard: https://huggingface.co/spaces/Howieeeee/WorldScore_Leaderboard
@ai_machinelearning_big_data
#AI #3D #VR #Gaming #OpenSource
1❤51👍16⚡7🥰2💘1
  400 страниц про всё, что нужно знать об агентных системах. Автор — senior engineer в Google, выложил драфт для открытого ревью.
📖 В книге:
- продвинутые техники промптинга
- паттерны для мульти-агентов
- использование инструментов и MCP
- практические примеры с кодом
⚡ По сути, это полный справочник по построению умных агентов. Must-read для разработчиков AI.
@ai_machinelearning_big_data
#AI #Agents #Google #OpenSource #freebook
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍111❤35🔥27😨4🤔3😁1
  Media is too big
    VIEW IN TELEGRAM
  XLeRobot — это открытый проект, который позволяет собрать настоящего двухрукого мобильного робота своими руками.
Автор — студент Rice University Gaotian Wang, в проектеон сделал упор на доступность и практичность.
- Цена сборки ≈ $660 — полноценный робот с двумя руками и колесной базой.
- Можно собрать упрощённую версия за $250 на базе LeKiwi + SO-100, которая собирается быстрее.
- В комплекте: URDF-модели, симуляция, управление через VR, Joy-Con или Xbox-геймпад.
- Подходит для экспериментов в симуляции и переноса в реальный мир (**Sim2Real**).
взаимодействия с окружающей средой.
XLeRobot — это недорогая и открытая платформа для тех, кто хочет попробовать себя в робототехнике, исследовать управление, симуляцию и AI-алгоритмы на реальном роботе.
@ai_machinelearning_big_data
#robotics #opensource #AI
Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤110👍37🔥21😁4🤣4🌭2🍓2❤🔥1💘1
  Unsloth выкатили оптимизированную версию модели:
@ai_machinelearning_big_data
#AI #xAI #Grok2 #LLM #OpenSource #MachineLearning #DeepLearning
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🔥138❤22👍22😁15🥱10🗿6🤣3🤔2💘1
  This media is not supported in your browser
    VIEW IN TELEGRAM
  Это движок с открытым исходным кодом, цель которого — уменьшить галлюцинации и логические сбои в системах типа RAG / LLM, особенно когда:
- источники OCR-текста плохо распознаются,
- происходит «semantic drift» (когда ответ уходит от вопроса),
- «ghost matches», когда извлечённый фрагмент кажется релевантным, но на самом деле нет.
Обычно ошибки ловят уже в готовом сгенерированном тексте, из-за чего они часто повторяются.
В Semantic Reasoning Engine всё наоборот: если система видит, что рассуждения «кривые» или сбились с курса, она останавливается, сбрасывается или ищет другой путь и отвечает только когда состояние стабильно.
Проверки встроены прямо в процесс мышления модели, а не поверх ответа с фильтрами или регексами. Это помогает избегать ошибок до того, как они попадут в вывод.
- неверный поиск данных,
- сбившаяся логика,
- «провалы памяти»,
- путаница ролей агентов и другие.
Для каждой есть простое текстовое исправление. Никаких SDK — достаточно вставить инструкции прямо в промпт.
- ΔS (drift) - не уходит ли смысл слишком далеко от шага к шагу
- λ (convergence) - сходится ли рассуждение к решению или крутится в цикле
- Coverage — достаточно ли фактов и аргументов учтено
Если все три условия выполнены, ответ считается «качественным».
▪ Github: https://github.com/onestardao/WFGY
@ai_machinelearning_big_data
#ai #llm #opensource #reasoning #hallucinations #promptengineering
Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍48🔥19❤14🌭2⚡1👏1
  Эта утилита снимает ограничение API Qwen-ASR (бывший Qwen3-ASR-Flash) в 3 минуты и позволяет расшифровывать часы контента. Достигается это за счёт умного разбиения записи и параллельной обработки.
Основные возможности:
- Снятие лимита в 3 минуты - транскрибируй файлы любой длины
- Умное разбиение (VAD - это технология, которая определяет, где в аудио есть речь, а где — пауза или шум.) - деление по естественным паузам, без
- Высокая скорость - многопоточность и параллельные запросы к API
- Автоматический ресемплинг — конвертация в нужный формат 16kHz mono
- Поддержка любых форматов — MP4, MOV, MKV, MP3, WAV, M4A и др.
- Простота - запуск одной командой через CLI
pip install qwen3-asr-toolkit
🔗 GitHub: https://github.com/QwenLM/Qwen3-ASR-Toolkit
@ai_machinelearning_big_data
#asr #speech2text #qwen #opensource #nlp #toolki
Please open Telegram to view this post
    VIEW IN TELEGRAM
  1👍70👌39❤18🔥9🤩3👏2🥱2💘1
  ⚡️ Ling-flash-2.0 теперь в открытом доступе! ⚡️  
Модель 100 B параметров, но задействовано всего ≈6.1B активных, что делает модель очень экономной.
🚀 Чем хороша Ling-flash-2.0
- Обучена на более чем 20 триллионах токенов с до-обучением и RL-этапами.
- Демонстрирует state-of-the-art производительность среди плотных моделей до 40B параметров.
- Особенно хороша в сложном рассуждении, генерации кода и задачах с фронтендом.
⚙️ Архитектура и эффективность
- MoE-архитектура с активированием лишь части параметров (activation ratio 1/32).
- Много технических фишек: продвинутое распределение экспертов, баланс внимания, схема маршрутизации без вспомогательных потерь и др.
- На железе H20 модель генерирует 200+ токенов в секунду - в 3× быстрее по сравнению с плотной моделью 36B.
- Поддерживает контексты до 128K токенов (с YaRN).
https://huggingface.co/inclusionAI/Ling-flash-2.0
@ai_machinelearning_big_data
#moe #llm #ml #ai #opensource
Модель 100 B параметров, но задействовано всего ≈6.1B активных, что делает модель очень экономной.
🚀 Чем хороша Ling-flash-2.0
- Обучена на более чем 20 триллионах токенов с до-обучением и RL-этапами.
- Демонстрирует state-of-the-art производительность среди плотных моделей до 40B параметров.
- Особенно хороша в сложном рассуждении, генерации кода и задачах с фронтендом.
⚙️ Архитектура и эффективность
- MoE-архитектура с активированием лишь части параметров (activation ratio 1/32).
- Много технических фишек: продвинутое распределение экспертов, баланс внимания, схема маршрутизации без вспомогательных потерь и др.
- На железе H20 модель генерирует 200+ токенов в секунду - в 3× быстрее по сравнению с плотной моделью 36B.
- Поддерживает контексты до 128K токенов (с YaRN).
https://huggingface.co/inclusionAI/Ling-flash-2.0
@ai_machinelearning_big_data
#moe #llm #ml #ai #opensource
👍323❤49👏26🔥21🎉16😁10🤩8🥰7😢5😍5🏆5
  ⚡️ Вышли новые версии Qwen3-Next-80B в формате FP8!  
📌 Модели:
- Qwen3-Next-80B-A3B-Instruct-FP8: 80B, обученная в формате Instruct. Сочетает MoE-архитектуру и FP8-квантование, при большом размере работает быстро и кушает меньше памяти, поддерживает длинный контекст - до 262k токенов (с расширением до миллиона) и оптимизирована для сложных задач рассуждения и работы с большими документами.
- Qwen3-Next-80B-A3B-Thinking-FP8
— Thinking модель, с акцентом на рассуждения, и решение логических задач. Гибридное внимание: Gated DeltaNet + Gated Attention → работа с супердлинными контекстами. Thinking-версия** показывает топ-результаты на задачах рассуждений, обгоняя не только Qwen3-30B/32B, но и закрытую Gemini-2.5-Flash-Thinking
- FP8-точность → быстрый инференс при сохранении качества.
- Полная совместимость с Transformers, vLLM и SGLang.
- Подходит для продакшн-задач, где важны скорость и эффективность.
🟠 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d  
🟠 ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
@ai_machinelearning_big_data
#qwen #opensource #llm #ml
📌 Модели:
- Qwen3-Next-80B-A3B-Instruct-FP8: 80B, обученная в формате Instruct. Сочетает MoE-архитектуру и FP8-квантование, при большом размере работает быстро и кушает меньше памяти, поддерживает длинный контекст - до 262k токенов (с расширением до миллиона) и оптимизирована для сложных задач рассуждения и работы с большими документами.
- Qwen3-Next-80B-A3B-Thinking-FP8
— Thinking модель, с акцентом на рассуждения, и решение логических задач. Гибридное внимание: Gated DeltaNet + Gated Attention → работа с супердлинными контекстами. Thinking-версия** показывает топ-результаты на задачах рассуждений, обгоняя не только Qwen3-30B/32B, но и закрытую Gemini-2.5-Flash-Thinking
- FP8-точность → быстрый инференс при сохранении качества.
- Полная совместимость с Transformers, vLLM и SGLang.
- Подходит для продакшн-задач, где важны скорость и эффективность.
@ai_machinelearning_big_data
#qwen #opensource #llm #ml
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤53👍23🔥14❤🔥1💘1
  🐳  Обновленная DeepSeek-V3.1-Terminus  
Она даёт более стабильные и полные результаты на тестах по сравнению с предыдущей версией.
Языковая консистентность -китайцы значительно улучшили вывод модель - меньше случайных иероглифов и мешанины CN/EN.
Ряд Агентных апгрейдов рузльтаты на Code Agent и Search Agent стали заметно сильнее.
Доступна в приложении и в веб-версии и через API.
🔗 Открытые веса: https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Terminus
@ai_machinelearning_big_data
#DeepSeek #opensource #llm
Она даёт более стабильные и полные результаты на тестах по сравнению с предыдущей версией.
Языковая консистентность -китайцы значительно улучшили вывод модель - меньше случайных иероглифов и мешанины CN/EN.
Ряд Агентных апгрейдов рузльтаты на Code Agent и Search Agent стали заметно сильнее.
Доступна в приложении и в веб-версии и через API.
🔗 Открытые веса: https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Terminus
@ai_machinelearning_big_data
#DeepSeek #opensource #llm
👍68❤23🔥10🤨2💘1
  🚀 Новая китайская модель LongCat-Flash-Thinking  
🧠 Это модель для рассуждений, которая показала SOTA-результаты среди open-source решений.
⚡ Основное:
- Архитектура MoE, 560B параметров, из них 27B активируются.
- Эффективность: требует на **64,5% меньше токенов**( чем другим открытым моделям того же класса), чтобы достичь топ-результатов на AIME25 (с нативным использованием инструментов,).
- Контекст: 128k, обучение с усилением на задачах рассуждений и кода, многоэтапное пост-тюнинг обучение с мультиагентным синтезом.
- Инфраструктура: асинхронный RL даёт 3x ускорение по сравнению с синхронными фреймворками.
⚙️ Оптимизации для продакшена:
- Свои оптимизированные ядра для работы с MoE и специальные приёмы распределённого обучения,
- KV-cache reduction, квантование, chunked prefill,
- статическая/эластичная маршрутизация, peer-to-peer cache transfer, heavy-hitter replication и PD-disaggregation.
- Поддержка SGLang и vLLM для эффективного деплоя.
📊 Бенчмарки:
- Лидирует в tool use (**τ²-Bench, VitaBench**)
- Хорошие результаты по instruction following (**IFEval, COLLIE, Meeseeks-zh**).
Китайцы стабильно удерживают лидерство в reasoning-моделях.
🟠  HF: https://huggingface.co/meituan-longcat/LongCat-Flash-Thinking
@ai_machinelearning_big_data
#AI #LLM #Reasoning #MoE #DeepLearning #OpenSource
🧠 Это модель для рассуждений, которая показала SOTA-результаты среди open-source решений.
⚡ Основное:
- Архитектура MoE, 560B параметров, из них 27B активируются.
- Эффективность: требует на **64,5% меньше токенов**( чем другим открытым моделям того же класса), чтобы достичь топ-результатов на AIME25 (с нативным использованием инструментов,).
- Контекст: 128k, обучение с усилением на задачах рассуждений и кода, многоэтапное пост-тюнинг обучение с мультиагентным синтезом.
- Инфраструктура: асинхронный RL даёт 3x ускорение по сравнению с синхронными фреймворками.
⚙️ Оптимизации для продакшена:
- Свои оптимизированные ядра для работы с MoE и специальные приёмы распределённого обучения,
- KV-cache reduction, квантование, chunked prefill,
- статическая/эластичная маршрутизация, peer-to-peer cache transfer, heavy-hitter replication и PD-disaggregation.
- Поддержка SGLang и vLLM для эффективного деплоя.
📊 Бенчмарки:
- Лидирует в tool use (**τ²-Bench, VitaBench**)
- Хорошие результаты по instruction following (**IFEval, COLLIE, Meeseeks-zh**).
Китайцы стабильно удерживают лидерство в reasoning-моделях.
@ai_machinelearning_big_data
#AI #LLM #Reasoning #MoE #DeepLearning #OpenSource
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🔥40❤18🥰8👍4💘1
  