На GitHub вышел большой курируемый репозиторий, собравший всё самое важное о World Models. Это подход в ИИ, где система строит внутреннюю модель мира, чтобы понимать среду и предсказывать будущие действия в ней.
Внутри можно найти ключевые работы и исследования по направлениям:
- embodied-AI и робототехника
- автономное вождение
- NLP-модели с долгосрочным контекстом и планированием
- другие области, где ИИ должен строить представление о мире и действовать в нём
Если тема миромоделей интересна - это отличный старт для изучения.
GitHub: github.com/knightnemo/Awesome-World-Models
@ai_machinelearning_big_data
#worldmodels
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍43🔥16❤13🤗5❤🔥4
На больших AI-конференциях полезно смотреть не только на отдельные модели, но и на общую динамику, что реально доходит до практики, а что остаётся в исследовательских кругах.
Недавно на встрече комьюнити дата-сайентистов ВТБ ComDS Олег Милосердов сделал обзор CVPR 2025 и аккуратно прошёлся по трендам из 13000+ работ. Получилась хорошая выжимка, которая экономит время и позволяет быстро понять актуальные направления.
Если коротко, куда движется CV и смежные области:
- больше прикладных задач и реальных внедрений
- рост областей вроде embodied-AI, цифровых двойников и медицины
- модели становятся гибче и адаптивнее
- генеративные методы дешевеют и точнеют
- фокус на осмыслении решений, а не просто распознавании
Материал получился практичным - без лишнего шума. Ниже можно ознакомиться, если хотите держать руку на пульсе CV-исследований и их реальных применений.
Подробнее
Недавно на встрече комьюнити дата-сайентистов ВТБ ComDS Олег Милосердов сделал обзор CVPR 2025 и аккуратно прошёлся по трендам из 13000+ работ. Получилась хорошая выжимка, которая экономит время и позволяет быстро понять актуальные направления.
Если коротко, куда движется CV и смежные области:
- больше прикладных задач и реальных внедрений
- рост областей вроде embodied-AI, цифровых двойников и медицины
- модели становятся гибче и адаптивнее
- генеративные методы дешевеют и точнеют
- фокус на осмыслении решений, а не просто распознавании
Материал получился практичным - без лишнего шума. Ниже можно ознакомиться, если хотите держать руку на пульсе CV-исследований и их реальных применений.
Подробнее
Яндекс Диск
Презентация_CVPR_2025_ВТБ.pdf
Посмотреть и скачать с Яндекс Диска
❤31👍12🔥5😁3🕊2
🆕 Новый сильный GUI-агент: UI-Ins от TongyiLab и RUC
Это модель, которая уверенно работает с мобильными интерфейсами и лучше понимает намерения пользователя.
Она рассматривает команду как цепочку рассуждений, а не как одно действие, поэтому справляется со сложными задачами стабильнее.
Результаты
UI-Ins показал 74.1% успешных действий в AndroidWorld. Для сравнения: Gemini 2.5 Computer Use - 69.7%. То есть модель чаще правильно выполняет задачи в реальных интерфейсах.
Модель:
- пытается понять цель, а не только текст команды
- строит несколько вариантов рассуждений
- выбирает подходящую стратегию перед действием
- адаптируется, если состояние приложения меняется
Идет в двух версиях: 7B и 32B.
Если вы работаете над агентами, которые должны нажимать кнопки, заполнять формы, открывать приложения и следовать шагам в интерфейсе - UI-Ins стоит добавить в список моделей для тестов.
🤖 UI-Ins-7B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-7B
UI-Ins-32B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-32B
📄 arXiv: https://modelscope.cn/papers/2510.20286
@ai_machinelearning_big_data
#AI #Agents #GUI #MobileAgents #AndroidWorld #LLM
Это модель, которая уверенно работает с мобильными интерфейсами и лучше понимает намерения пользователя.
Она рассматривает команду как цепочку рассуждений, а не как одно действие, поэтому справляется со сложными задачами стабильнее.
Результаты
UI-Ins показал 74.1% успешных действий в AndroidWorld. Для сравнения: Gemini 2.5 Computer Use - 69.7%. То есть модель чаще правильно выполняет задачи в реальных интерфейсах.
Модель:
- пытается понять цель, а не только текст команды
- строит несколько вариантов рассуждений
- выбирает подходящую стратегию перед действием
- адаптируется, если состояние приложения меняется
Идет в двух версиях: 7B и 32B.
Если вы работаете над агентами, которые должны нажимать кнопки, заполнять формы, открывать приложения и следовать шагам в интерфейсе - UI-Ins стоит добавить в список моделей для тестов.
🤖 UI-Ins-7B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-7B
UI-Ins-32B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-32B
📄 arXiv: https://modelscope.cn/papers/2510.20286
@ai_machinelearning_big_data
#AI #Agents #GUI #MobileAgents #AndroidWorld #LLM
👍32🔥17❤11🥰6
🥧 PewDiePie в 2025
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
👍197❤77🔥48😁32😨11👏9🤓3🤔1
⚡️ LongCat-Flash-Omni - открытая 560B MoE-модель (27B активных параметров), которая умеет вести живой диалог в реальном времени, слышать, видеть и отвечать голосом.
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
🔥62❤43👍24
Media is too big
VIEW IN TELEGRAM
Облачный стартап Lambda объявил о многомиллиардном соглашении с Microsoft на создание новой инфраструктуры для ИИ. Она будет оснащена десятками тысяч чипов Nvidia, в частности системами NVIDIA GB300 NVL72. Точная сумма сделки не раскрывается.
Lambda была основана в 2012 году и специализируется на облачных сервисах для обучения и развертывания ИИ-моделей. Новое соглашение позволит ей значительно нарастить мощности на фоне растущего спроса на ИИ. В планах не только аренда дата-центров, но и строительство собственной инфраструктуры.
lambda.ai
Китайский техногигант выпустил предварительную ризонинг-версию своей топовой модели Qwen3-Max, которая все еще находится на стадии обучения. Модель показала в тестах стопроцентный результат на сложных бенчмарках для оценки логического мышления (AIME 2025 и HMMT).
Под капотом - 1 трлн. параметров на архитектуре MoE, так же как и в родительской Max, Alibaba обещает, что обучение будет продолжено. Попробовать превью уже можно в Qwen Chat и через API Alibaba Cloud.
Qwen в сети X
IBM опубликовала новое семейство открытых моделей Granite 4.0 Nano, которые созданы для работы в составе ИИ-агентов. Версия на 350 млн. параметров может работать на обычном CPU с 8–16 ГБ ОЗУ, а для варианта на 1,5 млрд. хватит GPU с 6-8 ГБ видеопамяти.
Семейство построено на гибридной архитектуре Mamba-2+Transformer, что позволило снизить потребление памяти на 70% и удвоить скорость инференса по сравнению с аналогами. По словам IBM, Granite 4.0 Nano показывают SOTA в следовании инструкциям и использовании инструментов. Все модели под Apache 2.0 и доступны на HuggingFace.
huggingface.co
В Университете KAUST создали ИИ-агента Huxley-Gödel Machine (HGM), который может самосовершенствоваться, изменяя собственный код. Система не затрагивает ядро языковой модели, а переписывает окружающую ее инфраструктуру: управляющую логику, скрипты и инструменты.
Главное отличие от конкурентов в фокусе на долгосрочной продуктивности, а не на результатах в бенчах. Для этого был создан показатель Clade Metaproductivity (CMP), который мониторит совокупную эффективность всех потомков агента.
В тесте SWE-Bench Verified, HGM-агент на базе GPT-5-mini решил 61.4% проблем. Это лучше, чем существующие агенты с той же моделью. Код агента доступен на Github.
arxiv.org
Skyfall-GS способна создавать детализированные и проходимые 3D-модели городов, используя только стандартные спутниковые изображения. В отличие от старых методов, которые могут воссоздать лишь крыши, Skyfall-GS генерирует недостающие элементы, что на выходе дает фотореалистичные городские пространства.
Пайплайн состоит из 3D Gaussian splatting (базовый 3D-каркас города) и диффузионных моделей, которые дорисовывают недостающие элементы (стены зданий и текстуры на уровне земли).
Skyfall-GS работает с 11 FPS на потребительском GPU и, по тестам, лучше аналогичных методик. Код проекта опубликован на GitHub.
skyfall-gs.jayinnn.dev
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤32🔥8👏3🤔1
В свежем выпуске подкаста канала Bg2Pod CEO Microsoft Сатья Наделла пожаловался, что у компании не хватает электроэнергии для питания инфраструктуры ИИ.
Он опасается, что в итоге у Microsoft может оказаться куча чипов, которые просто будут лежать без дела, потому что не хватает энергии, чтобы их подключить.
Оказывается, что проблема не в поставках чипов, а в отсутствии готовых ЦОДов, расположенных рядом с крупными источниками электроэнергии.
OpenAI выражает обеспокоенность по этому поводу и просит правительство США добавить 100 гигаватт в год к производству электроэнергии в качестве стратегического актива для ИИ.
Этот дефицит электроэнергии приводит к потере капитала, поскольку графические ускорители теряют свою стоимость в ожидании готовности зданий, подстанций и линий электропередачи.
Даже если обучение останется централизованным, спрос на вычисления является основным фактором, влияющим на потребление электроэнергии, поэтому любой переход к эффективным периферийным устройствам изменит предположения о размерах энергосистемы и центров обработки данных.
Основная
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53❤22😁20🔥11👀5🗿4🤨2💋1💘1
Media is too big
VIEW IN TELEGRAM
Google анонсировала проект Suncatcher, который будет строить ML-инфраструктуру в космическом пространстве. Концепция состоит из развертывания группировок спутников, оснащенных TPU и связанных оптическими каналами. Идея проекта в том, что на правильной орбите солнечная панель может быть до 8 раз продуктивнее, чем на Земле, а значит космос - это лучшее место для масштабирования вычислений.
Для реализации еще предстоит решить как поддерживать высокоскоростную межспутниковую связь, которая требует полета аппаратов в очень плотном строю (километр или менее). К началу 2027 года планируют запуск двух прототипов спутников для проверки работы оборудования на орбите.
research.google
Новый рекорд производительности был получен на виртуальных машинах Azure ND GB300 v6, запущенных на стоечной системе NVIDIA GB300 NVL72. В ходе тестов была достигнута совокупная скорость инференса модели Llama 2 70B в 1.1 млн токенов в секунду. Это на 27% больше предыдущего рекорда, установленного на GB200.
Новая конфигурация дала почти пятикратный прирост пропускной способности на один GPU по сравнению с поколением H100. Ключевыми факторами стали возможности архитектуры Blackwell, использование FP4 и оптимизация библиотеки NVIDIA TensorRT-LLM. Результаты были подтверждены независимой аналитической компанией Signal 65. Логи запуска тестового инстанса можно посмотреть на Github.
techcommunity.microsoft.com
Платформа вводит новые, более строгие правила для раздела Computer Science. Причиной стал резкий рост числа обзорных и концептуальных статей низкого качества, многие из которых созданы с помощью нейросетей.
Теперь работы будут приниматься к публикации только после того, как их одобрят в рецензируемом научном журнале или на конференции. Авторам потребуется предоставить соответствующее подтверждение при загрузке работы, в противном случае статья будет отклонена. Новая политика не затрагивает обычные исследовательские статьи, однако в будущем может быть распространена и на другие научные области, если там возникнет схожая проблема.
blog.arxiv.org
AgiBot в партнерстве с Longcheer Technology развернула систему обучения с подкреплением в реальном мире (RW-RL) на пилотной производственной линии. Это первый подтвержденный случай промышленного применения технологии, которая позволяет роботам обучаться непосредственно в процессе работы, а не следовать жестким инструкциям.
С RW-RL роботы AgiBot осваивают новые навыки за минуты, автономно адаптируясь к изменениям в деталях или производственных допусках. Система поддерживает стабильность промышленного уровня и не требует сложной аппаратной модификации при смене продукта. После успешного пилотного проекта компании планируют расширить применение RW-RL на сборку потребительской электроники и автомобильных компонентов.
gizmochina.com
Scale AI и Center for AI Safety опубликовали результаты бенчмарка Remote Labor Index, который оценивает способность ИИ выполнять реальную работу фрилансеров. В рамках теста исследователи взяли 240 завершенных проектов с биржи Upwork и поставили идентичные задачи 6 топовым ИИ-системам.
Результаты показали, что даже лучшие модели справились с заданиями на человеческом уровне лишь в 2.5% случаев. Почти 97% работ были признаны неудовлетворительными из-за низкого качества, неполных данных или поврежденных файлов. ИИ справился только с узкими задачами: создание логотипов или сведение аудио.
Тест наглядно подсветил огромный разрыв между показателями ИИ на синтетических бенчмарках и его реальной готовностью к автоматизации сложных проектов.
scale.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤80👍50🔥13😁11😨4😢2
Как работают большие языковые модели, почему они «понимают» контекст и как запустить их у себя локально — без облаков и танцев с бубном?
👨💻🛠👨🏻💻 На открытом уроке разберём, как устроена архитектура Transformers, как LLM выбирает слова при генерации текста и почему от формулировки промпта зависит результат.Покажем, как развернуть модель локально через vLLM, протестировать её работу через API и использовать контекстные ответы на основе документов.Если вы разработчик, аналитик или продакт, который хочет не просто использовать ChatGPT, а понимать, как всё это устроено под капотом — этот вебинар для вас.
➡️ Приходите на открытый урок 10 ноября в 20:00 МСК в преддверии старта курса «LLM Driven Development». Регистрация открыта: https://otus.pw/ITF9/?erid=2W5zFGriqVJ
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👨💻🛠👨🏻💻 На открытом уроке разберём, как устроена архитектура Transformers, как LLM выбирает слова при генерации текста и почему от формулировки промпта зависит результат.Покажем, как развернуть модель локально через vLLM, протестировать её работу через API и использовать контекстные ответы на основе документов.Если вы разработчик, аналитик или продакт, который хочет не просто использовать ChatGPT, а понимать, как всё это устроено под капотом — этот вебинар для вас.
➡️ Приходите на открытый урок 10 ноября в 20:00 МСК в преддверии старта курса «LLM Driven Development». Регистрация открыта: https://otus.pw/ITF9/?erid=2W5zFGriqVJ
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👍15😁10❤7🌭3
This media is not supported in your browser
VIEW IN TELEGRAM
Предприятие рассчитано на выпуск 10 000 летающих модулей в год и способно собирать один аппарат каждые 30 минут на полной мощности.
Компания XPENG AEROHT уже получила почти 5 000 предзаказов на свои летающие авто.
Массовое производство и поставки ожидаются в 2026 году.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍120🤩28🔥16❤9😁6👏3❤🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
27 ноября Яндекс проведёт Data Dojo — встречу сообщества ML-экспертов
Обсудим востребованные направления машинного обучения, разберём реальные задачи из соревнований и понетворкаем с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Для участия офлайн или онлайн нужно заполнить анкету до 16 ноября. 👉 Заявка на Data Dojo
Всех ждём в нашем ML-комьюнити — совершенствовать мастерство вместе с Data Dojo.
Реклама. ООО "Яндекс". ИНН 7736207543
Додзё в японской культуре — место, где мастер и ученик ежедневно совершенствуют своё мастерство и дух. Мы перенесли этот принцип в мир данных — отсюда и название Data Dojo.
Обсудим востребованные направления машинного обучения, разберём реальные задачи из соревнований и понетворкаем с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Для участия офлайн или онлайн нужно заполнить анкету до 16 ноября. 👉 Заявка на Data Dojo
Всех ждём в нашем ML-комьюнити — совершенствовать мастерство вместе с Data Dojo.
Реклама. ООО "Яндекс". ИНН 7736207543
❤23🥱10👍9🥰2😁2💘1
🎉 Qwen3-VL теперь работает в llama.cpp!
Модель можно запускать прямо на своём устройстве - поддерживаются CPU, CUDA, Metal, Vulkan и другие бэкенды.
Доступны GGUF-веса для всех версий - от 2B до 235B. Можно запускать локально, без облака и сторонних сервисов 🚀
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-vl
🤖 ModelScope: https://modelscope.cn/collections/Qwen3-VL-5c7a94c8cb144b
📌 PR: https://github.com/ggerganov/llama.cpp/pull/16780
@ai_machinelearning_big_data
#Qwen3 #llm
Модель можно запускать прямо на своём устройстве - поддерживаются CPU, CUDA, Metal, Vulkan и другие бэкенды.
Доступны GGUF-веса для всех версий - от 2B до 235B. Можно запускать локально, без облака и сторонних сервисов 🚀
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-vl
🤖 ModelScope: https://modelscope.cn/collections/Qwen3-VL-5c7a94c8cb144b
📌 PR: https://github.com/ggerganov/llama.cpp/pull/16780
@ai_machinelearning_big_data
#Qwen3 #llm
1👍85🔥29❤12🥰3🗿1
💸 Майкл Бэрри снова делает громкий ход на рынке - он поставил $1.1 млрд в пут-опционах против двух крупных компаний из ИИ-сектора.
Если кто не знает, Майкл Бэрри - это легендарный инвестор, который предсказал ипотечный кризис 2008 года. Его история стала основой фильма «Игра на понижение» (The Big Short).
Пут-опционы - это право продать акции по заранее фиксированной цене.
Если рынок падает, то владелец таких контрактов зарабатывает.
Часть ставки может быть хеджем, а не чистой ставкой на обвал ИИ-рынка.
Бэрри ставит на коррекцию в перегретом сегменте ИИ.
lbc.co.uk/article/big-short-michael-burry-ai-bubble-5HjdGLY_2/
@ai_machinelearning_big_data
#investing #finance #AI #stocks #MichaelBurry
Если кто не знает, Майкл Бэрри - это легендарный инвестор, который предсказал ипотечный кризис 2008 года. Его история стала основой фильма «Игра на понижение» (The Big Short).
Пут-опционы - это право продать акции по заранее фиксированной цене.
Если рынок падает, то владелец таких контрактов зарабатывает.
Часть ставки может быть хеджем, а не чистой ставкой на обвал ИИ-рынка.
Бэрри ставит на коррекцию в перегретом сегменте ИИ.
lbc.co.uk/article/big-short-michael-burry-ai-bubble-5HjdGLY_2/
@ai_machinelearning_big_data
#investing #finance #AI #stocks #MichaelBurry
❤86👍43🔥20🤔12😁7🤣6😐5
Media is too big
VIEW IN TELEGRAM
Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.
Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.
Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com
Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».
Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai
Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.
MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai
Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.
В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai
Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.
Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.
Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤30👏8🔥5💯3🌚2👌1
Kimi-k2-thinking - ризонинг-модель с общими агентными возможностями, специализирующаяся на задачах глубокого рассуждения.
Модель получила контекстное окно в 256 тыс. токенов и turbo-версию, оптимизированную для быстрых ответов.
Новинка доступна на платформе Moonshot и по API.
Родительская Кimi-k2 - модель на основе MoE на 1 трлн. общих и 32 млрд. активных параметров. По словам Moonshot, в тестах рассуждений на основе общих знаний, программирования, математики и решения задач, K2 обошла ведущие опенсорсные модели.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43❤19🔥14
Бирюзовое мышление + сильные ИИ-стратегии:
Туториал Хирона по бирюзовому уровню и метамышлению в эпоху ИИ
- О навыках, которые ведут к эволюционному скачку в жизни и бизнесе. Их особенно важно освоить в ближайший год
🔐 Метод Хирона. Часть 1. «Человек + Искусственный Интеллект»
- О том, как создавать уникальные интеллектуальные комбинации, объединяя латеральное мышление и мощь искусственного интеллекта
Материалы доступны только до 17 ноября.Успейте изучить и сохранить ключевые идеи в заметки
Туториал Хирона по бирюзовому уровню и метамышлению в эпоху ИИ
- О навыках, которые ведут к эволюционному скачку в жизни и бизнесе. Их особенно важно освоить в ближайший год
🔐 Метод Хирона. Часть 1. «Человек + Искусственный Интеллект»
- О том, как создавать уникальные интеллектуальные комбинации, объединяя латеральное мышление и мощь искусственного интеллекта
Материалы доступны только до 17 ноября.
🗿49🤨21🥱14❤11🤬7👍4👻3❤🔥2🌭2🤝1