385K subscribers
4.49K photos
868 videos
17 files
4.92K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Пентагону приказано готовиться к AGI

На этой неделе на голосование выходит оборонный бюджет на $900 млрд, и внутри есть исторический прецедент.

Впервые Конгресс формально обязал Минобороны США создать к апрелю 2026 года “Комитет по будущему ИИ”.

Его задача - изучать и готовиться к AGI: технологиям, которые могут сравняться или превзойти человека в любых задачах.

Это первый раз, когда военное ведомство США получает прямой мандат анализировать не просто ИИ, а потенциал сверхразумных систем.

Задачи комитета:
1) Изучать продвинутые технологии, которые могут привести к AGI: большие модели, агентные системы, нейроморфные вычисления.

2) Анализировать, как к AGI могут идти Китай, Россия, Иран и Северная Корея, где они могут догнать или опередить США.

3) Сформировать стратегию, где человек остаётся главным.
В законопроекте прямо прописано: Пентагон должен обеспечить механизмы, позволяющие человеку отменять решения ИИ - технически, политически и операционно.

Комитет возглавят заместитель министра обороны и зампред Объединённого комитета начальников штабов, совместно с руководителями видов войск и главным AI-офицером Пентагона.

Итоговый доклад в Конгресс - до января 2027 года.

AGI может прийти через пять лет или через пятьдесят, но США официально начали к нему подготовку.

https://www.perplexity.ai/page/pentagon-ordered-to-form-ai-st-3qDBlb0uS0SHVH5mHEjxJw

@ai_machinelearning_big_data

#ml #ai #agi
56🤣45👍20🔥15🥱5😁4🗿4🌚3🤗1
🚀 Вышло крупное обновление Qwen3-Omni-Flash (версия 2025-12-01)

Что изменилось:

🎙️ Модель намного лучше ведёт разговоры с голосом и видео - общение звучит естественно и непрерывно
Теперь можно задавать характер ИИ через system prompts, например, стиль общения или роль
🗣️ Улучшена поддержка языков: 119 письменных и 19 голосовых
😊 Голоса звучат почти как настоящие люди

Где попробовать:

🎙️ В Qwen Chat - нажмите VoiceChat или VideoChat (правый нижний угол): http://chat.qwen.ai
📝 Подробности в блоге: https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 Онлайн-демо: http://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 Второе демо: http://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
Realtime API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01

@ai_machinelearning_big_data


#Qwen #llm #ml
👍4015🔥10💘2🦄1
⭐️ Nous Research открыла исходный код Nomos 1.

При размере всего 30B параметров модель набрала 87/120 на Putnam - одном из самых престижных математических конкурсов в мире.

Такой результат соответствовал бы 2-му месту среди 3988 участников в 2024 году.

Nomos 1 показала 87/120 и восемь идеальных решений. Для сравнения: Qwen3-30B при тех же условиях получила 24/120. Это подчёркивает, что преимущество Nomos связано прежде всего с качеством обучения и данных, а не с тестовой средой.

Проверка решений проходила вслепую: их оценивал реальный участник Putnam из топ-200, получивший обезличенные ответы.

Задачи решались в тех же временных рамках, что и у участников - по 3 часа на каждую часть.

Система рассуждений устроена так:
— сначала “workers” решают наиболее сложные задачи и сами оценивают свои решения;
— затем этап финализации, ИИ объединяет ответы и выбирает итоговый вариант.

HF: https://huggingface.co/NousResearch/nomos-1
Github: https://github.com/NousResearch/nomos

@ai_machinelearning_big_data

#llm #ml #ai
42👍16🥰5👏3😁2🦄2🤔1
Media is too big
VIEW IN TELEGRAM
✔️ Марк Цукерберг сворачивает стратегию Open Source.

Компания радикально меняет вектор развития ИИ, отказываясь от идеологии открытости в пользу закрытых коммерческих продуктов. По данным источников, уже весной будет выпущена проприетарная модель Avocado, которая будет распространяться по закрытой лицензии для прямой монетизации.

Причиной резкого разворота стала неудача с Llama 4, которая не оправдала ожиданий руководства. Любопытно, что в процессе обучения Avocado использовались ответы моделей конкурентов: Google Gemma, GPT-OSS и Qwen.
bloomberg.com

✔️ Nvidia разработала механизм проверки геолокации своих чипов.

Компания создала ПО, которое определяет страну, где физически работают её ИИ-ускорители. Технология опирается на анализ сетевых задержек при обмене данными с серверами Nvidia, что позволяет установить геолокацию оборудования с точностью, достаточной для выявления нарушений санкционного режима.

Первыми поддержку новой функции получат системы на Blackwell. Инженеры также изучают варианты внедрения технологии для предыдущих поколений Hopper и Ampere. Nvidia позиционирует этот инструмент как опциональное ПО для инвентаризации и мониторинга состояния GPU-флота в дата-центрах, но фактически он отвечает на требования властей США о противодействию контрабанды железа в Китай.
reuters.com

✔️ Cursor получил режим Debug Mode.

Debug Mode — это новый агентный сценарий для борьбы с ошибками, которые обычно ставят языковые модели в тупик. Фишка инструмента в том, что он не пытается угадать решение, а действует методично: сначала выдвигает несколько гипотез о причинах сбоя, а затем временно внедряет в код инструкции для сбора runtime-логов.

Процесс отладки полностью интерактивен. После того как агент расставит «ловушки» в коде, разработчик должен воспроизвести ошибку в запущенном приложении. Получив реальные данные, Cursor локализует проблему и предлагает конкретный фикс без переписывания сотен строк кода. Если исправление работает, система автоматически вычищает весь черновой код, оставляя в проекте только финальный патч.
cursor.com

✔️ Microsoft превратила Copilot в автономного агента для автоматизации работы в Excel.

Microsoft открыла общий доступ к режиму Agent Mode в веб-версии Excel. Это обновление меняет взаимодействие с ИИ: Copilot теперь выполняет роль агента, способного самостоятельно выполнять многоступенчатые сценарии внутри книги.

В новом режиме агент может создавать таблицы с нуля, используя данные из веба, проводить сценарное моделирование «что - если», исправлять сложные формулы и строить сводные таблицы. Система показывает цепочку рассуждений и каждый шаг выполнения задачи.

Инструмент доступен подписчикам Microsoft 365 в веб-интерфейсе, а поддержка десктопных версий для Windows и Mac появится в январе.
techcommunity.microsoft.com

✔️ Adobe интегрировала Photoshop и Acrobat в интерфейс ChatGPT.

Компания запустила специализированные ИИ-агенты для редактирования медиафайлов и документов прямо в чат-боте. Новые инструменты поддерживают конкретные сценарии работы: Photoshop внутри чата умеет ретушировать области снимков и управлять контрастом и экспозицией. Acrobat - конвертировать, сжимать, объединять PDF-файлы и извлекать из них таблицы. Adobe Express используется для генерации и правки макетов.

Если возможностей чат-бота окажется недостаточно, проект можно бесшовно перенести в десктопный софт Adobe. Решение уже доступно в веб-версии, на десктопах и iOS. Функциональность предоставляется бесплатно: для активации достаточно загрузить файл и ввести текстовую команду с упоминанием нужного сервиса, например, «Adobe Photoshop, убери фон на этом изображении».
theverge.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7222😁13🔥7😢4🤗4🤔2🌭1
📌 SAPO: RL-метод, который приручил нестабильные градиенты в LLM и MoE.

Qwen предложил RL-метод SAPO (Soft Adaptive Policy Optimization), который решает ключевую проблему нестабильного обучения LLM и архитектур MoE и предлагает более разумный и мягкий подход к контролю над процессом обучения.

Reinforcement Learning, RL - это ингредиент, превращающий просто большую языковую модель в рассуждающего помощника. Именно RL учит ИИ решать олимпиадные задачи по математике, писать чистый код и понимать связь между текстом и изображением.


Но у RL есть обратная сторона: катастрофическая нестабильность обучения, особенно для гигантских моделей.

Главная техническая головоломка - это контроль над коэффициентами значимости на уровне каждого токена. В архитектурах MoE, где разные части модели активируются для разных задач, эти коэффициенты могут бесконтрольно «скакать».

Слишком большие колебания коэффициентов превращают четкие обучающие сигналы в помехи, дестабилизирующие всю систему.

До сих пор стандартными инструментами были GRPO и GSPO, которые использовали принцип хард-клиппинга. Если коэффициент выходил за заданные рамки, градиент просто обнулялся.

🟠Минус первый: Потеря информации. Ценные, но выбивающиеся данные безжалостно отбрасывались.

🟠Минус второй: Невозможный баланс. Сделаешь рамки узкими - задушишь обучение. Сделаешь широкими - полезет паразитный шум. Для капризных MoE-архитектур эта дилемма особенно актуальна.
SAPO предлагает отказаться от хард-клиппинга в пользу интеллектуального сглаживания.

Вместо резкого обнуления SAPO использует плавную, адаптивную функцию (контролируемую температурой), которая мягко снижает влияние проблемных градиентов, но не обнуляет их полностью. Это создает непрерывные области доверия, внутри которых модель может учиться более гибко и безопасно.

🟡Красота SAPO - в универсальности.

🟢Как GSPO, но умнее. Если в длинном ответе сбился лишь один токен, GSPO наказывает всю последовательность. SAPO избирательно подавляет только «виновника», сохраняя полезные сигналы от остальных слов. Это резко повышает эффективность наборов обучающих данных.

🟢Как GRPO, но плавнее. Вместо резкого отключения градиента для плохого токена SAPO применяет постепенное затухание. Это предотвращает резкие рывки в обучении, обеспечивая плавную и стабильную настройку политики модели.

Вишенка метода - это асимметричный температурный дизайн. SAPO по-разному обрабатывает «хорошие» и «плохие» обновления. Для токенов с негативным вкладом используется более высокая температура, заставляющая их влияние затухать быстрее и сильнее.

Это простое правило надежно гасит наиболее опасные колебания, что на практике приводит к беспрецедентной стабильности процесса RL-обучения.

🟡Теорию подтвердили тестами.

При обучении Qwen3-30B-A3B-Base, SAPO не только показал более стабильную кривую обучения , но и достиг более высоких результатов на сложных математических бенчмарках AIME25, HMMT25. Причем он сделал это без трудоемкого маршрутизирующего воспроизведения, которая требовалась конкурентам для работы с MoE.

Успех повторили в масштабном эксперименте с мультимодальной Qwen3-VL-30B-A3B, где SAPO стабильно обошел аналоги в смешанных задачах на кодинг, логику и математику.


🟡Статья
🟡Arxiv

@ai_machinelearning_big_data

#AI #ML #LLM #MoE #SAPO #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47🔥2919🥰6🦄2
⚡️ В открытом доступе появился техрепорт собственного семейства моделей Яндекса — Alice AI.

Что изменилось:

⭐️ VLM- и LLM-«Алисы» сближаются все сильнее, поскольку компания делает большую ставку на мультимодальность. Например, VLM-модель уже использует RL-подход текстовой «сестрёнки». Промпт на входе в Alice AI ART обрабатывается в специальном «рефразере», который помогает сделать описание более детальным. Также увеличен контекст и объем данных претрейна в VLM.

⭐️ Много технических подробностей о работе Alice AI LLM Search, которая теперь приносит в ответе не только текст, но и изображения, видео и геоданные.

⭐️ На инфраструктуре видим прирост по скорости за счет мелких аджастов — увеличение эффективного батча на претрейне, внедрение Ulysses attention, снижение объема кэша на инференсе и еще много изменений. В целом сняты ключевые ограничения для тренировки MoE-модели на сотни миллиардов параметров.

@ai_machinelearning_big_data

#vlm #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣3832👍22🔥11🤬2🙊1