362K subscribers
4.25K photos
795 videos
17 files
4.75K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
⚡️ Qwen Deep Research получил полезное обновление

Теперь он создаёт не только отчёты, но и готовые веб-страницы и подкасты.

Работает связка Qwen3-Coder, Qwen-Image и Qwen3-TTS.

👉Попробовать: chat.qwen.ai/?inputFeature=deep_research

@ai_machinelearning_big_data


#Qwen #AI #DeepResearch #Qwen3 #AItools
Please open Telegram to view this post
VIEW IN TELEGRAM
39🔥24👍12🥰4🐳3🤔2
🌟 NVIDIA OmniVinci: омнимодальная модель, которая бьет рекорды.

OmniVinci - модель, способная одновременно понимать и обрабатывать разные типы информации: текст, изображения, видео и звук.

Модель крайне эффективна, несмотря на то, что была обучена всего на 200 млрд. токенов (что в 6 раз меньше, чем у Qwen2.5-Omni - 1.2 трлн.). Это стало возможным благодаря архитектурным фишкам и тщательному подходу к подготовке данных.

В основе OmniVinci 3 компонента:

🟢Temporal Embedding Grouping (TEG) - упорядочивает эмбеддинги из видео и аудио по временным меткам.

🟢Constrained Rotary Time Embedding (CRTE) - кодирует уже абсолютное время.

🟢OmniAlignNet - выравнивает эмбеддинги видео и аудио в общем латентном пространстве с помощью контрастивного обучения.

Абляция показала, что вклад каждого элемента играет свою важную роль: базовая модель с простой конкатенацией токенов набирает в среднем 45.51 балла. Добавление TEG поднимает результат до 47.72 (+2.21), CRTE — до 50.25 (+4.74 от базовой), а финальный слой в виде OmniAlignNet доводит средний балл до 52.59, что в сумме дает прирост в 7.08 пункта.

Данные для обучения - 24 млн. диалогов, которые пропустили через систему, где отдельная LLM анализирует и объединяет описания из нескольких модальностей, создавая единую и корректную аннотацю.

Итоговый датасет на 36% состоял из изображений, на 21% из звуков, на 17% из речи, 15% - из смешанных данных и на 11% из видео.

В бенчах OmniVinci обошла всех конкурентов. На Worldsense модель набрала 48.23 балла против 45.40 у Qwen2.5-Omni. На Dailyomni - 66.50 против 47.45. В аудио-задачах OmniVinci тоже молодец: 58.40 в MMAR и 71.60 в MMAU.

В распознавании речи модель показала WER 1.7% на датасете LibriSpeech-clean.

Применение модели протестили на практике. В задаче классификации дефектов полупроводниковых пластин, OmniVinci достигла точности 98.1%, что лучше, чем у специализированной NVILA (97.6%), и у более крупную 40-миллиардную VILA (90.8%).


📌Лицензирование кода : Apache 2.0 License.

📌Лицензирование: NVIDIA One Way Noncommercial License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #NVIDIA #OmniVinci
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5120🔥12🤣3🤗3💅3🕊2
Media is too big
VIEW IN TELEGRAM
✔️ Alibaba представила Qwen3-VL-2B и Qwen3-VL-32B

Qwen3-VL-32B превосходи GPT-5 mini и Claude 4 Sonnet* в задачах STEM, визуальных вопросах (VQA), OCR, анализе видео и агентных сценариях.

При этом у модели всего 32 млрд параметров и она сопоставима, а на некоторых бенчмарках даже превосходит модели на 235 млрд параметров (лучше всего показывает себя на *OSWorld*).

Попробовать / HF

✔️Google выкатили обновление для AI Studio

Значительно прокачали возможности студии по генерации кода. Сгенерированный проекты можно просматривать или дорабатывать прямо в браузере и деплоить. Также добавили прикольный режим «I’m Feeling Lucky», который генерирует случайную идею для вайбкодинга.
aistudio

✔️Умный дизайн DeepSeek OCR

На первый взгляд DeepSeek-OCR кажется просто моделью для распознавания текста. Но на деле - это совершенно новый способ того, как ИИ может хранить и обрабатывать информацию.

Обычно модели работают с текстовыми токенами - каждый кусочек слова превращается в отдельный токен, и при длинных документах их число растёт квадратично, делая работу медленной и дорогой. DeepSeek решает эту проблему иначе: она превращает длинный текст в изображение, кодирует его в набор компактных визуальных токенов и затем восстанавливает текст обратно.

Эксперименты показали: даже при 9–10-кратном сжатии точность OCR остаётся около 97%, а при 20-кратном - около 60%. Это доказывает, что плотные визуальные представления способны нести ту же информацию куда эффективнее, чем обычные текстовые токены.

Ключевая инновация DeepSeek- новый энкодер DeepEncoder, который умеет обрабатывать страницы высокого разрешения без переполнения памяти. Он делает это в три шага: сначала применяет локальное внимание для мелких деталей, затем 16× свёрточное сжатие, а потом глобальное внимание для понимания всей структуры документа. Такая последовательная архитектура сохраняет точность, но радикально снижает число токенов и объём активаций.

Авторы также предлагают механизм «забывания»: старый контекст можно постепенно уменьшать в разрешении, чтобы свежая информация оставалась чёткой, а старая занимала меньше места. DeepSeek - как всегда умницы.
DeepSeek-OCR

✔️Goldman Sachs: экономика США растёт без новых рабочих мест

США входят в фазу "jobless growth"- производительность растёт благодаря ИИ, но найм почти остановился.

Goldman отмечает: компании делают больше с теми же людьми, а реальный рост занятости вне здравоохранения стал отрицательным. Джером Пауэлл описал рынок как “очень мало найма, мало увольнений”, а выпускники всё чаще не могут найти первую работу.

По данным Challenger, планы по найму - на минимуме с 2009 года. Рост есть, рабочих мест - всё меньше.
futurism

✔️Claude Desktop теперь доступен для всех

Anthropic объявила о публичном релизе Claude Desktop - приложения для Mac и Windows.

На Mac теперь можно делать скриншоты, кликать по окнам, чтобы поделиться контекстом с Claude, и управлять агентом голосом.
Скачать для Mac и Windows

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8239🔥14🤗10👏5🥰2🤔2🦄2🎉1
Media is too big
VIEW IN TELEGRAM
🌍 Tencent выпустили и Hunyuan World 1.1 (WorldMirror): новую версию модели для 3D-реконструкции

Версия Hunyuan World 1.0 умела создавать 3D-сцены по тексту или одному изображению (и была заточена на работу даже на обычных видеокартах), новая версия 1.1 способна строить 3D-мир из видео и мультиракурсных изображений.

Чем интересная

🔹 Поддерживает любые входные данные:
Модель принимает на вход всё - видео, фото, карты глубины, описание позы и параметры камеры. Моделька точно восстанавливает геометрию сцены без искажений.

🔹 Любой формат вывода:
На выходе выдает
плотные облака точек, карты глубины, нормали поверхностей, параметры камеры и 3D Gaussian Splattings.

🔹 Быстрая работа на GPU:
Модель полностью feed-forward, делает один проход и выдаёт готовый 3D-результат всего за несколько секунд.

🌐 Проект: https://3d-models.hunyuan.tencent.com/world/
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanWorld-Mirror
🤗 HF: https://huggingface.co/tencent/HunyuanWorld-Mirror
Демоhttps://huggingface.co/spaces/tencent/HunyuanWorld-Mirror
📄 Технический отчётhttps://3d-models.hunyuan.tencent.com/world/worldMirror1_0/HYWorld_Mirror_Tech_Report.p

@ai_machinelearning_big_data


#AI #3D #VR #Gaming #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍139👏2521🔥18🤩15🎉8🤗3🦄3❤‍🔥1
🔍 Qwen3-VL-2B-Thinking — новая маленькая мультимодальная модель, заточенная под рассуждения

Компактная версия семейства Qwen3-VL, ориентированная на глубокое мышление, аналитику и агентные применения.

В линейке Qwen-VL предусмотрены два ключевых режима:
- *Instruct* — для диалогов и инструкций,
- *Thinking* — для логических рассуждений, кода и комплексных задач.

💡 Особенности
- Архитектура поддерживает мультимодальность: модель понимает текст и изображения, способна анализировать контент и выстраивать причинно-следственные связи.
- Оптимизирована для reasoning-задач, где важна не генерация текста, а последовательное мышление и вывод.
- Благодаря размеру в 2B параметров, модель легко разворачивается на локальных GPU и в облачных окружениях.
- Поддерживает tool calling и интеграцию в агентные фреймворки.

Qwen3-VL-2B-Thinking - отличная модель при минимальных ресурсах.

👉 https://huggingface.co/Qwen/Qwen3-VL-2B-Thinking

@ai_machinelearning_big_data


#Qwen3VL #Qwen #Reasoning #AI #Multimodal #OpenSource
👍22361🔥46😎11🎉9👏7🤔7🥰6🤩5🤗3🦄3
💡 Google запустил Skills: открытую платформу для развития навыков работы с ИИ!

На платформе представлено почти 3000 курсов, лабораторных и практических треков, охватывающих темы от основ python и машинного обучения до продвинутого MLOps, Vertex AI, Gemini и Prompt Design.

Чему можно научиться
- Встроить генеративный ИИ в свой дата-пайплайн;
- Научиться деплоить и обслуживать модели;
- Создать собственное приложение с Gemini и Streamlit;
- Пройти обучение с наставниками или в сообществе Google Cloud Innovators.

Разные уровни от новичков до тимлидов.

По завершении даже выдают сертификаты, которые можно добавить в резюме и на LinkedIn.

✔️ Начать учиться: https://www.skills.google/
✔️ Каталог курсов: https://www.skills.google/catalog

@ai_machinelearning_big_data

#googel #ai #freecourse
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60👨‍💻49🔥20🎉1611👏4🤩3💅3
🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI

Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».

Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.

Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.

🟠Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.

Проще говоря:

1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.

2) Затем применяют обратные операции, как будто “перематывают” процесс назад.

3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.

4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.

Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.

Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.

«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.

*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.

🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6

@ai_machinelearning_big_data

#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥286👍25399🤔70👏53🥰31😐22🤩17🤗13🤓6👌5
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic готовит рекордную сделку с Google на десятки миллиардов долларов

Anthropic ведёт переговоры с Google о крупнейшем облачном контракте - на десятки миллиардов долларов. Речь идёт о долгосрочном соглашении, которое обеспечит Anthropic доступом к кастомным TPU - специализированным чипам Google для обучения и работы крупных моделей.

Google уже вложил в Anthropic $3 млрд ($2 млрд в 2023 и ещё $1 млрд в 2025).
Подобные соглашения обычно включают не только вычислительные мощности, но и сетевые и хранилищные ресурсы на несколько лет вперёд.

Anthropic ожидает мощный рост выручки - более чем в два-три раза, до $9 млрд годового run rate. Это результат стремительного роста корпоративных продуктов компании.

Переговоры находятся на ранней стадии, и условия сделки ещё могут измениться.
reuters

✔️ PyTorch представил Monarch - новый фреймворк для распределённых вычислений с моделью единого контроллера.

Вместо традиционного SPMD-подхода, где каждый узел работает независимо, Monarch позволяет управлять тысячами GPU из одного скрипта, как будто они находятся на одной машине.

Он организует процессы и акторы в многомерные «сетки» (meshes), поддерживает привычные Python-конструкции, включая обработку исключений для отказоустойчивости, и разделяет управляющий и данные-планы - данные передаются напрямую между GPU через RDMA.

Распределённые тензоры выглядят и используются как локальные, а сложные сценарии вроде обучения с подкреплением или отказоустойчивого предобучения реализуются проще и понятнее.

Monarch уже интегрирован с VERL, TorchForge и Lightning AI, и позволяет запускать, отлаживать и масштабировать задачи прямо из Jupyter Notebook. pytorch

✔️ Amazon якобы заменила 40 % DevOps-инженеров AWS искусственным интеллектом - за несколько дней до сбоя

Появились сообщения, что Amazon Web Services уволила около 40 % своей DevOps-команды и частично заменила их ИИ-системой, способной автоматически находить и устранять ошибки в инфраструктуре. Внутреннее письмо, опубликованное на вики компании и быстро удалённое, связывало сокращения со «стратегическими инициативами по автоматизации». Инцидент произошёл незадолго до крупного сбоя AWS, который затронул Snapchat, Roblox и другие платформы.

Сообщается, что новая система может самостоятельно исправлять сбои IAM, восстанавливать виртуальные сети и откатывать неудачные развертывания Lambda без участия человека. Однако никаких официальных подтверждений от Amazon не поступало.
80.lv

✔️ Новая компактная мультимодальая модель — LFM2-VL-3B

Демонстрирует хорошие результаты: 51.8% на MM-IFEval (точное следование инструкциям) и 71.4% на RealWorldQA (понимание реального мира). LFM2-VL-3B отлично работает как с одним, так и с несколькими изображениями, а также точно распознаёт английский текст на изображениях (OCR).

При этом модель показывает очень низкий уровень галлюцинаций на бенчмарке POPE.
HF

✔️ ChatGPT установил новый рекорд удержания пользователей.

Согласно опросу 28 миллионов человек в США, доля тех, кто продолжает пользоваться сервисом спустя месяц, выросла с менее 60% два года назад до 90% сегодня.

Проще говоря - 9 из 10 пользователей остаются с ChatGPT уже через месяц. Это лучший результат в истории массовых цифровых продуктов: даже YouTube, считавшийся эталоном, показывает месячную удерживаемость около 85%.

Ещё впечатляюще: через полгода с сервисом остаётся около 80% пользователей - и эта цифра продолжает расти, формируя так называемую «улыбающуюся» кривую удержания.

Для продуктовых команд - это мечта. Для всей индустрии - ясный сигнал: перед нами продукт нового поколения.
X

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134👏3126🤩20🔥9🤔5🎉5👌2🤗2
⚠️ Китай попытался разобрать литографическую машину ASML (DUV), чтобы изучить её устройство, но повредил систему и затем обратился в ASML с просьбой отремонтировать.

Этот случай показал, насколько такие технологии хрупкие и зависят от поставщика.

🏭 Что такое литографическая установка
Литографическая установка - это ключевая машина, которая «печатает» микроскопические схемы на кремниевых пластинах.

Именно она формирует транзисторы и соединения, из которых состоит каждый процессор, память или графический чип.

От её точности зависит, сколько транзисторов можно разместить на одном чипе, а значит, его мощность и энергоэффективность.

ASML - голландская компания, единственный в мире производитель передовых литографических систем для чипов.
Без её технологий невозможно выпускать современные процессоры уровня NVIDIA, AMD, Apple, Intel или Huawei.

📉 Контекст
Китай серьёзно отстаёт в производстве литографических установок и не имеет доступа к топовым системам DUV и EUV от ASML из-за экспортных ограничений США.

С сентября 2024 года Нидерланды ужесточили правила — теперь даже продвинутые DUV-модели, вроде 1970i и 1980i, требуют специальных лицензий.

🔬 Что такое DUV и EUV
Литографические машины DUV (Deep Ultraviolet) и EUV (Extreme Ultraviolet) - это сердце производства чипов.
Они «печатают» микросхемы с помощью света:
- DUV использует длину волны 193 нм
- EUV - всего 13,5 нм

Чем короче волна, тем мельче детали можно выгравировать → больше транзисторов → выше производительность и ниже энергопотребление.

💡 Без таких систем невозможно создавать высокоплотные и быстрые процессоры, на которых работает современный ИИ.

https://www.techspot.com/news/109969-chinese-engineers-allegedly-broke-asml-chipmaking-machine-failed.html

@ai_machinelearning_big_data


#AI #Chips #ASML #China #DUV #EUV #Semiconductors
😁140🤔73👍4819😢18😨11👏7🔥6❤‍🔥1🤗1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Новинка от ByteDance: модель Video-As-Prompt Wan2.1-14B

ByteDance выпустила модель Wan2.1-14B, специализирующуюся на задаче *video-as-prompt*, то есть использование видео или комбинации изображений и текста как входных данных для генерации нового видео.

- Работает в режимах «видео → видео» или «изображения/текст → видео».
- 14 млрд параметров — высокая детализация, плавная динамика, реалистичные движения.
- Использует исходное видео как шаблон стиля и композиции.

⚠️ Что стоит учитывать
- Модель требует мощных GPU и большого объёма памяти.
- Качество результата зависит от сложности запроса и длины видео.

🟠Github: https://github.com/bytedance/Video-As-Prompt
🟠HF: https://huggingface.co/ByteDance/Video-As-Prompt-Wan2.1-14B

@ai_machinelearning_big_data


#AI #VideoGeneration #ByteDance #Wan2 #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍138🔥22👏2221🤩17😎6😁5🥰2🤗2🤔1
🦾Китай сейчас роботизирует свои заводы значительно быстрее, чем любая другая страна в мире.

В 2024 году китайцы использовали около 300 тысяч новых промышленных роботов - это больше, чем во всём остальном мире вместе взятом.

Сегодня у них в цехах уже трудятся свыше двух миллионов роботов, работающих без перерывов днём и ночью.

Для сравнения: США в прошлом году добавили всего 34 тысячи, Япония - 44 тысячи, и по общему количеству роботов Китай опережает Америку в пять раз.

Этот рывок стал возможен благодаря долгосрочной государственной политике, напоминающей ту, что привела Китай к лидерству в электромобилях и ИИ: дешёвые кредиты, целевые субсидии и чёткие планы по автоматизации.

На заводах роботы уже давно не экзотика: они сварят, собирают, перемещают детали, а ИИ на фоне анализирует данные с оборудования, предсказывает износ и сокращает простои.

Особенно заметен разрыв в таких отраслях, как автомобилестроение и электроника, где каждая секунда на конвейере имеет значение.

При этом Китай быстро наращивает собственное производство: уже 60% устанавливаемых роботов теперь делают внутри страны.

Правда, самые точные датчики, приводы и чипы всё ещё ввозят из Германии и Японии.

А вот человекоподобные роботы, хоть и не учитываются в этих цифрах, тоже набирают обороты - базовые модели китайских стартапов стоят уже около $6 000.

Главное узкое место - нехватка специалистов по настройке и обслуживанию.

Но и тут Китай использует своё преимущество: огромный пул электриков и программистов ПЛК, а зарплаты инженеров-робототехников уже достигли $60 000 в год, что привлекает всё больше талантов.

Всё это создаёт мощный эффект: сочетание государственной поддержки, умных цепочек поставок и подхода, где программное обеспечение стоит во главе угла. В ближайшие годы это, скорее всего, будет означать более низкую себестоимость и более быстрые сроки поставок с китайских фабрик - по сравнению со многими конкурентами.

@ai_machinelearning_big_data

#ai #robots #ml
👍156🤩106👏3122🔥22💯11🤣6🎉4🤗2🤔1🤬1
✔️ OpenAI покупает создателей Sky - ИИ-ассистента для Mac

OpenAI объявила о приобретении компании Software Applications Incorporated, разработавшей Sky - интеллектуальный интерфейс для macOS, который работает поверх интерфейсов всех приложений.

Sky понимает контекст того, что происходит на экране, и может выполнять действия в реальных программах: писать тексты, планировать задачи, помогает писать код или управлять рабочим днём, всё через естественный язык.

Цель - превратить ИИ из инструмента для ответов в помощника, который действительно помогает «доводить дела до конца». Как сказал Ник Тёрли, руководитель ChatGPT:
«Мы строим будущее, где ChatGPT не просто отвечает, а помогает вам добиваться результатов».
Этот шаг знаменует переход к новому поколению ИИ-интерфейсов - глубоко встроенных в операционную систему, осознающих контекст и способных взаимодействовать с привычными приложениями.
OpenAi

✔️ В Кремниевой долине опасаются угрозы промышленного шпионажа через личные отношения

Развед службы Китая и России всё чаще используют долгосрочные романтические связи и браки, чтобы получить доступ к секретам инженеров, учёных и топ-менеджеров. Такие операции длятся годами: агент встраивается в жизнь цели, получает доверие - и вместе с ним - легальный доступ к закрытым данным, минуя все технические защиты.

В числе тактик- знакомства в LinkedIn, «случайные» встречи на конференциях и участие в стартап-питчах, где собирают не только идеи, но и персональные данные. В одном из известных случаев агентка вышла замуж за инженера аэрокосмической отрасли, а затем появилась в кругах, связанных с оборонкой США.

Особую тревогу в долине вызывает тихое проникновение китайских инвесторов в американские стартапы, получающие госфинансирование. Как только доля иностранного капитала превышает определенный лимит, Минобороны США теряет право их финансировать, но к тому моменту технологии уже могут быть скопированы или переданы.

По оценкам, ежегодные потери от кражи подобных секретов оценивают в $600 млрд. При этом в 2023-2024 годах 6 из 25 стартапов, получивших $180 млн по госпрограмме малого бизнеса, имели связи с Китаем, несмотря на риски.
Times

✔️ Ant Group представила исследование о стабильном обучении триллионных reasoning-моделей, где описана система Ring-1T - модели с 1 триллионом параметров.

При генерации она задействует около 50 млрд параметров на токен и уже достигла уровня IMO 2025 Silver, что демонстрирует высокий уровень рассуждений.

Главное достижение - Ring-1T умеет думать «долго» без потери устойчивости. Команда решила ключевые проблемы масштабного обучения: различие между тренировкой и инференсом, перерасход вычислений и зависание RL-моделей. Для этого они внедрили три ключевые технологии: IcePop стабилизирует градиенты, C3PO++ оптимизирует длинные рассуждения и поддерживает загрузку GPU, а ASystem обеспечивает быструю синхронизацию и эффективное управление памятью.

Результаты впечатляют - 55.94 балла на ARC AGI 1 и 2088 на CodeForces. Работа показывает, что долгое рассуждение и обучение на триллионном масштабе теперь реально и стабильно.
arxiv

✔️ Учёные представили метод Adamas, который ускоряет self-attention до 4.4×, сохраняя качество при длинных контекстах.

Вместо того чтобы сравнивать каждый токен со всеми, Adamas выбирает только 128 наиболее релевантных для каждого запроса. Это снижает вычислительную нагрузку, но почти не влияет на точность.

Технология использует преобразование Адамара для сглаживания значений, кодирует ключи и запросы в 2-битные представления и быстро вычисляет их сходство с помощью Manhattan-метрики. Модель затем применяет обычное внимание только к нужным токенам.

Метод не требует переобучения, добавляет лишь минимальные данные в память и ускоряет работу LLM в среднем на 1.5×, сохраняя качество на уровне плотного внимания.
Подробнее

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
166👍38🤗14🥱7🔥3
⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю

Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.

Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.

Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.

В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.

Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.

Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».

Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».

Один из фаундеров пошутил:

«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».


Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

@ai_machinelearning_big_data


#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍59😨56🫡1612🏆6🔥5😁3🦄3
🧠 Карпаты показал, как добавить новую функцию в мини-LLM nanochat d32, сравнив её «мозг» с мозгом пчелы.

Он обучил модель считать, сколько раз буква r встречается в слове strawberry, и использовал этот пример, чтобы показать, как можно наделять маленькие языковые модели новыми навыками через синтетические задачи.

Сначала генерируются диалоги:

«Сколько букв r в слове strawberry?»

и правильные ответы.

После этого модель проходит дообучение (SFT) или обучение с подкреплением (RL), чтобы закрепить навык.

Карпаты объясняет, что для маленьких моделей важно продумывать всё до мелочей, как разнообразить запросы, как устроена токенизация и даже где ставить пробелы.

Он показывает, что рассуждения лучше разбивать на несколько шагов, тогда модель легче понимает задачу.

Nanochat решает задачу двумя способами:
— логически, рассуждая пошагово;
— через встроенный Python-интерпретатор, выполняя вычисления прямо внутри чата.

Идея в том, что даже крошечные LLM можно «научить думать», если правильно подготовить примеры и синтетические данные.

📘 Разбор: github.com/karpathy/nanochat/discussions/164

@ai_machinelearning_big_data

#AI #Karpathy #Nanochat #LLM #SFT #RL #MachineLearning #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
91👍51🔥19🤗3💘3
Media is too big
VIEW IN TELEGRAM
✔️ IBM совершила прорыв в квантовых вычислениях: на обычных FPGA-чипах

Всего через два дня после новости от Google - ещё один крупный квантовый прорыв.

IBM заявила, что один из её ключевых алгоритмов квантовой коррекции ошибок теперь способен работать в реальном времени на FPGA-чипах AMD, без использования экзотического оборудования.

Это делает квантовые вычисления быстрее, дешевле и ближе к практическому применению, чем ожидалось.

Алгоритм, который отслеживает и исправляет ошибки кубитов «на лету»,показал производительность в 10 раз выше необходимой, что стало важным шагом к созданию квантового компьютера Starling, запланированного на 2029 год.
Теперь IBM утверждает, что проект идёт на год впереди графика.

Исследовательская статья выйдет в понедельник.
Темп развития квантовых технологий заметно ускоряется.
reuters

✔️ Microsoft представила AI-браузер Edge - ответ на OpenAI Atlas

Через два дня после запуска OpenAI Atlas Microsoft представили обновлённый браузер Edge с новым режимом Copilot Mode. Это полноценный AI-бразуер, который понимает контекст вкладок, выполняет действия и способен продолжать проекты, используя историю пользователя.

Функция Actions позволяет голосом или через чат открывать страницы, находить нужную информацию, отписываться от рассылок и даже бронировать рестораны. Система Journeys группирует прошлую активность по темам и помогает вернуться к незавершённым задачам, предлагая логичные следующие шаги. Включение Page Context даёт Copilot доступ к истории для более точных и персонализированных ответов, однако это остаётся опциональной функцией, которую можно отключить в любой момент.

Edge также получил встроенный AI-защитник от фейковых всплывающих окон, менеджер паролей с проверкой на утечки.

Браузер уже доступен в странах, где работает Copilot, на Windows и macOS.
Microsoft

✔️ Google добавили reasoning в Google Earth

Google представила фреймворк Geospatial Reasoning на базе Gemini, который объединяет предиктивные модели и данные в единую систему анализа Земли.
Теперь ИИ способен рассуждать о реальных процессах, например, предсказывать землетрясения, оценивать риски и предлагать план эвакуации.

Система уже применяется в ВОЗ (WHO AFRO) для прогнозов вспышек холеры и у McGill & Partners для расчёта ущерба после ураганов.

Google превращает Google Earth из карты в разумный аналитический инструмент планеты.
google


✔️ Исследователи создали систему DiscoRL (Discovered Reinforcement Learning), где модель сама открыла правило обучения с подкреплением, не опираясь на человеческие алгоритмы вроде Q-Learning или PPO.

Мета-обучатель наблюдал за множеством агентов в разных средах и вывел универсальное правило обновления, которое улучшает поведение моделей без ручной настройки.
В итоге DiscoRL победил лучшие алгоритмы на Atari 57 и успешно перенёс этот навык на новые задачи.
nature

✔️ Hugging Face выпустила OpenEnv: универсальную среду для создания AI-агентов

Hugging Face открыла OpenEnv -платформуа где можно собирать, обучать и масштабировать агентов под ваши задачи.
Внутри уже есть всё: инструменты, плагины, API и поддержка обучения с подкреплением - без сторонних библиотек.

OpenEnv позволяет создавать системы, где агенты взаимодействуют, распределяют задачи и выполняют их самостоятельно.
Платформа полностью открыта и готова к использованию без ограничений.
HF

✔️ Qwen3-Max вышла в лидеры среди AI-трейдеров

На криптобенчмарке AlphaArena модели ИИ торгуют по $10 000 на площадке Hyperliquid, чтобы проверить качество торговых стратегий.
После старта, где лидировала DeepSeek V3.1, а GPT-5 показывала убыток около −39 %, Qwen3-Max обошла всех и заняла первое место.

Все участники - Qwen3-Max, DeepSeek V3.1, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4 и GPT-5 — торгуют в одинаковых условиях без приватных данных, что делает тест прозрачным.
На Polymarket оценивают шансы Qwen3-Max удержать лидерство в 45 %.

Организаторы планируют расширить эксперимент на акции и другие активы и запустить инвестплатформу для AI-агентов.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
179👍62🔥17🌚5🤗3👀2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ LongCat-Video 13.6И - мощная open-source модель для генерации видео.

Модель поддерживает:

- Текст в видео (Text-to-Video)
- Оживлять картинку (Image-to-Video)
- Продолжать существующее видео (Video Continuation)

Всё в одном фреймворке, без переключения между разными моделями.

🎬 Главное преимущество модели - способность генерировать длинные видео (минуты) без потери качества и цветового дрейфа, что до сих пор остаётся слабым местом большинства аналогов.

Еще из интересного, модель позволяет создавать видео в разрешении 720p при 30 кадрах/с.

🏆 LongCat-Video конкурирует с лучшими open-source решениями и даже некоторыми коммерческими моделями, особенно в согласованности текста и изображения.

Самое приятное - полный open-source под лицензией MIT, можно использовать как в исследованиях, так и в коммерческих проектах.

GitHub: https://github.com/meituan-longcat/LongCat-Video
Hugging Face: https://huggingface.co/meituan-longcat/LongCat-Video
Сайт проекта: https://meituan-longcat.github.io/LongCat-Video/

@ai_machinelearning_big_data


#LongCatVideo #TextToVideo #ImageToVideo #VideoContinuation #OpenSource #AI #GenerativeAI #VideoGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6232🔥14😇4❤‍🔥2🤗2💔1
✔️ Подборка полезных бесплатных курсов и гайдов на выходные.

🖥 Microsoft представила свежий цикл лекций по Python и и ИИ.

Содержание: Курс включает 9 лекций, дополненных видео, подробными презентациями и примерами кода. Цикла - обучение разработке ИИ-агентов доступен написан понятно, даже для новичков в программирование.
Темы: В лекциях рассматриваются такие темы, такие как RAG (Retrieval-Augmented Generation), эмбеддинги, агенты и протокол MCP.
👉 Курс

💡Гарвардский курс по машинному обучению

Культовый трек CS 249 превратили в интерактивный учебник - и это, пожалуй, один из лучших стартов для инженеров, которые хотят делать реальные ML-системы, а не просто играться с моделями.

• Вся база по ML: объясняют фундамент с нуля, нужно только знание Python
• Проектирование систем и инженерия данных
• Подготовка датасетов, MLOps и мониторинг
• Развёртывание ИИ в IoT и продакшене

Это практический курс: не о формулах, а о том, как внедрять ML так, чтобы он приносил бизнесу прибыль.
Если хочешь понять, как модели живут в проде - идеальный вариант для старта.
👉Курс

🖥 Создай своего Bash-агента с NVIDIA Nemotron за 1 час

NVIDIA показала, как собрать AI-агента, который понимает твои запросы на естественном языке и сам выполняет команды Bash.
В основе модель Nemotron Nano 9B v2: компактная, быстрая, идеально подходит для локального эксперимента.

Агент умеет:
- распознавать команды на естественном языке («создай папку», «покажи файлы»),
- превращать эти команды в рабочие Bash-срипты
- спрашивать подтверждение перед выполнением.

Весь код занимает ~200 строк Python, работает через FastAPI и LangGraph.
Можно расширить под DevOps, Git-операции, анализ логов или управление сервером.
👉Гайд

⚡️ Kaggle Learn: интерактивные мини-курсы по Python, Data Science и машинному обучению.
Полностью бесплатно и максимально практично.


Что внутри:
• Python, Pandas, визуализация
• Основы машинного обучения и фичеринжиниринг
• Подготовка данных и работа с моделями

Практика без лишней теории учишься и сразу применяешь.
👉Курс

🖥 Гайд по шардингу баз данных от PlanetScale

Вы узнаете, как масштабировать базы данных через шардинг - разбиение данных по серверам для роста производительности и отказоустойчивости.

Главное:
• Шардинг нужен, когда одна база больше не справляется с нагрузкой.
• Есть два популярных подхода — по диапазону (range) и по хешу (hash).
• Важно выбрать стабильный ключ (например, user_id) и избегать кросс-шардовых запросов.
• Прокси-слой немного увеличивает задержку, но даёт масштабируемость.

Отличный материал, если хочешь понять, как строят системы уровня YouTube. А здесь много базы по SQL
Читать

🧠 60 готовых проектов по генеративному ИИ

Список из 60 проектов на GitHub с открытым кодом по генеративному ИИ 0от текстовых моделей до аудио и видео.

Каждый проект - с описанием и ссылкой на репозиторий. Можно выбрать идею, запустить локально и собрать своё AI-портфолио.
👉 Github

👉 Еще больше полезного.

@ai_machinelearning_big_data

#AI #MachineLearning #DataScience #ML #ИИ #freecourses
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍9442🔥18🗿4💋1
Media is too big
VIEW IN TELEGRAM
✔️ Роль Wikipedia в интернете изменилась.

Википедия стремительно теряет аудиторию, но получает всё больше автоматических обращений со стороны ИИ-систем, которые берут оттуда данные напрямую, не отправляя пользователей на страницы.

Wikipedia становится не столько источником контента, сколько платформой для проверки фактов. Уже сегодня она применяет собственные ИИ-инструменты, которые автоматически отслеживают подозрительные правки, например, попытки вставить ложную информацию, оскорбления или спам. Система не публикует изменения сама, но помогает редакторам быстрее их находить и проверять.

Поскольку проект не может продавать данные напрямую, как Reddit, Wikipedia запустила платные подписки на мгновенный доступ к обновлениям, и среди клиентов уже есть Google.
Ежегодное содержание платформы обходится примерно в 178 миллионов долларов, большая часть которых уходит на серверы и инфраструктуру.
ft

✔️ Китайский стартап Noetix Robotics представил своего первого потребительского робота под названием Bumi, ориентированный на работу по дому и образовательное применение.

Робот стоит всего 9 988 юаней (~1 402 доллара США), его рост - 94 см, вес - 12 кг.

Робот снабжён 21 степенью свободы, способен ходить на двух ногах и выполнять гибкие танцевальные движения. Он построен из лёгких композитных материалов, поднимает голосовые команды взаимодействие, а так же у него есть своя среда разработки, для которой можно писать код .
scmp

✔️NVIDIA представила Audio Flamingo 3: новую мультимодальную модель, которая умеет понимать и анализировать звук, речь и музыку.

Модель сочетает несколько технологий: аудиокодер AF-Whisper, адаптер, языковую модель Qwen 2.5 7B и модуль генерации речи. Такой стек позволяет ей работать с длинными звуковыми записями (до 10 минут), распознавать речь, понимать контекст и вести многотуровые голосовые диалоги.

Audio Flamingo 3 обучена на множестве аудио-датасетов и уже показывает высокие результаты на 20 бенчмарках по звуковому пониманию и рассуждению.
Модель распространяется для исследовательских целей и интегрирована в экосистему NVIDIA с поддержкой PyTorch и Hugging Face Transformers.
HF

✔️ Kuaishou Technology представила новую генеративную модель SVG - это Latent Diffusion без классического блока VAE.

Вместо вариационного автоэнкодера модель использует самообучающиеся представления, которые позволяют модели работать быстрее и точнее.

Результат впечатляющий: обучение идёт в 62 раза быстрее, а инференс - в 35 раз. При этом качество изображений не только не падает, но и становится лучше. Отказ от VAE устранил искажения при переходе в латентное пространство и повысил стабильность при генерации картинок высокого разрешения.

SVG можно рассматривать как новую архитектуру для диффузионных моделей, более простую, быструю и энергоэффективную альтернативу привычным решениям с VAE.
Hf

✔️Акции энергетических компаний, выросшие на ожиданиях ИИ-бума, резко упали - сектор потерял около 12% за пять торговых сессий к середине октября, что стало самым сильным падением с февраля.

Сильнее всего пострадали Oklo (минус 30%) и Vistra (минус 12%). Поводом стали осторожные сигналы с рынка: исследования показали, что некоторые модели ИИ могут работать с меньшими вычислительными затратами, GE Vernova намекнула на охлаждение инвестиций, а инвесторы вновь обратили внимание на отсутствие выручки у Oklo.

После бурного роста в начале октября: Oklo выросла почти в восемь раз, Constellation прибавила более 80% - сектор оказался слишком чувствительным к любым сомнениям в темпах спроса.

При этом фон не полностью негативный: власти США ускоряют подключение дата-центров к электросетям, а Oracle готовится к масштабному размещению облигаций для займов на строительства новых центров обработки данных.
bloomberg

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
149👍20🥰3😁2🔥1💔1🤝1🤗1🦄1
🤖 MiniMax-M2: новая MoE-модель серии MiniMax

MiniMax-M2 переосмысливает эффективность: это 230 млрд параметров (из них активно только 10 млрд) - мощная, быстрая и экономичная модель, которая сочетает интеллект уровня топовых LLM с оптимизацией под агентные применения и программирование.

🔹 Основные особенности

🧠 Интеллект мирового уровня.
По данным *Artificial Analysis*, MiniMax-M2 демонстрирует отличные результаты в математике, науке, программировании, следовании инструкциям и использовании инструментов.
Модель занимает #1 место среди всех open-source моделей по суммарному индексу интеллекта.

💻 Кодинг
Разработана для полного цикла разработкт - от файловых правок до тестировании кода и его автокоррекции.

Модель показывает отличные результаты на Terminal-Bench и (Multi-)SWE-Bench, что делает её эффективной в IDE, терминалах и CI-системах.

🧩 Агентные возможности.
MiniMax-M2 умеет планировать и выполнять сложные цепочки действий через shell, браузер, retrieval и code runners.
В тестах BrowseComp уверенно находит труднодоступные источники и восстанавливается после сбоев, не теряя цепочку рассуждений.

MiniMax M2 построена по принципу GPT-OSS и использует сочетание Full Attention и Sliding Window Attention (SWA). Это помогает эффективно работать с длинным контекстом - часть модели анализирует всё сразу, другая концентрируется на ближайших фрагментах текста.

Каждая attention-голова имеет собственный RMSNorm, а блоки Full Attention и SWA используют разные RoPE-параметры, это повышает гибкость и устойчивость модели.

MiniMax-M2 - это новый стандарт эффективности для AGI-агентов и кодинга: умнее, быстрее и дешевле, чем аналоги.

https://huggingface.co/MiniMaxAI/MiniMax-M2

@ai_machinelearning_big_data


#AI #MiniMax #LLM #ArtificialIntelligence #Benchmarks
🔥4923👍10🤗5
В России растет тренд на использование нейросетей в облачной инфраструктуре

Компании перестали опасаться ИИ в облаках и всё чаще используют их в своих корпоративных процессах. Облачные платформы предлагают готовые инструменты для адаптации моделей под задачи компании, для создания ИИ-ассистентов и агентских систем, они также предлагают более выгодную и прогнозируемую экономику внедрения.

Пример: в Yandex AI Studio с начала 2025 года спрос на генеративные модели вырос в 5 раз, каждый месяц на платформе потребляют десятки миллиардов токенов. На ней активно используются как собственные модели YandexGPT, так и опенсорсные решения вроде Qwen3-235b, применяемые для агентских сценариев и генерации кода.


При этом опенсорс-модель от AliBaba уже на втором месте по потреблению после YandexGPT.

@ai_machinelearning_big_data

#AI #ML #GenerativeAI
👍34🤣1510🔥2🥰2🤬2🌭2😁1🌚1🤝1🦄1