360K subscribers
4.29K photos
799 videos
17 files
4.76K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ Glyph: масштабирование контекста через визуально-текстовую компрессию

В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.

Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.

Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.

При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.

При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.

Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.

📄 Подробности: arxiv.org/abs/2510.17800

🧩 Веса: huggingface.co/zai-org/Glyph

👉 Репозиторий: github.com/thu-coai/Glyph

@ai_machinelearning_big_data


#AI #LLM #Multimodal #Research #DeepLearning
👍76🔥2818😨10
🧠 Thinking Machines представила - On-Policy Distillation

Исследователи из Thinking Machines Lab предложили метод, который может изменить то, как обучаются языковые модели. Он называется on-policy distillation - и учит ИИ не просто копировать, а думать и анализировать свои ошибки.

Обычно «дистилляция» работает просто: большая модель-учитель показывает ответы, а маленькая модель-ученик запоминает их. Это похоже на заучивание по шпаргалке - быстро, но без понимания сути.

В новом подходе всё иначе. Ученик сам решает задачи, а учитель оценивает и направляет - объясняет, где логика сбоит и как улучшить рассуждение. Таким образом, меньшая модель перенимает не только знания, но и способ мышления более крупной модели.

Что показали результаты

Эксперименты проводились на задачах математического и логического рассуждения, где важно не просто выдать правильный ответ, а выстроить цепочку шагов.

Результаты впечатляют:

Модель-ученик после обучения с on-policy distillation показала почти ту же точность, что и гораздо более крупная модель-учитель.

При этом вычислительные затраты снизились в несколько раз, делая модель заметно эффективнее и дешевле.

Кроме того, ученик стал лучше понимать собственные ошибки, что повысило устойчивость и надёжность при решении новых, незнакомых задач.

Почему это важно
On-policy distillation решает ключевую проблему традиционных методов - отсутствие адаптивности.
Модель теперь учится на собственных шагах, как человек, — экспериментирует, ошибается, корректирует поведение и растёт.

Уникальность подхода - в балансе между качеством RL и экономичностью KD. Это реальная схема, где маленькая модель учится “в поле” (реагируя на собственные действия), но без дорогих RL-запусков и сложных reward-моделей.

Это не новый метод обучения, а новая инженерная формула, которая позволяет дешевле «учить» компактные модели, ведущие себя как большие.

Это открывает путь к созданию компактных LLM нового поколения, которые рассуждают почти как топовые модели, но стоят в разы дешевле.

Такие модели можно запускать на edge-устройствах, в автономных агентах и локальных сервисах, где важны скорость, приватность и энергоэффективность.

🟠 Подробнее: thinkingmachines.ai/blog/on-policy-distillation/

@ai_machinelearning_big_data


#ThinkingMachines #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9746👍19👏2😁2🤗2
Media is too big
VIEW IN TELEGRAM
✔️ NVIDIA H100 полетит в космос - первый орбитальный ИИ-дата-центр стартует в ноябре

В ноябре 2025 года спутник Starcloud-1 с GPU NVIDIA H100 отправится на орбиту на ракете Falcon 9. Это будет самый мощный графический процессор, когда-либо запущенный в космос — производительностью в 100 раз выше, чем у любых предыдущих чипов.

Стартап Starcloud строит первый в мире космический дата-центр на базе ИИ. Спутник будет питаться от солнечной панели площадью 4×4 км.

Проект обещает сократить выбросы CO₂ в 10 раз по сравнению с земными дата-центрами, открывая путь к «чистому» облаку за пределами Земли.

На борту запустят модель Gemma от Google -первый эксперимент по обучению и инференсу больших языковых моделей в космосе.
В будущем - GPU-спутники с архитектурой Blackwell и десятикратным приростом мощности.

✔️ Спустя 10 лет после появления собственных чипов Tensor Processing Unit (TPU), Google наконец вышла на пик спроса в эпоху взрывного роста генеративного ИИ.

По данным Bloomberg, TPU стали ключевым элементом облачной инфраструктуры компании, обеспечивая высокий спрос со стороны клиентов, обучающих крупные языковые модели.

Одним из крупнейших партнёров стала Anthropic, которая расширяет использование TPU для обучения моделей Claude. Новый контракт оценивается в десятки миллиардов долларов и предусматривает доступ к более чем миллиону TPU и мощности свыше 1 гигаватта начиная с 2026 года.

Рынок ИИ-чипов долгое время контролировала NVIDIA, но теперь Google превращает свои TPU из внутреннего инструмента в полноценный коммерческий продукт, предлагая сопоставимую производительность при более низкой стоимости. Это усиливает позиции Google Cloud в борьбе за инфраструктуру будущего и делает TPU реальной альтернативой доминированию NVIDIA.
bloomberg

✔️ Alibaba научила языковые модели рассуждать с помощью кода

Исследователи Alibaba представили метод CoRT (Code-Optimized Reasoning Training), который учит большие языковые модели использовать Python осознанно и эффективно. Модель теперь понимает, когда нужно вызвать код, чтобы вычислить результат, а когда можно просто довериться уже полученному ответу, избегая ненужных шагов.

Ключевая идея - Hint-Engineering: в процессе обучения в рассуждения модели вставляются подсказки вроде «Давай используем Python здесь» или «Проверка не требуется». Это помогает ИИ выстраивать оптимальный ход рассуждения и выбирать момент для вычислений.

Результаты впечатляют. Точность в задачах математического рассуждения выросла на 8 %, при этом использование токенов снизилось на 30–50 %. Даже модели с 1,5 миллиарда параметров теперь сопоставимы по качеству с системами, имеющими встроенную интеграцию инструментов. Более того, модель смогла самостоятельно обнаружить библиотеку RDKit и решить задачи по химии, которых не было в обучающих данных.

Метод CoRT делает шаг к новому поколению языковых моделей, которые не просто формулируют ответы, а умеют думать, вычислять и проверять себя, действуя как настоящий исследователь.
Paper

✔️ Новое исследование Nature показало, что современные медицинские ИИ-системы стали точнее, но потеряли чувство осторожности. За последние три года они почти перестали предупреждать пользователей, что не являются врачами.

С 2022 по 2025 год доля ответов с дисклеймерами упала с 26,3 % до 0,97 % у языковых моделей и с 19,6 % до 1,05 % у систем, анализирующих медицинские изображения. То есть ИИ, став умнее, перестал напоминать о своих ограничениях.

Учёные протестировали 1 500 медицинских изображений и 500 пациентских запросов. Оказалось, чем точнее модель ставит диагноз, тем реже она предупреждает о рисках. Это опасно: люди склонны доверять уверенным ответам ИИ, особенно если тот звучит естественно и авторитетно.

Интересно, что модели Google Gemini чаще сохраняли предостережения, а вот DeepSeek не выдавал их вовсе. Дисклеймеры ещё встречаются в вопросах о психическом здоровье, но почти исчезли в ответах, связанных с лекарствами и анализами.
nature

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
66🔥14🦄8👍3👏3🤗3🥰2🗿2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Исследователи из Пекинской академии ИИ (BAAI) показали видео, в котором их робот Unitree G1, весом 35 кг тянет Ладу Весту машину весом 1400 кг.

На рыбалке больше не застрянем!

@ai_machinelearning_big_data

#ai #Unitree #robots
62😁38👍27🔥17🥱3🤩2
💰 Microsoft объявила, что достигла соглашения с OpenAI по поводу своей доли владения.

Основные детали:
• Microsoft теперь владеет 27% акций OpenAI, что оценивается в 135 млрд долларов.
• OpenAI обязалась закупить услуг Azure на сумму 250 млрд долларов.

До тех пор, пока OpenAI официально не объявит о создании AGI, Microsoft остаётся её эксклюзивным облачным и API-партнёром с полными правами на текущие модели и интеграции.

После того как AGI будет подтверждён независимой комиссией, эксклюзивность прекращается, однако Microsoft сохранит права собственности и использования всех технологий, разработанных до появления AGI.

https://openai.com/index/next-chapter-of-microsoft-openai-partnership/

@ai_machinelearning_big_data


#OpenAI #Microsoft #agi #llm
57👍27👀22😁12🔥8😐7🦄5👻3😨3🤔1👨‍💻1
✔️ Apple достигли отметку в 4 триллиона долларов рыночной капитализации, присоединившись к Nvidia и Microsoft в эксклюзивном клубе крупнейших публичных компаний.

Рост стоимости акций Apple за последние шесть месяцев составил около 28%. Этому способствовал сильный спрос на iPhone 17, который превзошёл ожидания и развеял опасения, что компания отстаёт в гонке ИИ. Однако главным фактором стал бизнес сервисов - в него входят App Store, iCloud, Apple Music, Apple TV+, AppleCare, реклама и платёжные сервисы. По прогнозам аналитиков, выручка от сервисов впервые может превысить 100 миллиардов долларов в год.

Если Nvidia и Microsoft пришли к $4T через инвестиции в центры обработки данных и ИИ-инфраструктуру, то Apple опирается на растущую базу покупателей их устройств и растущую выручку от подписок и экосистемы.
ft

✔️ Google представила Pomelli - экспериментальный AI-инструмент для маркетинга

Компания запустила Pomelli, новый генеративный сервис, который помогает брендам быстро создавать масштабируемый контент в едином стиле.

Достаточно ввести адрес сайта и Pomelli анализирует фирменный стиль, тон и продукт, чтобы автоматически собрать кампании, тексты и визуалы, соответствующие вашему бренду.

Инструмент нацелен на ускорение маркетинга без потери уникальности бренда и уже доступен в США, Канаде, Австралии и Новой Зеландии и потихоньку раскатывается на другие регионы.
labs

✔️ Cвежий отчёт “Accountable Acceleration: Gen AI Fast-Tracks Into the Enterprise”, показывающий, как генеративный ИИ за год превратился в основу корпоративных процессов.

82% компаний уже используют Gen AI хотя бы раз в неделю, почти половина - ежедневно.
При этом 89% считают, что ИИ усиливает возможности работников, а не заменяет их.

72% организаций измеряют отдачу от Gen AI с помощью ROI-метрик, фокусируясь на росте производительности и прибыли.
61% уже имеют или планируют ввести должность Chief AI Officer, это знак того, что ИИ переходит на уровень корпоративного управления.

88% компаний увеличат бюджеты на ИИ в ближайший год, а 62% планируют рост инвестиций минимум на 10%.
wharton

✔️ Liquid AI представила LFM2-ColBERT-350M: компактную retrieval-модель на 350M параметров, которая уверенно работает в мультиязычной среде.

Она позволяет хранить документы на одном языке и точно находить их на других - с высокой скоростью и качеством, сравнимым с куда более крупными моделями.

Лучшая модель в классе до 500M параметров

Превосходит большие модели на немецком, арабском, корейском, испанском, португальском, итальянском, французском и японском

В английском показывает такой же уровень, как и значительно более тяжёлые модели

Обрабатывает свыше 1000 документов в секунду и легко масштабируется
HF

✔️ Nvidia представила крупное обновление своей открытой экосистемы, добавив десятки моделей и датасетов.

В языковом направлении вышли Nemotron Nano 3 - компактная MoE-модель для генерации и рассуждений, Nemotron Nano 2 VL для анализа документов и мультимедиа, Nemotron Parse для извлечения структурированных данных, а также Nemotron Safety Guard — инструмент модерации мультиязычного контента.

Для робототехники и физического моделирования представлены Cosmos Predict 2.5, Cosmos Transfer 2.5, Cosmos Reason и Isaac GR00T N1.6, а в биомедицине — Clara CodonFM, Clara La-Proteina и Clara Reason, помогающие в анализе РНК и 3D-структур белков.

Всего NVIDIA уже опубликовали более 650 моделей и 250 датасетов.
nvidia

✔️ Amazon готовит крупнейшее сокращение с 2022 года: около 10% офисных сотрудников

Компания планирует уволить почти 10% из примерно 350 000 корпоративных работников, что станет самым масштабным сокращением с конца 2022 года, когда было ликвидировано около 27 000 позиций.

Генеральный директор Энди Джасси ранее отмечал, что рост использования ИИ приведёт к дальнейшему снижению числа рабочих мест, особенно там, где процессы можно автоматизировать и упростить.

ИИ снова становится не только источником роста, но и фактором перестройки рынка труда.

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6037👏11🔥10🤩6😁3🤗2🤷‍♂1
📊 TypeScript впервые обошёл Python и JavaScript в рейтинге GitHub Octoverse 2025

GitHub опубликовал ежегодный отчёт Octoverse, в котором TypeScript занял первое место среди самых популярных языков программирования, впервые вытеснив Python и JavaScript.

После запуска Copilot Free приток новых разработчиков на платформу достиг рекордных 36 млн в год.
Количество ИИ-проектов почти удвоилось.
Индия обогнала Китай и вышла на второе место по числу разработчиков, показав рост на 34%, а Россия вошла в топ-10.
Ежеминутно создаётся более 200 репозиториев, но лишь 63% из них содержат README

Мир разработки меняется - ИИ ускоряет приток новых программистов, а TypeScript становится новым стандартом современного кода:

Подробнее: https://github.blog/news-insights/octoverse/octoverse-a-new-developer-joins-github-every-second-as-ai-leads-typescript-to-1/

@ai_machinelearning_big_data

#github
👍453💯96🤔9275🔥56👏24😐24😁23🎉22👌13🦄4