331K subscribers
4.16K photos
762 videos
17 files
4.68K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🧩 Новая архитектура нейросетей от Samsung: Tiny Recursive Model (TRM) - обошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini в задачах рассуждения ARC-AGI 1 и ARC-AGI 2.

✔️ Размер модели - всего 7 миллионов параметров и около 1000 обучающих примеров.

Это меньше в 10 000 раз, чем у современных LLM, но результат лучше.

Как работает TRM:

1️⃣ Черновой ответ: модель сразу формирует быстрый набросок решения, а не пишет его по словам.
2️⃣ Скрачпад: создаёт внутреннее пространство для логики и промежуточных рассуждений.
3️⃣ Самокритика: многократно (6 раз) проверяет свои рассуждения, уточняя и исправляя ошибки.
4️⃣ Переписывание: на основе улучшённой логики создаёт новую, более точную версию ответа.
5️⃣ Цикличность: повторяет процесс до 16 раз, пока не достигнет уверенного, логически цельного решения.

💡 Чем интересна модель:

- Меньше затрат на вычисления, а результат выше; высокая эффективность при низких издержках.
- Доказательство того, что собственная логика и архитектура могут быть сильнее простого размера модели. Можно коротко описать ее: «думай, прежде чем действовать».
- Мощные рассуждающие системы становятся доступными даже без огромных кластеров, модель можно запускать на ограниченных ресурсах.

Это не просто «компактаная LLM», это другой способ мышления: модель, которая действительно *думает, прежде чем говорить*.

🟠Статья: https://arxiv.org/abs/2510.04871v1
🟠Github: https://github.com/SamsungSAILMontreal/TinyRecursiveModels

@ai_machinelearning_big_data

#TinyRecursiveModels #TRM #DeepLearning #NeuralNetworks
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍310171🔥140👏113🥰105🎉85🤔77🤩18🤣7💯5🤷‍♂2
📘 На Stepik вышел курс — «ML-инженер: от первой модели до продакшена»

Хотите не просто натренировать модель в ноутбуке, а довести её до реального продукта? Этот курс — полный путь от основ до production.

• Математика и Python: линейная алгебра, статистика, NumPy, Pandas, визуализация (Matplotlib, Seaborn, Plotly)

• Классика ML: регрессия, KNN, деревья решений, Random Forest, SVM, Naive Bayes

• Ансамбли: XGBoost, LightGBM, CatBoost, подбор параметров (Optuna, Hyperopt), MLflow

• Deep Learning: PyTorch и TensorFlow/Keras, CNN, RNN/LSTM, Attention, Transfer Learning

• Работа с данными: парсинг (BeautifulSoup, Scrapy), SQL/API, feature engineering

• Продвинутые задачи: рекомендательные системы, временные ряды (ARIMA, Prophet), SHAP и LIME

• MLOps: FastAPI, Docker, деплой в облако, мониторинг моделей

• Подготовка к собеседованиям: технические вопросы, системный дизайн, SQL, портфолио

🎓 Сертификат — добавьте в резюме или LinkedIn

🚀 Скидка 25%, действует 48 часов

👉 Пройти курс на Stepik
🤩106👍3821🥱21🎉16👌9👏6🔥4😁4
🚀 Крутая новость в области термоядерной энергии

Учёные из MIT создали прорывную гибридную модель - сочетание искусственного интеллекта + физики, которая прогнозирует поведение плазмы в термоядерных реакторах и делает будущие функционирующие установки более надёжными.

🔥 Особо важный момент: модель умеет предсказывать, как ведёт себя сверхгорячая плазма во время остановки (выключения/снижения мощности), это один из самых опасных моментов работы реактора, когда могут происходить разрушительные возмущения.

В отличие от обычных ИИ-моделей, эта требует гораздо меньше тренировочных данных, но остаётся очень точной.

Учёные также разработали алгоритм, который превращает прогнозы модели в конкретные инструкции по управлению плазмой: например, как менять силу магнитов или температуру, чтобы плазма оставалась стабильной и безопасно “загасла”.

🟢 Новость: https://news.mit.edu/2025/new-prediction-model-could-improve-reliability-fusion-power-plants-1007

@ai_machinelearning_big_data

#mit #science
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥135👍52🎉22👏2018🤩11😨5🤬2💘1
✔️ Ling-1T - новая модель от inclusionAI с 1 триллионом параметров

Модель на 1 трлн, из них ≈ 50 млрд активны на токен (MoE-архитектура).

Она обучена на 20 трлн+ токенов, специально отобранных для задач логического мышления и рассуждений. Контекст: 128 000 токенов.

Построена на базе Evo-CoT (Evolutionary Chain of Thought) и Linguistics-Unit RL - нового метода обучения для масштабируемых рассуждений. При помощи Evo-CoT модель постепенно улучшает баланс между точностью рассуждений и вычислительной эффективностью. То есть с каждым шагом она пытается делать рассуждения «глубже», но не слишком дорого по ресурсам.

Моделька демонстрирует сильные результаты в задачах кода, математики, логики и фронтенд-генерации.

В архитектуре задействованы Mixture-of-Experts (1/32 активация), MTP слои и маршрутизация экспертов.

Ling-1T показывает, что огромные модели можно сделать не только мощными, но и экономичными.

https://huggingface.co/inclusionAI/Ling-1T

@ai_machinelearning_big_data

#Ling1T #AI #ML #OpenSource #Reasoning #TrillionScale #FP8
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍489🔥133131🤔111👏88💯64😁60🥰53😐16😢12🤩9
✔️Google превращает Gemini AI в TikTok - и инвесторы в восторге

Google готовит полный редизайн Gemini AI: вместо обычного чата появится вертикальная лента, где можно листать визуальные ответы, видео и карточки - как в TikTok.
Аналитики считают, что новый формат повысит вовлечённость пользователей и откроет новые каналы дохода - от подписок до встроенной рекламы.
Bank of America называет обновление «ключевым катализатором роста» и прогнозирует дальнейший рост акций Alphabet.

Gemini уже становится центральным продуктом Google в ИИ, а после мультимодальных функций и визуального интерфейса может догнать или даже обойти ChatGPT.
marketwatch

✔️ xAI Илона Маска привлекает $20 млрд в виде акций и долга - крупнейший раунд в истории компании.

Финансирование разделено на $7,5 млрд в акциях и до $12,5 млрд долга, оформленных через специальную структуру (SPV), которая будет использоваться для закупки чипов Nvidia.

Сама Nvidia участвует в раунде, инвестируя до $2 млрд в долевую часть сделки - по сути, поставщик чипов финансирует покупателя своих же процессоров.

xAI укрепляет позиции в гонке за вычислительные мощности, а Nvidia ещё глубже встраивается в экономику будущего ИИ.
reuters

✔️ Учёные создали наночастицы, которые смогли обратить симптомы болезни Альцгеймера у мышей, не воздействуя напрямую на нейроны.

Вместо этого они восстановили работу гематоэнцефалического барьера - защитного фильтра между мозгом и кровеносной системой, который обычно разрушается при нейродегенеративных заболеваниях.

Эти наночастицы представляют собой так называемые «супрамолекулярные лекарства», они не просто доставляют действующее вещество, а сами выполняют терапевтическую функцию. Учёные запрограммировали их так, чтобы они имитировали белок LRP1, отвечающий за выведение токсичных амилоидных бета-пептидов (Aβ) из мозга. Когда наночастицы связываются с этим белком, запускается процесс самоочищения и восстановления барьера.

Эксперименты показали, что уже через один час после введения уровень амилоида в мозге животных снизился на 50–60 %. После трёх доз у 12-месячных мышей (эквивалентно людям около 60 лет) к 18-месячному возрасту (примерно 90 лет у человека) полностью восстановились поведенческие функции и животные снова вели себя как молодые.

Пока метод протестирован только на животных, и для применения на людях потребуются дополнительные исследования безопасности и эффективности.
interesting

✔️ Проблемы у Sora 2: система фильтрации контента даёт сбои

Новая модель Sora 2 от OpenAI столкнулась с ошибками в работе **guardrails - механизмов, отвечающих за блокировку нежелательного контента.

Модель в некоторых случаях пропускает запрещённые или неуместные материалы, а также ошибочно помечает безопасные запросы как нарушения. Это вызывает вопросы к её готовности для широкого коммерческого использования.

OpenAI уже расследует проблему и уточняет, что сбой связан с «непредвиденными взаимодействиями между мультимодальными фильтрами».

Контроль безопасности для генеративных видео-моделей - куда сложнее, чем для текста. И Sora 2 сейчас становится главным испытанием этой технологии.
404

💰 OpenAI, Nvidia и AMD заключили сделки почти на $1 триллион - создавая замкнутый цикл инвестиций

OpenAI выстраивает сеть сделок с ключевыми игроками индустрии - Nvidia, AMD и Oracle - общим объёмом свыше $1 трлн.

Что происходит:
- Nvidia инвестирует $100 млрд в OpenAI и строит 10 ГВт серверов для её инфраструктуры.
- В ответ OpenAI закупает у AMD 6 ГВт GPU и получает право купить до 10 % акций AMD по символической цене.
- Также OpenAI подписала контракт с Oracle на $300 млрд вычислительных мощностей в рамках проекта Stargate, который развернёт ещё 7 ГВт дата-центров в США.
- Посредник CoreWeave удерживает центр системы: контракты с OpenAI на $22,4 млрд и соглашение с Nvidia на $6,3 млрд облачных мощностей до 2032 года.

Компании фактически создают «замкнутую экосистему», где деньги и поставки ходят по кругу - Nvidia финансирует OpenAI, OpenAI закупает у AMD и Oracle, а те - у Nvidia.
bloomberg

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
40👍17🔥7🗿7😁2🤔2💋1💘1
Media is too big
VIEW IN TELEGRAM
Команде Kandinsky нужны именно вы? Сейчас узнаем! 😏

1) Разрабатывать и внедрять техники ускорения инференса.
2) Использовать и дорабатывать существующие ML-компиляторы.
3) Улучшать процессы обучения с помощью исследований.

Если вы трижды ответили «да» — добро пожаловать на One Day Offer, который пройдёт 11 октября.

Зарегистрироваться!
22🙈7👍6🔥3😁2
🌍 State of AI Report 2025 - Главное из отчёта

Ежегодный отчёт State of AI Report - это самый влиятельный обзор тенденций в области искусственного интеллекта, публикуемый с 2018 года инвестором Nathan Benaich и фондом Air Street Capital.

В 2025 году отчёт охватывает 6 направлений: исследования, индустрию, политику, безопасность, опрос практиков и прогнозы.

📊 Ключевые выводы


1. OpenAI удерживает лидерство, но Китай быстро сокращает отрыв. DeepSeek, Qwen и Kimi почти сравнялись в задачах рассуждения и программирования.
2. Год рассуждения — модели научились планировать, самоисправляться и мыслить пошагово.
3. ИИ стал научным соавтором, примеры: Co-Scientist от DeepMind и Virtual Lab от Stanford.
4. Chain-of-Action планирование — роботы теперь рассуждают перед действием (Google Gemini Robotics 1.5, AI2 Molmo-Act).
5. Коммерциализация ускорилась:
- 44 % компаний в США платят за ИИ-инструменты (в 2023 г. - 5 %)
- Средний контракт - $530 000
- Стартапы с ИИ растут в 1.5× быстрее обычных
6. Опрос 1200 специалистов:
- 95 % используют ИИ дома или на работе
- 76 % платят за него из собственного кармана
- Большинство отмечают устойчивый рост продуктивности
7. Началась индустриальная эра ИИ - мегадата-центры (Stargate, фонды США, ОАЭ, Китая). Энергия становится новым лимитирующим фактором.
8. Политика ИИ ужесточилась:
- США делают ставку на *America-first AI*
- Европейский AI Act буксует
- Китай развивает открытые модели и собственные чипы
9. Безопасность переходит к прагматизму:
- Модели имитируют выравнивание (alignment), усиливая дискуссию о прозрачности
- Бюджеты safety-организаций несопоставимы с расходами лидеров
10. Риски экзистенции сменились фокусом на надёжность, киберустойчивость и долгосрочное управление автономными системами.

🔮 Прогнозы авторов

- Рост затрат на обучение сверхмоделей → дефицит энергии и GPU
- Конкуренция между OpenAI, DeepSeek, Anthropic и Google усилится
- Frontier-модели будут тренироваться в многоэтапных средах с постоянной самопроверкой
- Всё больше экспериментов с «живыми агентами» в физическом мире
- Усиление регулирования и новые требования к прозрачности reasoning-цепочек

📘 Полный отчёт доступен здесь: https://www.stateof.ai/

@data_analysis_ml
34👍15🥰6
AI21 представила Jamba 3B - компактную модель, которая обошла Qwen 3 4B и IBM Granite 4 Micro по качеству рассуждений.

Более высокая эффективность, в сравнении с AI21 - 2–5× улучшение в производительности по сравнению с конкурентами за счёт меньшего KV-кэша и гибридной архитектуры.

Секрет в архитектуре:
🔹 сочетание Transformer attention и Mamba state-space слоёв.
🔹 Mamba-часть эффективно обрабатывает длинные последовательности без тяжёлых attention-кэшей,
🔹 а Transformer-слои сохраняют способность к сложным рассуждениям.

Результат, модель кушает меньше памяти, выдает высокую скорость и плавно работает даже на ноутбуках, GPU и мобильных устройствах.

📏 Контекст: до 256K токенов.
Скорость: около 40 токенов/сек даже на длинных контекстах, тогда как другие модели резко замедляются.

На графике “интеллект против скорости” Jamba 3B опережает Gemma 3 4B, Llama 3.2 3B и Granite 4.0 Micro, демонстрируя высший интеллект и более быструю генерацию.

🟢Подробнее: huggingface.co/ai21labs/AI21-Jamba-Reasoning-3B

@ai_machinelearning_big_data


#AI #LLM #Jamba3B #AI21 #Mamba #Transformer #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
31🔥18👍9🤔4💘1
Media is too big
VIEW IN TELEGRAM
🖥 Глава Nvidia Дженсен Хуанг объяснил, почему инвестировал $2 млрд в компанию Илона Маска xAI - и сделал это с редкой откровенностью:

«Единственное, о чём я жалею, что не дал ему больше денег.
Когда речь идёт о проектах, в которых участвует Илон, ты хочешь быть частью этого. Он дал нам шанс инвестировать в xAI и это инвестиция в действительно великое будущее. Это не просто партнёрское финансирование, это вера в идею».


Крупнейшие компании Amazon, Microsoft и Google - управляют бизнесом на несколько триллионов долларов и тратят около сотни миллиадров на инфраструктуру дата-центров.

Но сейчас происходит тектонический сдвиг:
💡 переход от CPU-систем к генеративным AI-платформам на GPU, и этот переход только начинается.

Nvidia уже продала оборудования на сотни миллиардов долларов для этой новой эры,
но на фоне многотриллионного рынка AI-инфраструктуры и это тольео начало пути.

Мир вступает в долгосрочный цикл экспансии инвестиций в ИИ,

Nvidia - в самом центре этого колоссального рынка. 🚀

@ai_machinelearning_big_data


#Nvidia #xAI #ElonMusk #JensenHuang #AI #инвестиции #технологии #GPU
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1613😁6🥱4🐳1💘1