Анализ данных (Data analysis)
46.9K subscribers
2.53K photos
293 videos
1 file
2.21K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🚀 Улучшение промптов для генерации изображений

PromptEnhancer — это утилита для переписывания подсказок, которая сохраняет исходный замысел и делает его более ясным и логичным. Подходит для задач генерации изображений и других приложений, требующих структурированных запросов.

🚀 Основные моменты:
- Сохраняет ключевые элементы запроса (субъект, действие, стиль и т.д.)
- Создает последовательные и логически структурированные подсказки
- Поддерживает настраиваемые параметры вывода для разнообразия и детерминизма
- Обеспечивает надежный парсинг выходных данных с возможностью резервного копирования

📌 GitHub: https://github.com/Hunyuan-PromptEnhancer/PromptEnhancer

#python
6👍3🔥2
NVFP4 - новый формат, который обучает 12B Mamba Transformer в 4 бита без потери точности

Исследователи представили NVFP4 - способ хранить числа в 4 битах вместо 8 или 16, почти без потери качества обучения.
Главная идея - умное блочное квантование:

- Все значения делятся на блоки по 16 чисел.
- Каждый блок имеет свой локальный scale (8 бит).
- Весь тензор получает глобальный scale (32 бита).

Так сохраняется высокая точность локальных значений и не теряются экстремально большие или маленькие числа.

📊 Результаты:
- Обучение 12B Mamba Transformer на 10T токенов в 4 битах показало точность, сопоставимую с FP8.
- Вычисления стали в 2–3 раза быстрее, а использование памяти снизилось на 50%.
- Потеря точности не превышает 1–1.5% по метрикам.
- MMLU Pro: 62.58% (NVFP4) против 62.62% (FP8).
- MBPP+: 55.91% против 59.11%.
- Градиенты используют стохастическое округление, чтобы избежать накопления ошибок.
- По сравнению с MXFP4, NVFP4 требует на 36% меньше данных для того же уровня потерь.

На поздних этапах обучения переход на BF16 почти устраняет разрыв в качестве.
NVFP4 уже поддерживается в Transformer Engine и на Blackwell GPU, включая все нужные режимы округления.

📄 Исследование: https://arxiv.org/abs/2509.25149
11👍4🔥3
Forwarded from Machinelearning
⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers.

Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.

Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.

📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.

Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.

🧠 Что изменилось под капотом:

- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).

- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.

⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.

- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.

- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.

Mamba-3 - это не просто ускоренная альтернатива Transformers.

Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.

🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj

@ai_machinelearning_big_data


#ssm #mamba3 #llm,#architecture #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍7
⚡️ Samsung идёт на риск, чтобы вернуть лидерство в гонке AI-памяти - ставка на сверхбыструю HBM4

Samsung решила изменить правила игры на рынке чипов и убедить Nvidia повысить официальную скорость HBM4, даже несмотря на то, что конкуренты: SK Hynix и Micron - раньше показали первые образцы.

Обычно разработчики HBM (High Bandwidth Memory) делают акцент на контроле температуры, ведь многослойная DRAM быстро нагревается. Но теперь Nvidia потребовала большего - выше частоты, выше скорость.

Для Hynix и Micron это стало неожиданностью: их решения оптимизированы под стабильность, а не под разгон.

А вот Samsung оказалась готова. Её HBM4-чипы уже достигли более высоких частот на тестах - благодаря технологическому преимуществу:
- DRAM-чипы производятся по 1c-процессу (6-е поколение 10 нм),
- базовый логический кристалл - на 4-нм техпроцессе Samsung Foundry.
Для сравнения:
- SK Hynix использует 12-нм процесс TSMC,
- Micron - старый DRAM-процесс.

Более продвинутая литография даёт Samsung лучший контроль над энергопотреблением и сигналами.

Компания уже ускоряет производство и планирует вывести HBM4 на рынок в 2026 году, когда спрос на память для AI-систем резко превысит предложение.
Такой шаг может вернуть Samsung утраченные позиции после неудачи с HBM3E.

Ключевой момент - тесты Nvidia Rubin. Если HBM4 покажет проблемы с нагревом или надёжностью при интеграции, вся стратегия может рухнуть.
Но если всё пройдёт успешно, Samsung сможет опередить Hynix и Micron, снова захватив лидерство в памяти для AI-ускорителей.

Итог: Samsung делает ставку на скорость, технологии и масштаб. Это рискованный, но стратегический шаг, который может определить баланс сил на рынке AI-чипов в ближайшие годы.

🟠Подробности

#Samsung #Nvidia #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4🔥3
🎥 Lynx: Высококачественная генерация персонализированного видео

Lynx — это модель генерации видео, которая создает персонализированные ролики на основе одного изображения. Использует Diffusion Transformer с адаптерами для сохранения идентичности и улучшения деталей.

🚀 Основные моменты:
- Генерация видео с высоким качеством из одного изображения.
- Легковесные модели для эффективного создания видео.
- Поддержка различных адаптеров для улучшения качества.

📌 GitHub: https://github.com/bytedance/lynx

#python
5🔥4👍2
Media is too big
VIEW IN TELEGRAM
🍏Ничего сверхъестественного - просто Gemini 3 Pro за один (!) промпт разворачивает полноценную симуляцию macOS или Windows прямо в браузере.

Всего 900 строк кода - и у вас уже есть рабочий интерфейс с анимациями, меню, браузером и даже терминалом.

Модель справляется с этим за 172 секунды.

Код и демо уже доступны - а инсайдеры шепчут, что официальный релиз выйдет на этой неделе.
Первые тестеры называют Gemini 3 Pro «лучшим ИИ для кодинга на сегодня».

https://codepen.io/ChetasLua/pen/EaPvqVo
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥147😐1
🚀 Новый курс на Stepik: AI Agents PRO

Если вы работаете с ML/DS и хотите перейти от моделей → к готовым продуктам на базе LLM, без понимания агентов уже никуда.

🔹 Что внутри:

Архитектура агентов (FSM, DAG, Supervisor–Worker, Critic–Executor).

Интеграции: API, БД, браузеры, CRM.

Retrieval-Augmented Generation (Qdrant, Weaviate, FAISS).

Надёжность: ретраи, guardrails, работа с PII.

LLMOps: метрики качества, A/B-тесты, дашборды.

Продакшн-деплой: Docker, очереди сообщений, CI/CD.

Итоговый проект: собственный агент под реальный бизнес-кейс.

🎯 По итогу вы сможете строить и выкатывать production-ready AI-агентов, а не просто писать демки в ноутбуках.

🔥 Спец-условия: только по промо AGENTS30-30% на старт (действует 48ч).

👉 Пройти курс со скидкой
4👍3
Goldman Sachs: ИИ съест 20% всей мировой энергии к 2030 году

По прогнозу Goldman Sachs, к 2030 году спрос на электроэнергию со стороны дата-центров вырастет на 25%, а доля ИИ в общем энергопотреблении достигнет 20%.

🔥 Когда-то огонь изменил жизнь человека - с ним началась кулинария, эволюция мозга и социальное развитие.
⚙️ Затем электричество стало топливом индустриальной эпохи, двигая экономику и прогресс.
🤖 Теперь настала очередь искусственного интеллекта: один запрос к ChatGPT потребляет около 2,9 ватта, почти в 10 раз больше, чем обычный поиск Google.

Если ИИ реализует хотя бы часть своего потенциала, то энергия станет главным ограничителем его роста.
И, как отмечает Goldman, это создаёт новую инвестиционную волну — не только в чипы и модели, но и в энергетику.

📊 По оценке McKinsey, к 2030 году потребление электроэнергии дата-центрами в США вырастет с 3–4% до 11–12%, увеличившись с 25 до 80 ГВт.
8🔥3🌚3👍1
ByteDance представила FaceCLIP - новую модель для генерации изображений с сохранением личности

Модель FaceCLIP обучается представлять лицо (Identity) и текстовое описание в едином векторном пространстве, что позволяет создавать изображения, где сохраняется похожесть субъекта и при этом учитывать желаемую стилистику или указания из текста.

Авторы отказались от подходов с адаптерами и предложили унифицированную мультимодальную стратегию кодирования: лицо + текст → общее представление, которое направляет генеративную модель (UNet / DiT) при синтезе.

Преимущества FaceCLIP:
- лучшие результаты в сохранении идентичности на портретах
- более точное соответствие текстовым инструкциям
- высокая реалистичность по сравнению с предыдущими методами
Модель доступна под лицензией MIT / некоммерческое исследовательское использование — с предупреждением об ответственном использовании.

📄 HF: https://huggingface.co/ByteDance/FaceCLIP
16🔥4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Еще один дикий пример работы Gemini 3.0 Pro , модель превращает один длинный промпт в полноценный сайт.

По одному промпту получили интерактивную страницу с эффектами симуляции: сетки под объектами, прогрессивная подгрузка текстур, глюки физики, матричный дождь кода, переключение между видами rendered и source, фоновый шум процессора и финальный мета-момент, где сайт признаёт, что на него смотрят.

Всё укладывается в один HTML-файл и открывается в Chrome.

Промпт:
Write code for a mysterious website about simulation theory. Make it feel like reality is rendering in real-time — wireframe grids that appear under solid objects, textures that load progressively, physics glitches where elements float momentarily. Include matrix-style falling code backgrounds, sections that flicker between "rendered" and "source code" views, ambient computer processing sounds, and a final meta moment where the website acknowledges it's being viewed. Design it like a philosophy professor's existential crisis coded by a game engine developer. make sure I can paste it all into a single HTML file and open it in Chrome.


🟢 Код: https://codepen.io/ChetasLua/pen/ogbGqwW
🟢Пост: https://x.com/chetaslua/status/1978226719225004290
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥6👍2🥴2
🚀 Школа аналитиков данных МТС Web Services: прием заявок

Возможность получить дополнительное профессиональное образование для студентов последних курсов технических специальностей, Junior/middle аналитиков данных, ИТ-специалистов, желающих лучше изучить анализ данных.

🔹 Что вас ждет:

10-месячное бесплатное онлайн-обучение по программе, разработанной с учетом ключевых направлений в изучении больших данных: SQL, Python, ML, Big Data, работа с нейросетями и рекомендательными системами.

Регулярные вебинары от действующих экспертов из разных продуктов Центра BigData MWS и обратная связь специалистов в течение всего курса, в том числе разбор практических кейсов.

🎯 Самые талантливые студенты смогут пройти стажировку в МТС Web Services и получить оффер.

Оставить заявку и пройти профильное тестирование можно до 30 октября здесь.
👍52🔥2
🧠 Учёные из Penn State обнаружили нечто **дикое**: грубость делает ChatGPT умнее.

Они протестировали ChatGPT-4o на 250 вопросах с 5 уровнями вежливости:

• Очень вежливо → 80.8% точности
• Вежливо → 81.4%
• Нейтрально → 82.2%
• Грубо → 82.8%
• Очень грубо → 84.8%

Статистический анализ подтвердил: это не случайность — жёсткие запросы стабильно дают лучший результат.

Ещё интереснее: старые модели вроде GPT-3.5 реагировали *наоборот*.
А вот GPT-4 и новее становятся точнее, когда с ними разговаривают резче.

Источник: https://arxiv.org/abs/2510.04950
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯113🔥1🥰1