📱 MobileLLM-Pro - языковая модель (~1B параметров) , оптимизированная для эффективной работы *на устройстве* (on-device).
Модель превосходит Gemma 3 1B и Llama 3.2 1B по задачам рассуждения, знаний и длинного контекста, поддерживая до 128 000 токенов.
Благодаря гибридному вниманию (локальное + глобальное в соотношении 3:1, окно 512) достигается низкая задержка и экономия памяти KV-кэша.
Квантование в 4-бит (int4) почти не снижает качество:
• CPU - групповое квантование весов и динамическая активация
• GPU - поканальное квантование
Модель дополнительно прошла instruction fine-tuning, что делает её подходящей для задач общения, генерации и обработки текста.
https://huggingface.co/facebook/MobileLLM-Pro
Модель превосходит Gemma 3 1B и Llama 3.2 1B по задачам рассуждения, знаний и длинного контекста, поддерживая до 128 000 токенов.
Благодаря гибридному вниманию (локальное + глобальное в соотношении 3:1, окно 512) достигается низкая задержка и экономия памяти KV-кэша.
Квантование в 4-бит (int4) почти не снижает качество:
• CPU - групповое квантование весов и динамическая активация
• GPU - поканальное квантование
Модель дополнительно прошла instruction fine-tuning, что делает её подходящей для задач общения, генерации и обработки текста.
https://huggingface.co/facebook/MobileLLM-Pro
❤10👍4🔥3
📈 Вышел новый важный бенчмарк для исследовательских ИИ
LiveResearchBench - это *живой пользовательский бенчмарк* для оценки глубинных исследовательских систем на реальных, «полевых» задачах.
Он проверяет, могут ли исследовательские агенты создавать отчеты с корректными цитатами под реальные запросы пользователей. Всего собрано *100 задач в 7 доменах и 10 категориях*, на разработку ушло 1500 часов работы экспертов.
Старые бенчмарки устарели, были узкими и часто пересекались с данными предобучения.
Поэтому авторы ввели 4 строгих правила:
- задачи должны быть ориентированы на пользователя
- четко определены
- использовать актуальные данные из интернета
- требовать синтеза информации из множества источников
Каждая задача проходила 6 стадий создания (от интервью с пользователями до экспертной доработки) и 5 стадий проверки качества (независимые ревью и контроль качества).
Для оценки результатов создан фреймворк DeepEval, который оценивает отчеты по 6 критериям: структура, фактическая точность, корректность цитирования и др.
Используются чек-листы, парные сравнения и древовидные рубрики.
Для снижения смещения авторы использовали ансамбль моделей Gemini 2.5 Pro и GPT-5 как оценщиков, что сделало результаты стабильнее.
Тесты 17 агентных систем показали:
- мультиагентные решения лучше оформляют отчеты и ставят цитаты
- одиночные агенты стабильнее, но уступают в глубине рассуждений
Это важный шаг к тому, чтобы измерять, могут ли ИИ-агенты работать как настоящие исследователи - находить, анализировать и цитировать информацию из живых источников.
🔗 https://arxiv.org/abs/2510.14240
LiveResearchBench - это *живой пользовательский бенчмарк* для оценки глубинных исследовательских систем на реальных, «полевых» задачах.
Он проверяет, могут ли исследовательские агенты создавать отчеты с корректными цитатами под реальные запросы пользователей. Всего собрано *100 задач в 7 доменах и 10 категориях*, на разработку ушло 1500 часов работы экспертов.
Старые бенчмарки устарели, были узкими и часто пересекались с данными предобучения.
Поэтому авторы ввели 4 строгих правила:
- задачи должны быть ориентированы на пользователя
- четко определены
- использовать актуальные данные из интернета
- требовать синтеза информации из множества источников
Каждая задача проходила 6 стадий создания (от интервью с пользователями до экспертной доработки) и 5 стадий проверки качества (независимые ревью и контроль качества).
Для оценки результатов создан фреймворк DeepEval, который оценивает отчеты по 6 критериям: структура, фактическая точность, корректность цитирования и др.
Используются чек-листы, парные сравнения и древовидные рубрики.
Для снижения смещения авторы использовали ансамбль моделей Gemini 2.5 Pro и GPT-5 как оценщиков, что сделало результаты стабильнее.
Тесты 17 агентных систем показали:
- мультиагентные решения лучше оформляют отчеты и ставят цитаты
- одиночные агенты стабильнее, но уступают в глубине рассуждений
Это важный шаг к тому, чтобы измерять, могут ли ИИ-агенты работать как настоящие исследователи - находить, анализировать и цитировать информацию из живых источников.
🔗 https://arxiv.org/abs/2510.14240
❤6👍6🔥4🥱1
Главное открытие: не процент заражённых документов, а их абсолютное количество определяет успех атаки. Увеличение объёмов данных и масштаба модели не защищает от целенаправленного отравления.
Backdoor остаётся незаметным - модель работает как обычно, пока не встретит секретный триггер, после чего начинает выполнять вредоносные инструкции или генерировать бессмыслицу.
Даже если продолжать обучение на «чистых» данных, эффект стирается очень медленно - backdoor может сохраняться длительное время.
Вывод: защита LLM требует контроля происхождения данных, проверки целостности корпусов и мер по выявлению скрытых иньекций.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25❤7👍3
📘 На Stepik вышел курс — «MLOps-инженер: С нуля до продакшена»
Хотите автоматизировать ML-пайплайны, версионировать модели и выстраивать надёжный деплой в production? Этот курс — полный путь MLOps-инженера.
ML Pipeline: MLflow, Airflow, автоматизация обучения и валидации моделей
Эксперименты: DVC, Weights & Biases, версионирование и воспроизводимость
Model Serving: TensorFlow Serving, ONNX, A/B тестирование моделей
Контейнеризация: Docker для ML, GPU-контейнеры, оптимизация образов
Kubernetes: Kubeflow, автомасштабирование inference
Feature Store: Feast, управление фичами, data drift detection
Мониторинг: Evidently AI, model drift, data quality
CI/CD для ML: автотесты моделей, staged rollout
Облака: SageMaker, Vertex AI, cost optimization
Production: model registry, canary deployments, SLA для ML
🎓 Сертификат — добавьте в резюме или LinkedIn
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс на Stepik
Хотите автоматизировать ML-пайплайны, версионировать модели и выстраивать надёжный деплой в production? Этот курс — полный путь MLOps-инженера.
ML Pipeline: MLflow, Airflow, автоматизация обучения и валидации моделей
Эксперименты: DVC, Weights & Biases, версионирование и воспроизводимость
Model Serving: TensorFlow Serving, ONNX, A/B тестирование моделей
Контейнеризация: Docker для ML, GPU-контейнеры, оптимизация образов
Kubernetes: Kubeflow, автомасштабирование inference
Feature Store: Feast, управление фичами, data drift detection
Мониторинг: Evidently AI, model drift, data quality
CI/CD для ML: автотесты моделей, staged rollout
Облака: SageMaker, Vertex AI, cost optimization
Production: model registry, canary deployments, SLA для ML
🎓 Сертификат — добавьте в резюме или LinkedIn
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс на Stepik
🥴6❤3❤🔥2🤣2🔥1🤔1
Илон Маск написал у себя в X:
Большинство разногласий вокруг сроков появления AGI сводятся к тому, как именно его определяют.
Например, по последнему мнению Андрея Карпатия, настоящая AGI — это не просто языковая модель, а интеллект с телом: продвинутые роботы, способные выполнять физическую работу и даже решать проблему согласования (alignment).
Если придерживаться такого определения, то даже 10 лет - слишком оптимистичный прогноз.
«У Grok 5 примерно 10 % шансов стать AGI - и он может оказаться очень близок к этому уровню.»
Большинство разногласий вокруг сроков появления AGI сводятся к тому, как именно его определяют.
Например, по последнему мнению Андрея Карпатия, настоящая AGI — это не просто языковая модель, а интеллект с телом: продвинутые роботы, способные выполнять физическую работу и даже решать проблему согласования (alignment).
Если придерживаться такого определения, то даже 10 лет - слишком оптимистичный прогноз.
😁15👍8🤣3❤2🔥2
Uber запускает новый способ заработка для водителей в США 💰
Теперь водители смогут получать деньги, выполняя «цифровые задачи» — короткие задания, которые занимают всего пару минут и доступны даже во время ожидания пассажиров.
Примеры таких задач:
▫️ разметка данных для обучения ИИ
▫️ загрузка меню ресторанов
▫️ запись голосовых сэмплов
▫️ озвучка сценариев на разных языках
Потенциал огромен: компании вроде Scale AI и Surge AI, занимающиеся разметкой данных, уже оцениваются примерно в $30 млрд каждая.
В начале октября Uber также приобрёл бельгийский стартап Segments AI, специализирующийся на разметке данных, чтобы усилить свои позиции в этой сфере.
Теперь водители смогут получать деньги, выполняя «цифровые задачи» — короткие задания, которые занимают всего пару минут и доступны даже во время ожидания пассажиров.
Примеры таких задач:
▫️ разметка данных для обучения ИИ
▫️ загрузка меню ресторанов
▫️ запись голосовых сэмплов
▫️ озвучка сценариев на разных языках
Потенциал огромен: компании вроде Scale AI и Surge AI, занимающиеся разметкой данных, уже оцениваются примерно в $30 млрд каждая.
В начале октября Uber также приобрёл бельгийский стартап Segments AI, специализирующийся на разметке данных, чтобы усилить свои позиции в этой сфере.
👍22😁12❤4🔥3
🖼️✨ Удаление водяных знаков из видео Sora 2 с помощью ИИ
Этот проект позволяет эффективно удалять водяные знаки из видео, созданных с помощью Sora 2, используя технологии искусственного интеллекта. Пользователь загружает видео, система анализирует каждый кадр и удаляет водяной знак с помощью инпейнтинга.
🚀Основные моменты:
- Использует ИИ для точного удаления водяных знаков
- Поддерживает Windows, MacOS и Linux
- Обработка видео с сохранением качества
- Легкий в использовании интерфейс для загрузки видео
📌 GitHub: https://github.com/hate0s/sora2-watermark-remover
Этот проект позволяет эффективно удалять водяные знаки из видео, созданных с помощью Sora 2, используя технологии искусственного интеллекта. Пользователь загружает видео, система анализирует каждый кадр и удаляет водяной знак с помощью инпейнтинга.
🚀Основные моменты:
- Использует ИИ для точного удаления водяных знаков
- Поддерживает Windows, MacOS и Linux
- Обработка видео с сохранением качества
- Легкий в использовании интерфейс для загрузки видео
📌 GitHub: https://github.com/hate0s/sora2-watermark-remover
🤣20🔥5❤3🥴3👍1
🌍 NVIDIA лидирует в опенсорсе в области ИИ, а китайские лаборатории только догоняют.
Всего пару лет назад большинство моделей - особенно крупные языковые - были закрыты
.
Теперь всё иначе: экосистема открытого ИИ растёт взрывными темпами. Только за последние 90 дней на Hugging Face появилось более миллиона новых репозиториев.
NVIDIA вышла в лидеры по количеству открытых проектов в 2025 году: серии Nemotron, BioNeMo, Cosmos, Gr00t и Canary.
Китайские компании (Alibaba Cloud с Qwen, Baidu, Tencent и другие) активно догоняют и уже способны конкурировать с западными лабораториями.
Открытый ИИ стал не только про гигантов - тысячи независимых разработчиков публикуют модели, датасеты и адаптации (например, LoRA). Это превращается в целое движение.
Меняется глобальная карта ИИ: Китай и США усиливают позиции, а Европа и другие страны всё больше уходит в тень.
⚠️ Но есть нюансы:
Открытость ≠ качество: важно следить за достоверностью данных, этикой и устойчивостью моделей.
Рост числа репозиториев требует фильтрации — не всё из нового имеет практическую ценность.
Лицензии и совместимость становятся критически важными: ошибки здесь могут стоить дорого.
📎 Подробнее: https://aiworld.eu/story/nvidia-leads-open-source-ai-momentum-as-chinese-labs-close-in
#OpenSourceAI #NVIDIA #China #Innovation #AI #Ecosystem
Всего пару лет назад большинство моделей - особенно крупные языковые - были закрыты
.
Теперь всё иначе: экосистема открытого ИИ растёт взрывными темпами. Только за последние 90 дней на Hugging Face появилось более миллиона новых репозиториев.
NVIDIA вышла в лидеры по количеству открытых проектов в 2025 году: серии Nemotron, BioNeMo, Cosmos, Gr00t и Canary.
Китайские компании (Alibaba Cloud с Qwen, Baidu, Tencent и другие) активно догоняют и уже способны конкурировать с западными лабораториями.
Открытый ИИ стал не только про гигантов - тысячи независимых разработчиков публикуют модели, датасеты и адаптации (например, LoRA). Это превращается в целое движение.
Меняется глобальная карта ИИ: Китай и США усиливают позиции, а Европа и другие страны всё больше уходит в тень.
⚠️ Но есть нюансы:
Открытость ≠ качество: важно следить за достоверностью данных, этикой и устойчивостью моделей.
Рост числа репозиториев требует фильтрации — не всё из нового имеет практическую ценность.
Лицензии и совместимость становятся критически важными: ошибки здесь могут стоить дорого.
📎 Подробнее: https://aiworld.eu/story/nvidia-leads-open-source-ai-momentum-as-chinese-labs-close-in
#OpenSourceAI #NVIDIA #China #Innovation #AI #Ecosystem
❤9👍4🔥2
🚀 AI Journey Contest 2025 в самом разгаре!
Уже 30 октября закончится международное онлайн-соревнование по ИИ AI Journey Contest 2025 с призовым фондом 6,5 млн рублей. ✨
У тебя еще есть возможность присоединиться к лучшим разработчикам со всего мира.
Выбери один или несколько треков:
Твой шанс выиграть денежный приз и заявить о себе на AI Journey - главной международной конференции по ИИ в России! Спешите зарегистрироваться по ссылке.
Уже 30 октября закончится международное онлайн-соревнование по ИИ AI Journey Contest 2025 с призовым фондом 6,5 млн рублей. ✨
У тебя еще есть возможность присоединиться к лучшим разработчикам со всего мира.
Выбери один или несколько треков:
🤖 Agent-as-Judge: Создай универсального «судью» для оценки текстов, сгенерированных ИИ.
🧠 Human-centered AI Assistant: Разработай персонализированного ассистента на основе GigaChat.
Бонус: Участникам предоставляются токены для API + возможность получить дополнительно 1 млн токенов!
💾 GigaMemory: Придумай механизм долговременной памяти для LLM.
Твой шанс выиграть денежный приз и заявить о себе на AI Journey - главной международной конференции по ИИ в России! Спешите зарегистрироваться по ссылке.
❤2🔥2👍1
🌌 Google Gemini научили распознавать взрывающиеся звёзды по 15 примерам
Google Research показали, что мультимодальная модель Gemini способна находить *вспышки сверхновых и другие астрономические события* — буквально по нескольким обучающим примерам.
🚀 Главное
- Использован few-shot learning — всего ~15 примеров для каждой обсерватории *(Pan-STARRS, MeerLICHT, ATLAS)*
- Модель видит три изображения: новое, эталонное и разницу между ними
- Gemini не просто ставит метку, но объясняет, *почему* считает событие настоящим
- Средняя точность — 93 %, после итераций до 96,7 %
- Умеет оценивать свою неуверенность и просить помощи человека
- Объяснения модели признаны экспертами-астрономами достоверными
🔭 Почему это важно
- Будущие телескопы вроде Vera Rubin Observatory будут генерировать *миллионы сигналов каждую ночь* — без ИИ это невозможно обработать
- Подход few-shot позволяет быстро адаптировать модель к новым данным без переобучения
- Gemini превращается в научного помощника, а не просто классификатор
⚠️ Ограничения
- 93 % ≠ 100 % — человек-в-петле всё ещё необходим
- Модель чувствительна к качеству примеров и может ошибаться на редких артефактах
Вывод: Gemini теперь не просто анализирует изображения, а *учится думать как учёный* — объясняя, сомневаясь и адаптируясь к новым задачам.
📖 Источник: https://research.google/blog/teaching-gemini-to-spot-exploding-stars-with-just-a-few-examples/
Google Research показали, что мультимодальная модель Gemini способна находить *вспышки сверхновых и другие астрономические события* — буквально по нескольким обучающим примерам.
🚀 Главное
- Использован few-shot learning — всего ~15 примеров для каждой обсерватории *(Pan-STARRS, MeerLICHT, ATLAS)*
- Модель видит три изображения: новое, эталонное и разницу между ними
- Gemini не просто ставит метку, но объясняет, *почему* считает событие настоящим
- Средняя точность — 93 %, после итераций до 96,7 %
- Умеет оценивать свою неуверенность и просить помощи человека
- Объяснения модели признаны экспертами-астрономами достоверными
🔭 Почему это важно
- Будущие телескопы вроде Vera Rubin Observatory будут генерировать *миллионы сигналов каждую ночь* — без ИИ это невозможно обработать
- Подход few-shot позволяет быстро адаптировать модель к новым данным без переобучения
- Gemini превращается в научного помощника, а не просто классификатор
⚠️ Ограничения
- 93 % ≠ 100 % — человек-в-петле всё ещё необходим
- Модель чувствительна к качеству примеров и может ошибаться на редких артефактах
Вывод: Gemini теперь не просто анализирует изображения, а *учится думать как учёный* — объясняя, сомневаясь и адаптируясь к новым задачам.
📖 Источник: https://research.google/blog/teaching-gemini-to-spot-exploding-stars-with-just-a-few-examples/
❤7🔥2👍1
Когда знания разбросаны по чатам и папкам, сотрудники теряют время, решения принимаются медленно, а ошибки повторяются.
Так выглядит страшный сон любой IT-компании
Если вы решаете проблему внешними SaaS-решениями, такой подход ненадежен и уход Notion с рынка это доказал.
Решение есть: создать свою базу знаний с AI в облаке. Как? Расскажет эксперт Cloud․ru на вебинаре 23 октября.
Вы узнаете:
В практической части вам покажут процесс настройки и интеграции всех компонентов.
Регистрируйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1🤣1
🚀 Примеры ChatKit для разработчиков
Репозиторий содержит продвинутые примеры использования ChatKit, включая интеграцию FastAPI и Vite + React. Он демонстрирует, как создать сервер ChatKit с помощью Python SDK и использовать различные инструменты для взаимодействия с клиентом.
🚀 Основные моменты:
- Полный шаблон проекта с фронтендом и бэкендом.
- Интеграция с инструментами для получения погоды и переключения тем.
- Легкая разработка с проксированием запросов через Vite.
📌 GitHub: https://github.com/openai/openai-chatkit-advanced-samples
#python
Репозиторий содержит продвинутые примеры использования ChatKit, включая интеграцию FastAPI и Vite + React. Он демонстрирует, как создать сервер ChatKit с помощью Python SDK и использовать различные инструменты для взаимодействия с клиентом.
🚀 Основные моменты:
- Полный шаблон проекта с фронтендом и бэкендом.
- Интеграция с инструментами для получения погоды и переключения тем.
- Легкая разработка с проксированием запросов через Vite.
📌 GitHub: https://github.com/openai/openai-chatkit-advanced-samples
#python
❤4👍2🔥2