Учимся: 3 курса по ML от Школы аналитики данных Яндекса
Недавно слушала подкаст про обучение айтишников в вузах и на курсах образовательных платформ. Главная мысль: выпускникам вузов не хватает практики, а выпускникам курсов — системного мышления и базовых знаний, например, математики. Курсы по матану я не искала, но нашла такие, где без теории не обойтись. Так что, возможно, придется погуглить и освежить знания)
1️⃣ Курс по ML для обработки естественного языка в ШАД и дополнение к нему.
2️⃣ Онлайн-учебник по ML от ШАД
⚫️ Что нужно: уверенное владение линейной алгеброй, матаном и теорией вероятностей будет большим плюсом. Знания статистики и методов выпуклой оптимизации сделают чтение комфортнее.
⚫️ Что включено: от классических алгоритмов (линейные модели, деревья, градиентный бустинг) до современных нейросетей (трансформеры, диффузионные модели) и сложных разделов вроде байесовских методов, обучения с подкреплением и теоретических основ ML. Есть практика и лабораторные — решение ML-задач в DataSphere.
3️⃣ Курс лекций профессора Воронцова по машинному обучению (курс читают студентам МГУ, МФТИ и ШАД). Здесь снова упор делается на глубокое понимание математических основ и взаимосвязей.
Кому: если у вас в штате джун после курсов занимается ИИ — ему подойдет. Да и всем остальным ML — освежить знания. #учимся
Как считаете, для задач генеративного проектирования понимание основ — критично?
👍 — да, 👎 — нет
Недавно слушала подкаст про обучение айтишников в вузах и на курсах образовательных платформ. Главная мысль: выпускникам вузов не хватает практики, а выпускникам курсов — системного мышления и базовых знаний, например, математики. Курсы по матану я не искала, но нашла такие, где без теории не обойтись. Так что, возможно, придется погуглить и освежить знания)
Кому: если у вас в штате джун после курсов занимается ИИ — ему подойдет. Да и всем остальным ML — освежить знания. #учимся
Как считаете, для задач генеративного проектирования понимание основ — критично?
👍 — да, 👎 — нет
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11⚡10👏9❤7🔥3🤔3👎1
Учимся: Стэнфордский курс «Language Modeling from Scratch» — это практический курс для тех, кто хочет понять и построить LLM самостоятельно — от сбора и очистки данных до тренировки, оптимизации и развёртывания.
В программе пять домашних заданий: реализация трансформера, кастомный FlashAttention 2, распределённая тренировка, анализ законов масштабирования, фильтрация данных и обучение с подкреплением. Для прохождения курса нужны знания Python, тервера, матана и линейной алгебры, опыт работы на PyTorch.
Да, обучить с нуля LLM мало кто может себе позволить из российских компаний, но никто не запрещает грызть гранит науки.
Лекции — на Ютубе.
Материалы — на Гитхабе.
Вы знаете, кому переслать📝
#учимся
В программе пять домашних заданий: реализация трансформера, кастомный FlashAttention 2, распределённая тренировка, анализ законов масштабирования, фильтрация данных и обучение с подкреплением. Для прохождения курса нужны знания Python, тервера, матана и линейной алгебры, опыт работы на PyTorch.
Да, обучить с нуля LLM мало кто может себе позволить из российских компаний, но никто не запрещает грызть гранит науки.
Лекции — на Ютубе.
Материалы — на Гитхабе.
Вы знаете, кому переслать
#учимся
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥8👍7🤔6⚡6👏4
Команда Института AIRI представила модель Vintix — отечественную SOTA action-модель для управления роботами и промышленными процессами
⚫️ Модель сжимает данные о состоянии среды, действии и награде в один токен. За счёт этого она обрабатывает в 3 раза больше информации, чем аналоги.
⚫️ Устойчива к шуму и неполной информации, что важно для промышленности, где данные могут быть задержаны или частично отсутствовать.
Vintix сохраняет стабильность даже в таких условиях, в отличие от GATO (DeepMind) или JAT (Hugging Face), которые требуют четких входных данных.
⚫️ Модель имитирует обучение с подкреплением (RL), быстро адаптируясь к новым задачам — от конвейеров до автономных роботов.
Подробнее — в статье, а репозиторий — на Гитхабе.
#учимся
Vintix сохраняет стабильность даже в таких условиях, в отличие от GATO (DeepMind) или JAT (Hugging Face), которые требуют четких входных данных.
Подробнее — в статье, а репозиторий — на Гитхабе.
#учимся
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11👏8🤔8🔥5❤3⚡3
Сбер_Гайд по агентам_WP.pdf
41.7 MB
Сбер выпустил гайд по разработке и внедрению ИИ-агентов и мультиагентных систем для бизнеса
В нём просто и понятно рассказывается, как строить умных помощников: от планирования и выполнения задач до хранения знаний и взаимодействия с пользователями. Также в рамках изучения можно создать своего агента, который будет помогать оформлять идеи в формате Lean Canvas.
В гайде также есть советы по безопасности, интеграции в корпоративные системы и использованию инструментов для быстрой разработки. Основой служит опыт Сбера и их языковой модели GigaChat.
Подробнее — в прикрепленном файле.
#учимся #агенты
В нём просто и понятно рассказывается, как строить умных помощников: от планирования и выполнения задач до хранения знаний и взаимодействия с пользователями. Также в рамках изучения можно создать своего агента, который будет помогать оформлять идеи в формате Lean Canvas.
Lean Canvas — это простой и удобный шаблон бизнес-модели на одной странице, который помогает быстро и ёмко описать ключевые аспекты стартапа или нового продукта.
В гайде также есть советы по безопасности, интеграции в корпоративные системы и использованию инструментов для быстрой разработки. Основой служит опыт Сбера и их языковой модели GigaChat.
Подробнее — в прикрепленном файле.
#учимся #агенты
🔥8❤6👍6👏6⚡6🤔4👎1🤬1🥴1
10 курсов по ИИ, ML и работе с данными с платформы Coursera —подборка программ от ведущих зарубежных технических вузов и компаний мира — DeepLearning.АI, Стэнфорда, MIT, Microsoft, IBM
Для новичков и нетехнарей
🔵 AI For Everyone — базовый курс по ИИ без сложной математики.
🔵 Prompt Engineering Basics — учимся правильно формулировать запросы для ИИ.
Для аналитиков и инженеров данных
🔵 Generative AI for Data Analysts — курс по использованию ИИ для анализа данных.
🔵 Generative AI for Data Engineers — курс по работе с данными с использованием ИИ.
🔵 Generative AI for Data Scientists — повышение квалификации для датасайнтистов.
Для разработчиков, ML-специалистов и продактов
🔵 Microsoft AI Product Manager — как создать ИИ-продукт за 3 месяца: от исследования рынка и запросов заказчика до выхода с готовым сервисом.
🔵 Generative AI with LLMs — как работают большие языковые модели и как их создавать.
🔵 IBM AI Developer — 6-месячная программа по ИИ-разработке — от чат-ботов до приложений.
🔵 Machine Learning Specialization — курс по машинному обучению от Andrew Ng.
🔵 Deep Learning Specialization — углубленное изучение нейросетей и архитектур (сверточным и рекуррентным), регуляризации и другим продвинутым техникам.
Курсы бесплатные, но за сертификаты о прохождении могут потребовать оплату. Все через ВПН. #учимся
Для новичков и нетехнарей
Для аналитиков и инженеров данных
Для разработчиков, ML-специалистов и продактов
Курсы бесплатные, но за сертификаты о прохождении могут потребовать оплату. Все через ВПН. #учимся
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22👌13🤝1
SIGNAL. BIM-форум 2025. ИИ-ассистенты.pdf
2.4 MB
Как создать ИИ-ассистента за 5 минут — поделился Александр Попов, технический директор Signal
Продолжаем тему автоматизации.
Какие инструменты и зачем понадобятся
🔴 Телеграм — здесь живет ваш бот.
🔴 n8n.io — no-code-платформа, с её помощью можно автоматизировать связку из разных сервисов. Например, принимать сообщения из Телеграм, отправлять их в нейросеть и возвращать ответ обратно в чат. Всё настраивается визуально, через удобный интерфейс.
🔴 ИИ — подготавливает и дает ответ. Можно использовать определенную, например, от OpenAI либо же платформу с множеством моделей. Так, у Openrouter.ai для разных нейросетей единый API — это удобно для тестирования и выбора оптимальной под задачу.
🔴 supabase.com хранит контекст и ваши данные. Это облачная БД, похожая на Google Sheets или Excel, только мощнее и с поддержкой автоматизации. Здесь хранится история переписки с ботом, контекст общения и другая нужная информация для работы ассистента.
Как сделать ИИ-помощника
1️⃣ Создайте бота в Телеграме в @BotFather по инструкциям. Получите и сохраните токен — он понадобится для настройки n8n.
2️⃣ Получите доступ к нейросети. Зарегистрируйтесь на Openrouter.ai или OpenAI и получите API-ключ.
3️⃣ Настройте свою базу данных на supabase.com. Создайте таблицу для хранения истории переписки или векторную таблицу для хранения базы знаний, по которой должен искать ИИ-агент, и подключите аккаунт supabase в n8n.
4️⃣ Зарегистрируйтесь и создайте воркфлоу на n8n.
🔵 Настройте приём сообщений (Webhook).
🔵 Добавьте ноды: для Телеграма (вставьте токен бота), отправки текста в нейросеть (введите API-ключ), получения ответа от нее, отправки ответа обратно в Телеграм, для Supabase и сохранения сообщений.
5️⃣ Проверьте работу бота — напишите ему сообщение, убедитесь, что он отвечает, а история сохраняется в Supabase.
Всё можно развернуть на своём сервере — и n8n, и нейросеть (например, Ollama). Минимально для бота на команду из 50 человек, которые обращаются к сервису раз в 5 минут, нужно 16 ГБ ОЗУ, 4 ядра, 50 ГБ SSD.
Бот готов и может принимать сообщения в Телеграм, отправлять их в нейросеть, возвращать ответы и хранить всю переписку для анализа.
Подробнее — в прикрепленной презентации.
#учимся
#агенты
Продолжаем тему автоматизации.
Какие инструменты и зачем понадобятся
Как сделать ИИ-помощника
Всё можно развернуть на своём сервере — и n8n, и нейросеть (например, Ollama). Минимально для бота на команду из 50 человек, которые обращаются к сервису раз в 5 минут, нужно 16 ГБ ОЗУ, 4 ядра, 50 ГБ SSD.
Бот готов и может принимать сообщения в Телеграм, отправлять их в нейросеть, возвращать ответы и хранить всю переписку для анализа.
Подробнее — в прикрепленной презентации.
#учимся
#агенты
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13👌7👏6🔥3❤2⚡1
#Учимся — бесплатный курс от Microsoft по Model Context Protocol (MCP)
Microsoft запустил бесплатный курс по MCP — протоколу для стандартизации взаимодействия между ИИ-моделями и клиентскими приложениями.
Содержание курса
🔵 Архитектура MCP: клиент-серверная модель, структура сообщений, безопасность.
🔵 Начало работы: настройка среды, создание первого MCP-сервера и клиента, интеграция с приложениями.
🔵 Практический проект MCP-калькулятора: как ИИ-агент выполняет вычисления через внешний инструмент.
🔵 Практическая реализация: использование готовых SDK для быстрой разработки на популярных языках, отладка, тестирование и создание шаблонов запросов.
🔵 Продвинутые темы: мультимодальные ИИ, масштабируемость, интеграция в корпоративные системы.
🔵 Опыт пользователей: реальные кейсы, оптимизация, отказоустойчивость и лучшие практики.
Требования: базовые знания хотя бы одного языка программирования (рекомендуется C#, Java или Python) и общее представление о том, как работают клиент-серверные приложения или API. Знакомство с концепциями ML необязательно.
Курс на Гитхабе
Microsoft запустил бесплатный курс по MCP — протоколу для стандартизации взаимодействия между ИИ-моделями и клиентскими приложениями.
Содержание курса
Требования: базовые знания хотя бы одного языка программирования (рекомендуется C#, Java или Python) и общее представление о том, как работают клиент-серверные приложения или API. Знакомство с концепциями ML необязательно.
Курс на Гитхабе
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👏7👌6👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Cartesian.app — интерактивный учебник по алгоритмам и структурам данных, рассчитанный на самостоятельное онлайн-обучение
В нем более 700 страниц теории, сотни визуализаций и возможность писать и запускать код прямо в браузере. Учебник ориентирован на практику: сложные темы объясняются наглядно с помощью инфографики, а каждую идею можно тут же опробовать на практике.
⚫️ Код можно редактировать и запускать прямо в тексте учебника.
⚫️ Пошаговые визуализации: сложные алгоритмы и структуры данных сопровождаются анимациями и схемами.
⚫️ Ясно и понятно — главное, знать английский язык.
Чему можно научиться
⚫️ Реализовывать базовые и продвинутые алгоритмы (сортировки, поиск, динамическое программирование, графовые алгоритмы и др.).
⚫️ Работать с основными структурами данных: массивы, списки, деревья, хеш-таблицы, графы.
⚫️ Анализировать эффективность алгоритмов (асимптотика, сложность по времени и памяти).
⚫️ И многому другому.
Подойдет новичкам и не только. Работает по VPN. Вы знаете, кому переслать➡️
#учимся
В нем более 700 страниц теории, сотни визуализаций и возможность писать и запускать код прямо в браузере. Учебник ориентирован на практику: сложные темы объясняются наглядно с помощью инфографики, а каждую идею можно тут же опробовать на практике.
Чему можно научиться
Подойдет новичкам и не только. Работает по VPN. Вы знаете, кому переслать
#учимся
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍8👏4👌1
Об архитектуре трансформеров в проектировании
#учимся
Трансформер — это архитектура глубокого обучения, которая изначально была разработана для обработки последовательностей данных (например, текста), но теперь широко применяется и в задачах генерации и анализа архитектурных объектов.
Основные компоненты:
Трансформер состоит из блоков внимания (self-attention), которые позволяют модели учитывать взаимосвязи между разными частями входных данных одновременно, а не по очереди. Это особенно полезно для понимания сложных структур, например, взаимосвязей между элементами архитектурного плана или 3D-модели.
Принцип работы:
Модель получает на вход последовательность данных (например, описания помещений, координаты точек, параметры поверхностей) и преобразует её в новое представление, учитывая контекст каждого элемента относительно всех остальных. Это позволяет создавать более согласованные и структурированные архитектурные объекты.
Особенности в архитектуре:
Трансформеры хорошо справляются с моделированием пространственных и семантических связей, что важно для генерации планов зданий, фасадов и даже сложных 3D-форм. Благодаря параллельной обработке данных они эффективны и масштабируемы.
Пример использования:
В архитектуре трансформеры могут принимать описание проекта или частичные данные и генерировать полный план здания, учитывая функциональные связи между помещениями и требования к пространству.
В архитектуре трансформеры применяются в связке с другими нейросетями — например, генеративно-состязательные сети (GAN) и диффузионные модели. Трансформеры отвечают за аналитику и соблюдение правил — моделирование связей, а GAN или диффузионные модели — за творчество и красоту, создавая визуал и форму.
Скрин — из статьи Attention Is All You Need, в которой была впервые представлена архитектура трансформера.
#учимся
Трансформер — это архитектура глубокого обучения, которая изначально была разработана для обработки последовательностей данных (например, текста), но теперь широко применяется и в задачах генерации и анализа архитектурных объектов.
Разновидности: BERT (анализ текста), GPT (генерация текста), DETR (распознавание объектов на изображениях), T5 (преобразование текста), Swin Transformer (трансформер для компьютерного зрения) и другие.
Основные компоненты:
Трансформер состоит из блоков внимания (self-attention), которые позволяют модели учитывать взаимосвязи между разными частями входных данных одновременно, а не по очереди. Это особенно полезно для понимания сложных структур, например, взаимосвязей между элементами архитектурного плана или 3D-модели.
На вход модели даются параметры и стандарты. Механизм внимания выявляет ключевые зависимости, например, что кухня должна быть рядом с гостиной, а санузлы распределены по этажам.
Принцип работы:
Модель получает на вход последовательность данных (например, описания помещений, координаты точек, параметры поверхностей) и преобразует её в новое представление, учитывая контекст каждого элемента относительно всех остальных. Это позволяет создавать более согласованные и структурированные архитектурные объекты.
Особенности в архитектуре:
Трансформеры хорошо справляются с моделированием пространственных и семантических связей, что важно для генерации планов зданий, фасадов и даже сложных 3D-форм. Благодаря параллельной обработке данных они эффективны и масштабируемы.
Пример использования:
В архитектуре трансформеры могут принимать описание проекта или частичные данные и генерировать полный план здания, учитывая функциональные связи между помещениями и требования к пространству.
В архитектуре трансформеры применяются в связке с другими нейросетями — например, генеративно-состязательные сети (GAN) и диффузионные модели. Трансформеры отвечают за аналитику и соблюдение правил — моделирование связей, а GAN или диффузионные модели — за творчество и красоту, создавая визуал и форму.
Скрин — из статьи Attention Is All You Need, в которой была впервые представлена архитектура трансформера.
👍11👌9🔥4👏3❤1
#учимся Self-RAG: умный поиск с самоконтролем
Когда вы создаёте чат-бота для поиска по внутренним документам — по базе знаний, кадровой политике, технической документации или нормативке — главное требование — точность ответов. Для проектировщиков — особенно.
Изначально для таких задач была придумана RAG, которая по запросу пользователя ищет релевантные фрагменты в векторной базе, передает их LLM, которая на их основе генерирует ответ.
В 2023 году исследовательская группа из Google и Университета Карнеги-Меллона (CMU) предложила новую архитектуру.
Что такое Self-RAG
Авторы предложили обучить LLM не только генерировать текст, но и самостоятельно управлять процессом поиска (retrieve) и оценивать качество ответа (critic). Для этого — использовать обучающие сигналы в виде специальных токенов, встроенные в последовательность генерации.
Таким образом Self-RAG — это усовершенствованный подход к RAG, где языковая модель сама решает, когда нужен поиск, и оценивает качество своего ответа. Отличия от классического RAG — ниже:
🔵 Обычный RAG: один запрос — один поиск — один ответ. Риск галлюцинаций снижен по сравнению просто с ответом от LLM, но все еще есть.
🔵 В Self-RAG модель генерирует управляющие токены:
—
—
Токены добавляют модели способность «сомневаться». При сомнениях она может приостановить генерацию, запросить новые документы, перепроверить факты, перегенерировать весь ответ или его часть.
📎 Ограничения Self-RAG
Нужно учить на специально размеченных для рефлексии данных, плюс медленнее выдает ответ из-за нескольких итераций поиска.
Зачем это нужно
Снижает галлюцинации, повышает точность и доверие к ответам — особенно важно для корпоративных баз знаний, где критична достоверность. Self-RAG — это шаг на пути к более автономным и рефлексивным ИИ-агентам.
Где посмотреть
🔵 Репозиторий Self-RAG от Акари Асаи, которая входила в группу авторов статьи выше.
🔵 Еще вариант от langgraph (платформы для создания, управления и развертывания ИИ-агентов).
Когда вы создаёте чат-бота для поиска по внутренним документам — по базе знаний, кадровой политике, технической документации или нормативке — главное требование — точность ответов. Для проектировщиков — особенно.
Изначально для таких задач была придумана RAG, которая по запросу пользователя ищет релевантные фрагменты в векторной базе, передает их LLM, которая на их основе генерирует ответ.
В 2023 году исследовательская группа из Google и Университета Карнеги-Меллона (CMU) предложила новую архитектуру.
Что такое Self-RAG
Авторы предложили обучить LLM не только генерировать текст, но и самостоятельно управлять процессом поиска (retrieve) и оценивать качество ответа (critic). Для этого — использовать обучающие сигналы в виде специальных токенов, встроенные в последовательность генерации.
Таким образом Self-RAG — это усовершенствованный подход к RAG, где языковая модель сама решает, когда нужен поиск, и оценивает качество своего ответа. Отличия от классического RAG — ниже:
—
retrieve
— нужно больше данных → запускается поиск.—
critic
— оценка достоверности ответа.Токены добавляют модели способность «сомневаться». При сомнениях она может приостановить генерацию, запросить новые документы, перепроверить факты, перегенерировать весь ответ или его часть.
Нужно учить на специально размеченных для рефлексии данных, плюс медленнее выдает ответ из-за нескольких итераций поиска.
Зачем это нужно
Снижает галлюцинации, повышает точность и доверие к ответам — особенно важно для корпоративных баз знаний, где критична достоверность. Self-RAG — это шаг на пути к более автономным и рефлексивным ИИ-агентам.
Где посмотреть
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11👌10👏9❤4
Gemini Prompting Guide 101.pdf
5 MB
Принесла вам гайд по использованию Gemini для Google Workspace. Он будет полезен тем, кто работает с Gmail, Google Docs, Google Sheets, Google Meet, Google Slides и Gemini Advanced
Gemini встроен непосредственно в эти приложения и доступен через боковую панель без необходимости переключения между вкладками.
Гайд будет полезен тем, кто хочет повысить продуктивность, оптимизировать рабочие процессы с помощью ИИ. Внутри вы найдете примеры промтов и сценарии для разных профессий — от административной поддержки до маркетинга, продаж и управления проектами.
#учимся — 1 сентября же.
Подробнее — в прикрепленном файле
Gemini встроен непосредственно в эти приложения и доступен через боковую панель без необходимости переключения между вкладками.
Гайд будет полезен тем, кто хочет повысить продуктивность, оптимизировать рабочие процессы с помощью ИИ. Внутри вы найдете примеры промтов и сценарии для разных профессий — от административной поддержки до маркетинга, продаж и управления проектами.
#учимся — 1 сентября же.
Подробнее — в прикрепленном файле
👏11👍9👌9❤8