374K subscribers
4.35K photos
824 videos
17 files
4.83K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Reader3: легковесная читалка для книг от Andrej Karpathy

Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.

На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.

Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.

Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.

Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.

В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.


А вместо этого предлагает пользователям... просто попросить свою языковую модель изменить код так, как им нравится.

Код теперь эфемерный,

— пишет Андрей, намекая на то, что эпоха статичных библиотек и долгой поддержки уходит в прошлое.

Для тех, кто хочет попробовать, процесс максимально прост. Нужно скачать книгу в формате EPUB и запустить пару команд в терминале, используя uv:

uv run reader3.py yourbook.epub

# Then run the server:

uv run server.py


После этого ваша книжная полка станет доступна в браузере по адресу localhost:8123.


📌Лицензирование: MIT License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Karpathy #Github #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6126🔥19🤔9🥱5❤‍🔥2🥰2😁1🤷1
Как правильно писать промпты?

Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.

🟣 Будьте конкретнее

Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.

🟣 Давайте контекст и примеры

Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.

🟣 Просите несколько версий ответа

Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.

🟣 Действуйте итеративно

Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.

🟣 Разбивайте сложные задачи на мелкие

Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2310🗿6😁4👌2🤝2🔥1🥰1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.

Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.

TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.

**🚀 Ironwood (TPUv7):*

Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти

Такой уровень идеально подходит для LLM, где важны скорость и масштаб.

🔥 Sunfish (предположительно TPUv8)

Следующее поколение создаётся совместно с Broadcom.

Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.

💡 Zebrafish: гибкая и массовая линейка

MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров

То есть не только для гигантских суперкомпьютеров, но и для широкого использования.

🌐 Зачем Google три разных TPU?

Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем

Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.

@ai_machinelearning_big_data

  #google #tpu
54👍26🔥15❤‍🔥1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI выпустила GPT-5.1-Codex-Max.

GPT-5.1-Codex-Max - агентная модель для «тяжелой» разработки. Основной упор сделан на длительные процессы: теперь модель эффективнее справляется с многочасовым рефакторингом и сложными агентными циклами внутри IDE. Фишка релиза в технологии «уплотнения», благодаря которой модель удерживает контекст на миллионах токенов без потери связности.

По тестам, проведенным OpenAI в SWE-Bench Verified точность выросла до 77,9%, а в SWE-Lancer - почти 80%. Новинка уже стала дефолтной моделью в среде Codex для подписчиков Plus и Pro, а доступ через API разработчики получат в ближайшее время.
openai.com

✔️ Stack Overflow планирует стать провайдером данных для корпоративного ИИ.

На конференции Microsoft Ignite платформа объявила о смене стратегии: теперь это не просто база знаний, а инфраструктурный элемент для корпоративных нейросетей. Обновленный продукт Stack Internal конвертирует внутреннюю экспертизу компаний в формат, доступный ИИ-агентам через MCP.

Технически будет добавлен слой метаданных, формирующий рейтинг надежности. Система анализирует автора, актуальность и связность ответа, чтобы агент мог взвесить достоверность информации перед использованием. CEO компании признался, что этот шаг вдохновлен успешными сделками по продаже данных для обучения моделей (по аналогии с Reddit).
stackoverflow.blog

✔️ Microsoft запустила платформу Agent 365 для управления ИИ-агентами.

Agent 365 — инструмент, который позволяет организациям администрировать парк ИИ-агентов как обычных сотрудников. Платформа использует Microsoft Entra для создания единого реестра всех корпоративных ботов, присваивая каждому уникальный ID для строгого разграничения прав доступа и интеграции с корпоративными данными.

Помимо безопасности (за которую отвечают Defender и Purview), система предлагает специальные дашборды, которые показывают эффективность работы каждого агента в реальном времени. Agent 365 не замыкается на нативном Copilot Studio, он поддерживает open-source фреймворки и сторонние решения от партнеров MS. Инструмент уже появился в админ-панели Microsoft 365 в рамках программы тестирования.
microsoft.com

✔️ Manus тестирует расширение для популярных браузеров.

Manus запустила бета-тестирование Browser Operator — инструмента, который выводит ИИ-агентов из облачных песочниц в рабочую среду пользователя. Расширение, доступное для Chrome и Edge, позволяет автоматизировать действия в сервисах, требующих сложной авторизации (CRM, закрытые аналитические платформы), используя уже активные локальные сессии.

Через коннектор «My Browser» агент получает доступ к нужным вкладкам, а пользователь может в реальном времени наблюдать за его действиями, сохраняя контроль над безопасностью. На данный момент доступ открыт для подписчиков тарифов Pro, Plus и Team.
manus.im

✔️ xAI построит в Саудовской Аравии дата-центр на 500 МВт.

Компания Илона Маска объединилась с саудовской Humain и Nvidia для создания масштабного вычислительного хаба. Проект мощностью 500 мегаватт позволит разместить десятки тысяч GPU для тренировки и инференса следующих поколений моделей Grok.

Для xAI это стратегический шаг: собственный хаб за пределами США позволяет снизить зависимость от аренды облачных мощностей у прямых конкурентов. Структура сделки такая: Nvidia поставляет GPU, за саудитами - земля и финансирование, а xAI получает присутствие на Ближнем Востоке.
bloomberg.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5834🥰6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
На AI Journey робот вызвал Путина на танцевальный баттл

Сбер показал антропоморфного робота Грина со встроенным ИИ. Разработке доверили самое ценное — танец перед президентом, и он не подвел.

ai_machinelearning_big_data
😁151🔥35🙈26🥰18🤣188🤔8🤬8👍4🕊3🌚3
⚡️ Команда Google Research представила технологию живого перевода речи в речь, которая позволяет говорить на одном языке и почти мгновенно слышать перевод на другом.

Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.

Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.

Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.

https://research.google/blog/real-time-speech-to-speech-translation

@ai_machinelearning_big_data

#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
101👍44🔥36🥰3😁3👻2
Если сотрудник случайно удалил базу данных в рабочей среде, серверную затопило или вашу систему атаковал вирус-шифровальщик — это может привести к непоправимой потере данных. А всех пострадавших — к мысли, что нужно было сделать резервную копию…

✖️ В подобной ситуации восстановить данные может быть невозможно. 25 ноября в 11.00 MTC Web Services проведет вебинар, где эксперты расскажут, как правильно и эффективно создавать и хранить резервные копии.

На вебинаре расскажем:

🔴Каких неприятностей поможет избежать резервное копирование

🔴Базовые правила настройки бэкапов: полезные и вредные советы

🔴Инструменты и нюансы выбора сервисов для резервного копирования

🔴Где надёжнее всего хранить резервные копии: локально или в облаке

Для кого этот вебинар?

➡️Руководители компаний
Не потеряете важные данные и узнаете, сколько можно сэкономить на восстановлении

➡️Руководители ИТ-отделов
Найдёте сервисы для резервного копирования, которые не ударят по бюджету

➡️ИТ-специалисты
Узнаете, как настраивать регулярные бэкапы: в облаке и локальных хранилищах

Регистрируйтесь и приходите!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁159👍4🥰2🤣2👌1
💡 DeepSeek выложили новый open-source проект — LPLB.

Это экспериментальный балансировщик нагрузки для моделей Mixture-of-Experts (MoE).

В репозитории описано, как система:
• динамически перераспределяет экспертов, опираясь на статистику нагрузки;
• создаёт реплики с учётом топологии кластера;
• решает оптимальное распределение токенов по экспертам через LP-решатель, работающий прямо на GPU (cuSolverDx + cuBLASDx);
• использует метрики загрузки, полученные вручную, через torch.distributed или через буферы Deep-EP.

Гайд показывает, как может выглядеть умный и точный балансировщик для больших MoE-архитектур.

GitHub: https://github.com/deepseek-ai/LPLB

ai_machinelearning_big_data

#DeepSeek #LPLB #MoE #AIInfrastructure #OpenSource
37🔥22👍16😁2🥰1🙉1
Please open Telegram to view this post
VIEW IN TELEGRAM
43🔥17👍12😨3🤬1
ML-модели не работают без правильно подготовленных данных.

Качество данных определяет качество моделей. Но что делать, когда пайплайны ломаются, а данные из разных источников приходят с расхождениями? Пока одна часть команды занимается ETL, другая — ищет причины артефактов в обучении моделей.

✔️ В таких ситуациях может пригодиться бот-генератор оправданий.
Он предлагает нестандартные объяснения, почему данные не готовы для обучения — от шуток про "несходящиеся градиенты" до "конфликта фичей".

Когда в следующий раз ваш feature store будет выглядеть как поле боя — загляните к боту. Его объяснения могут оказаться правдоподобнее ваших. Сгенерируйте несколько вариантов и поделитесь с командой — это поможет найти нестандартный подход к решению проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿2313🔥9👍5😭3😁2
⚡️ Ai2 представила Olmo 3 - новую линейку полностью открытых моделей (7B и 32B), которые по качеству догоняют лидеров рынка.

Главное:
• 32B base - сильная base-модель, которая работает на уровне Qwen 2.5 и опережает на ряде бенчмарков Google Gemma 3.
• 7B instruct и 7B reasoning - лучшие среди западных моделей
• 32B Think - полностью открытая 32B-модель для сложных рассуждений (почти на уровне Qwen 3 8B/32B)

Все данные, код, чекпоинты в открытом доступе.

Olmo 3 32B - закрыла важный пробел, так как у Qwen нет открытой 32B base-версии.

32B спокойно запускаестя на одной 80GB-GPU или даже на мощном ноутбуке.

🟠Paper: https://allenai.org/papers/olmo3
🟠Artifacts: https://huggingface.co/collections/allenai/olmo-3
🟠Demo: https://playground.allenai.org
🟠Blog: https://allenai.org/blog/olmo3

@ai_machinelearning_big_data

#Olmo #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
31🔥16👍9🥰9🦄2😁1
Media is too big
VIEW IN TELEGRAM
✔️ Релиз семейств моделей SAM 3 и SAM 3D.

Создатели Segment Anything обновили свой стек компьютерного зрения, выпустив третье поколение инструментов SAM. Модель SAM 3 делает ставку на высокую точность: она умеет не только определять и отслеживать объекты в видеопотоке, но и понимает сложные текстовые описания.

Второй релиз, SAM 3D, решает задачу объемной реконструкции. Инструмент преобразует обычные 2D-изображения в 3D-ассеты. Технология разделена на два направления: SAM 3D Objects для воссоздания сцен и предметов, и SAM 3D Body для точной оценки человеческой анатомии и переноса её в виртуальную среду. Код и веса SAM 3 уже опубликованы в открытом доступе, а для 3D-версии разработчики выложили чекпоинты и инструменты инференса.
github.com

✔️ Научная ML-библиотека PINA теперь часть экосистемы PyTorch.

PINA - опенсорсная библитека от SISSA Mathlab для задач Scientific Machine Learning (SciML), нативно построеная на PyTorch и PyTorch Lightning и полностью совместима с PyTorch Geometric. Она предлагает единый подход к решению сложных научных проблем: от аппроксимации дифференциальных уравнений в частных производных до моделирования силовых полей и деформаций объектов.

PINA построена на модульной архитектуре, которая минимизирует шаблонный код и четко разделяет определение задачи, модель, солвер и процесс обучения. Внутри уже предусмотрены необходимые для физического моделирования инструменты: дифференциальные операторы, soft constraints и специфические функции потерь.
pytorch.org

✔️ Nabla Bio анонсировал модель для генерации антител промышленного качества.

Биотех-стартап Nabla Bio объявил о запуске JAM-2, первого алгоритма для создания de novo антител, готовых к применению в фармацевтике. Разработчики позиционируют инструмент как способ перевести создание лекарств из формата случайного перебора в дисциплину точного инженерного дизайна.

Модель показала высокую эффективность даже при работе со сложными мишенями, такими как клеточные рецепторы GPCR. В ходе тестов JAM-2 генерировала антитела с пикомолярной аффинностью, при этом более 50% вариантов сразу соответствовали индустриальным критериям пригодности без дополнительной оптимизации.

Команда из 4 инженеров смогла параллельно обработать 16 разных мишеней менее чем за месяц.
Nabla Bio в сети X

✔️ Стартовал новый сезон турнира Alpha Arena.

Лаборатория Nof1 запустила новый этап соревнования торговых ботов, в котором ИИ-модели управляют акциями на фондовом рынке США. В списке участников — Qwen3, DeepSeek, Claude Sonnet, Gemini, Grok, GPT-5, Kimi 2 и неназванная секретная модель. Каждому алгоритму выделили стартовый депозит в $10 000 и предоставили полную автономию в принятии решений.

Организаторы существенно усложнили турнир новыми сценариями. В режиме «New Baseline» модели используют память и механизм рефлексии для самообучения, а трек «Situational Awareness» позволяет ботам отслеживать рейтинг конкурентов в реальном времени. Наиболее агрессивный режим «Max Leverage» обязывает использовать высокое кредитное плечо.

Прошлый сезон закончился для ИИ-трейдеров неудачно: 4 из 6 моделей ушли в минус.
nof1.ai

✔️ OpenAI запустила специальную версию ChatGPT для учителей.

Компания представила инициативу «ChatGPT for Teachers», открывающую бесплатный доступ к чат-боту для преподавателей американских школ. В этой версии используется защищенное рабочее пространство, которое не передает данные для дообучения нейросетей, соответствуя стандартам конфиденциальности FERPA.

Учителя получат доступ к модели GPT-5.1 Auto, а также нативные интеграции с Canva и Google Drive. Администраторам учебных заведений доступны инструменты для централизованного распределения лицензий. Программа рассчитана до июня 2027 года и позиционируется как автоматизация планирования уроков и сокращения времени на административную рутину.
openai.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍218❤‍🔥3🥰2💘1