Пайплайн для превращения видео в статью без следов AI
Скринкасты, стримы, туториалы — всё это можно конвертировать в готовый текст для документации или блога.
Готовый стек:
➡️ Транскрибация ➡️ перевод ➡️ перефразирование ➡️ грамматика ➡️ проверка на AI
Результат: текст с 31% «машинности» (порог — 50%), проходит проверки на уникальность и читается как написанный человеком.
В статье — разбор на примере видео про t-строки в Python 3.14:
🔘 Какие инструменты использовать на каждом этапе
🔘 Какой уровень перефразирования не убивает технические термины
🔘 Где автоматика даёт 80%, а где без ручной правки не обойтись
@prog_stuff
Скринкасты, стримы, туториалы — всё это можно конвертировать в готовый текст для документации или блога.
Готовый стек:
Результат: текст с 31% «машинности» (порог — 50%), проходит проверки на уникальность и читается как написанный человеком.
В статье — разбор на примере видео про t-строки в Python 3.14:
@prog_stuff
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1🔥1
65 идей новогодних подарков для айтишников
Tproger собрал подборку по категориям: эргономичные аксессуары для работы, гаджеты, товары для сна и креативный мерч. Всё со ссылками на маркетплейсы и разбито по ценам:
🔘 до 1000 ₽;
🔘 от 1000 до 3000 ₽;
🔘 больше 3000 ₽.
Пригодится для тайного Санты в команде или если не знаете, что дарить знакомому разработчику / сисадмину / тимлиду.
@prog_stuff
Tproger собрал подборку по категориям: эргономичные аксессуары для работы, гаджеты, товары для сна и креативный мерч. Всё со ссылками на маркетплейсы и разбито по ценам:
Пригодится для тайного Санты в команде или если не знаете, что дарить знакомому разработчику / сисадмину / тимлиду.
@prog_stuff
Please open Telegram to view this post
VIEW IN TELEGRAM
Tproger
65 идей новогодних подарков для айтишников: по категориям и бюджету
Ищете идеальный новогодний подарок для программиста, сисадмина или разработчика? В подборке 65 актуальных идей: эргономичные аксессуары для работы, гаджеты, товары для сна и креативные сюрпризы. Все варианты можно найти на маркетплейсах.
🎄1
Инструмент, который создаёт страницы ошибок, выглядящие точь-в-точь как настоящие от Cloudflare. Можно кастомизировать и встроить на свой сайт.
Зачем это нужно? Во-первых, ни за чем, просто весело. Во-вторых, чисто визуально это хорошее решение на самом деле, привычное для юзера. Можно иконки заменить и в понятном стиле показывать юзерам когда что-то пошло не так.
Как использовать
1️⃣ Python-библиотека:
2️⃣ Есть визуальный редактор, где можно просто натыкать статусы и тексты.
📎 GitHub
@prog_stuff
Зачем это нужно? Во-первых, ни за чем, просто весело. Во-вторых, чисто визуально это хорошее решение на самом деле, привычное для юзера. Можно иконки заменить и в понятном стиле показывать юзерам когда что-то пошло не так.
Как использовать
pip install cloudflare-error-page
@prog_stuff
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4🌚2👍1
Forwarded from Нейроканал
SMOL_секреты_создания_LLM_мирового_класса_Перевод_t_me_aivkube.pdf
14.6 MB
Сергей Долгов перевёл «The Smol Training Playbook» — самую популярную публикацию на HuggingFace о том, как создают, тренируют и дообучают языковые модели.
➡️ Что внутри
🔘 Архитектура: MHA → GQA → MLA, позиционные кодировки (RoPE, NoPE), почему DeepSeek выбрал именно такие решения
🔘 Претрейн: как собирать данные, выбирать learning rate, batch size, schedulers (WSD vs Cosine vs Multi-Step)
🔘 Scaling laws: сколько данных нужно для модели N параметров, как считать FLOPs
🔘 Post-training: SFT, DPO, GRPO, RLVR — когда что использовать и почему on-policy лучше off-policy
🔘 Практика: как команда SmolLM3 обучала модель на 384×H100 за 11 триллионов токенов
➡️ Для кого
Для тех, кто хочет понять, как реально устроен процесс обучения LLM — не на уровне «скачал модель с HuggingFace», а на уровне «почему GQA ratio 4, а не 8» и «когда WSD лучше cosine decay».
Сергею — огромное спасибо за качественную вёрстку и время на перевод. Настольная книга для всех, кто копает в сторону ML.
📎 Оригинал на HF, версия на русском в прикреплённой PDF.
@neuro_channel
Для тех, кто хочет понять, как реально устроен процесс обучения LLM — не на уровне «скачал модель с HuggingFace», а на уровне «почему GQA ratio 4, а не 8» и «когда WSD лучше cosine decay».
Сергею — огромное спасибо за качественную вёрстку и время на перевод. Настольная книга для всех, кто копает в сторону ML.
@neuro_channel
Please open Telegram to view this post
VIEW IN TELEGRAM