Когда Python-проект разрастается, в нём появляется десятки библиотек. Чтобы не ставить их вручную и не ломать окружение, используется файл requirements.txt — список всех зависимостей проекта.
###
Чтобы сохранить список установленных библиотек, достаточно одной команды:
pip freeze > requirements.txt
requirements.txt.###
Чтобы развернуть проект на другой машине или сервере, выполняем:
pip install -r requirements.txt
Все нужные пакеты установятся автоматически — с нужными версиями.
### 🧩 Формат файла
В
requirements.txt можно указывать версии библиотек по-разному:numpy==1.21.0 # строгая версия
pandas>=1.3.0 # версия не ниже указанной
requests # установится последняя
И не забывай: комментарии начинаются с
#.# Основные зависимости
numpy==1.21.0
pandas>=1.3.0
# Для тестов
pytest
###
Если проект большой — можно разбить зависимости:
# requirements.txt
-r base.txt
-r dev.txt
Так ты отделишь продакшен-зависимости от тех, что нужны только для разработки.
###
Чтобы зафиксировать версии пакетов без прямого указания в основном файле, можно использовать
constraints.txt:pip install -r requirements.txt -c constraints.txt
Пример:
requirements.txt
numpy==1.21.0
pandas
constraints.txt
pandas<=1.3.5
###
Для разных задач — свои зависимости:
requirements-dev.txt # разработка
requirements-test.txt # тесты
requirements-prod.txt # продакшен
Пример:
pip install -r requirements-dev.txt
###
Чтобы подтянуть свежие версии библиотек:
pip install --upgrade -r requirements.txt
###
Всегда изолируй зависимости!
python -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
pip install -r requirements.txt
###
requirements.txt — твой контроль над проектом.С ним ты избежишь конфликтов библиотек, упростишь деплой и сможешь спокойно разворачивать окружение где угодно.
#python #doc #cheatsheet
Please open Telegram to view this post
VIEW IN TELEGRAM
👍90❤17🔥8🤯2😱1
Forwarded from Linux для чайника
Это не просто список команд, а структурированный справочник по всему Linux-арсеналу.
— системные команды для администрирования и мониторинга;
— сетевые утилиты и инструменты безопасности;
— работа с процессами, памятью, файлами и устройствами;
— примеры использования и полезные флаги.
Удобно, лаконично и наглядно — будто свой мини-читерский мануал по Linux.
Подойдёт и новичкам, и тем, кто хочет быстро вспомнить нужную команду без копания в
man.#doc #github #cheatsheet
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥12❤7😱2
1. Установите необходимые библиотеки с помощью pip:
pip install matplotlib seaborn pandas
2. Импортируйте библиотеки, которые вы будете использовать в своем скрипте:
import matplotlib.pyplot as plt
import seaborn as sns
3. Загрузите свой набор данных в pandas DataFrame. Для демонстрации мы будем использовать образец набора данных, предоставленный Seaborn:
import pandas as pd
data = sns.load_dataset("penguins")
4. Создайте график: используйте библиотеку Seaborn для создания простой диаграммы рассеяния:
sns.scatterplot(data=data, x="bill_length_mm", y="bill_depth_mm", hue="species")
plt.title("Penguin Bill Dimensions by Species")
plt.show()
5. Настройте график добавив заголовки, метки и изменив стиль для улучшения читаемости и представления:
plt.xlabel("Bill Length (mm)")
plt.ylabel("Bill Depth (mm)")
plt.grid(True)
plt.show()Почему именно Python используется для визуализации данных?
1. Matplotlib: для базовых графиков.
2. Seaborn: для статистических визуализаций.
3. Plotly: для интерактивных визуализаций.
#python #cheatsheet #doc
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤15🔥12
🚀 SQL → Python → Excel
В одном месте, как выполнять одни и те же операции тремя разными способами:
🥽 SQL — запросы к базе.
😰 Python/Pandas — обработка данных в коде.
🇻🇪 Excel — когда нужно быстро «на коленке».
В таблице есть всё самое частое:
➡️ загрузка данных
➡️ фильтрация
➡️ выбор колонок
➡️ сортировка
➡️ агрегации
➡️ подсчёты
➡️ новые столбцы
➡️ объединение таблиц
➡️ удаление дублей
➡️ работа с пропусками
⚡️ Каждый инструмент хорош под свою задачу. А вот кто умеет все три — тот в любой команде как швейцарский нож.
💾 Сохрани пост — как шпаргалку для собеса, апгрейда и чтобы не гуглить в следующий раз group by pandas.
#cheatsheet #python
В одном месте, как выполнять одни и те же операции тремя разными способами:
В таблице есть всё самое частое:
#cheatsheet #python
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍13❤9
Компактная таблица, где в одном месте сравниваются все основные итерируемые структуры данных в Python:
#cheatsheet #python
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43❤9🔥4
Дорожная карта из 78 тем, которые ведут от нуля к Data Scientist. И это не просто список технологий — это отражение того, за что бизнес реально платит деньги.
Разбираем по-человечески
Python здесь не ради Python’а.
Он нужен, чтобы:
* чистить данные
* автоматизировать рутину
* писать быстрые эксперименты
* склеивать всё в пайплайны
Без баз: функции, структуры данных, работа с файлами — дальше не пустят.
NumPy, Pandas, DataFrames, GroupBy, Join’ы — это реальная жизнь дата-сайентиста.
💰 Деньги платят не за нейросети, а за умение:
* привести хаотичные данные в порядок
* найти ошибки
* собрать правильную таблицу для принятия решений
Matplotlib, Seaborn, Plotly, дашборды.
Если ты не умеешь показать цифры так, чтобы их понял менеджер, — твой анализ бесполезен, даже если он гениален.
Exploratory Data Analysis — это:
* поиск аномалий
* трендов
* закономерностей
* причин падения/роста метрик
📌 Именно здесь находят:
* почему падают продажи
* где теряются клиенты
* где можно сэкономить или заработать
Распределения, гипотезы, p-value, доверительные интервалы.
❌ Без статистики ML превращается в гадание.
✅ С ней — в инструмент принятия решений.
SELECT, JOIN, GROUP BY, оконные функции.
Если ты не умеешь доставать данные из БД — ты не дата-сайентист, а пользователь ноутбука.
Линейная и логистическая регрессия
Деревья, Random Forest, Gradient Boosting, SVM
💰 Бизнес использует ML для:
* прогнозов
* сегментации клиентов
* рекомендаций
* выявления аномалий
Не «нейросети ради нейросетей», а решение конкретных задач.
Accuracy, F1, ROC-AUC
Feature Engineering, Scaling, Encoding
Можно взять простой алгоритм и выжать из него больше денег, чем из сложной модели с плохими признаками.
Time Series → прогнозы
NLP → отзывы, поддержка, соцсети
Big Data → масштабирование решений
Здесь начинается рост доходов и уровней задач.
☁️ 10. Cloud & Big Data = деньги и масштаб
AWS, BigQuery, Spark, Databricks, Snowflake.
Это уже уровень:
* крупных компаний
* высоких зарплат
* сложных систем
Data Science — это не про «стать ML-инженером за 3 месяца».
Это про умение превращать данные в деньги:
✔️ находить проблемы
✔️ подтверждать гипотезы
✔️ помогать бизнесу принимать решения
✔️ автоматизировать аналитику
Изучай и цифры начнут работать на тебя.
#doc #cheatsheet
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥17❤8