Kodduu Python
1.08K subscribers
311 photos
28 videos
186 links
Научись программировать на Python на интересных примерах

Самый быстрый курс https://stepik.org/a/187914
Самый нескучный курс https://stepik.org/a/185238

Во вопросам сотрудничества: @AlexErf
Download Telegram
4. Поддержка повторных измерений: Pingouin отлично справляется с задачами, включающими повторные измерения, такие как парные t-тесты, тесты Фридмана и другие методы анализа для связанных данных.

5. Легкость интеграции с визуализацией: Результаты Pingouin легко визуализировать с помощью библиотек, таких как Matplotlib и Seaborn, что позволяет эффективно комбинировать аналитическую мощь с наглядностью.

Pingouin — это удобная и мощная библиотека для статистического анализа в Python, которая значительно упрощает выполнение сложных статистических тестов и интерпретацию результатов.

Подпишись 👉🏻 @KodduuPython 🤖
Средний курс на Stepik имеет 200-300 уроков/тестов/задач. Мы делаем упор на задачах, чтобы писать код. Вот уже в Data Science в Python около 100 уроков/тестов/задач 🧐

Подпишись 👉🏻 @KodduuPython 🤖
2
Scrapy — это мощный и быстрый фреймворк для веб-скрейпинга на Python. Он позволяет эффективно собирать данные с веб-сайтов и структурировать их в нужном формате.

Ниже представлен пример простого паука, который собирает заголовки и ссылки статей с главной страницы новостного сайта:


import scrapy

class NewsSpider(scrapy.Spider):
name = "news"

start_urls = [
'https://example-news-website.com/',
]

def parse(self, response):
for article in response.css('div.article'):
yield {
'title': article.css('h2.title::text').get(),
'link': article.css('a::attr(href)').get(),
}

next_page = response.css('a.next::attr(href)').get()
if next_page is not None:
yield response.follow(next_page, self.parse)


Особенности данного примера:

1. Класс Spider: Создаем класс NewsSpider, наследуемый от scrapy.Spider, и задаем уникальное имя паука name = "news".

2. Начальные URL: Список start_urls содержит страницы, с которых паук начнет обход.

3. Метод `parse`: Основной метод, который обрабатывает ответ от каждого запроса. Здесь мы используем CSS-селекторы для извлечения данных.

4. Извлечение данных: В цикле for мы проходим по каждому элементу статьи и используем yield для возвращения словаря с данными.

5. Пагинация: Проверяем наличие ссылки на следующую страницу и используем response.follow() для перехода, что обеспечивает рекурсивный обход.

Как запустить паука:

Сохраните код в файл news_spider.py и выполните команду в терминале:


scrapy runspider news_spider.py -o articles.json


Это запустит паука и сохранит собранные данные в файл articles.json.

Особенности Scrapy:

- Асинхронность: Scrapy основан на асинхронной модели, что позволяет выполнять множество запросов одновременно и ускоряет процесс сбора данных.

- Легкость масштабирования: Фреймворк позволяет легко настраивать количество параллельных запросов и другие параметры производительности.

- Встроенные инструменты: Имеет мощные средства для обработки ошибок, повторных попыток, управления сессиями и кук.

- Расширяемость: Поддерживает Middleware, Pipelines и расширения, позволяющие добавлять дополнительную функциональность.

- Сообщество и документация: Обширная документация и активное сообщество упрощают решение возникающих вопросов.

Заключение

Scrapy предоставляет удобный и эффективный способ сбора данных с веб-сайтов. Его особенности, такие как асинхронность и расширяемость, делают его отличным выбором для проектов любой сложности.

Подпишись 👉🏻 @KodduuPython 🤖
Selenium — это инструмент для автоматизации веб-браузеров, широко используемый для веб-скрейпинга сайтов с динамическим контентом, генерируемым с помощью JavaScript. Он позволяет программно взаимодействовать с веб-страницами так же, как это делает пользователь: кликать по элементам, заполнять формы, прокручивать страницу и т.д.

Ниже приведен пример кода на Python, который использует Selenium для извлечения названий и цен продуктов с динамического сайта:


from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options

# Настройка опций браузера
chrome_options = Options()
chrome_options.add_argument('--headless') # Режим без GUI (необязательно)

# Инициализация веб-драйвера для Chrome
driver = webdriver.Chrome(options=chrome_options)

try:
# Открываем веб-сайт
driver.get('https://example-ecommerce-site.com')

# Явное ожидание загрузки элементов (например, 10 секунд)
driver.implicitly_wait(10)

# Находим все элементы с продуктами
products = driver.find_elements(By.CLASS_NAME, 'product-item')

# Извлекаем данные о каждом продукте
for product in products:
title = product.find_element(By.CLASS_NAME, 'product-title').text
price = product.find_element(By.CLASS_NAME, 'product-price').text
print(f'Название: {title}, Цена: {price}')

finally:
# Закрываем браузер
driver.quit()


Особенности данного примера:

1. Инициализация WebDriver: Используем webdriver.Chrome() для запуска браузера Chrome. С помощью Options можно задать дополнительные параметры, например, запуск в фоновом режиме без интерфейса (`--headless`).

2. Открытие веб-сайта: Метод get() загружает страницу по указанному URL.

3. Ожидание загрузки элементов: Используем implicitly_wait(10), чтобы подождать до 10 секунд загрузки необходимых элементов на странице.

4. Поиск элементов: Метод find_elements() находит все элементы, соответствующие заданному селектору. В данном случае ищем продукты по классу product-item.

5. Извлечение информации: Для каждого продукта находим элементы с названием и ценой по соответствующим классам и извлекаем текст с помощью .text.

6. Обработка исключений: Используем блок try...finally для гарантированного закрытия браузера, даже если в процессе возникнет ошибка.

Особенности использования Selenium для веб-скрейпинга:

- Работа с динамическим контентом: Selenium может обрабатывать страницы, контент которых загружается или обновляется с помощью JavaScript после первоначальной загрузки страницы.

- Интерактивное взаимодействие: Возможность симулировать действия пользователя — клики, ввод текста, наведение курсора и другие события.

- Ожидания: Поддержка явных (`WebDriverWait`) и неявных (`implicitly_wait`) ожиданий для синхронизации с динамическим контентом.

- Скриншоты: Возможность делать скриншоты страниц для отладки с помощью метода save_screenshot().

- Настройка браузера: Поддержка различных браузеров (Chrome, Firefox, Edge и др.) и возможность настройки параметров запуска.

Важно учитывать при использовании Selenium:

- Производительность: Запуск полноценного браузера требует больше ресурсов и времени по сравнению с библиотеками, работающими напрямую с HTTP-запросами (например, Requests).

- Правовые аспекты: Необходимо соблюдать правила использования сайтов и учитывать законодательство о защите данных. Рекомендуется проверять файл robots.txt и условия обслуживания сайта.

- Обнаружение скриптов: Сайты могут распознавать автоматизированные запросы. Для обхода этого можно настраивать заголовки запроса, использовать прокси или имитировать действия реального пользователя.

- Сложность установки: Требуется установка веб-драйверов (например, ChromeDriver для Chrome), что может добавить сложности при разворачивании на сервере или в контейнере Docker.

Подпишись 👉🏻 @KodduuPython 🤖
NumPy и Pandas в "Data Science в Python" закончен 👍👍👍

Подпишись 👉🏻 @KodduuPython 🤖
Beautiful Soup — это популярная библиотека Python для парсинга HTML и XML документов. Она позволяет легко извлекать данные из веб-страниц, работая поверх библиотек для получения страниц, таких как requests.

Ниже приведен пример кода, который извлекает заголовки статей и ссылки с главной страницы блога:


import requests
from bs4 import BeautifulSoup

# URL страницы, которую будем парсить
url = 'https://example-blog-website.com/'

# Отправляем GET-запрос к странице
response = requests.get(url)

# Проверяем статус ответа
if response.status_code == 200:
# Создаем объект BeautifulSoup
soup = BeautifulSoup(response.content, 'html.parser')

# Находим все элементы с классом 'post'
posts = soup.find_all('div', class_='post')

# Извлекаем заголовки и ссылки
for post in posts:
title = post.find('h2').get_text()
link = post.find('a')['href']
print(f'Заголовок: {title}')
print(f'Ссылка: {link}\n')
else:
print('Не удалось получить страницу')


Особенности данного примера:

1. Получение страницы: Используем библиотеку requests для отправки HTTP-запроса к целевому URL. Проверяем статус ответа, чтобы убедиться в успешном получении страницы.

2. Парсинг HTML: Создаем объект BeautifulSoup, передавая в него содержимое страницы и используемый парсер (`'html.parser'`).

3. Поиск элементов: Используем метод find_all() для поиска всех div с классом 'post'. Это возвращает список элементов, соответствующих заданным критериям.

4. Извлечение данных: В цикле проходим по каждому элементу post, извлекаем заголовок статьи с помощью find('h2').get_text() и ссылку с помощью find('a')['href'].

5. Вывод результатов: Печатаем заголовки и ссылки в удобочитаемом формате.

Особенности Beautiful Soup:

- Простота использования: Интуитивно понятный синтаксис для навигации и поиска элементов в дереве HTML.

- Поддержка разных парсеров: Можно использовать разные парсеры, такие как 'html.parser', lxml или html5lib, в зависимости от потребностей и установленных библиотек.

- Обработка невалидного HTML: Beautiful Soup хорошо справляется с разбором некорректно сформированного HTML, что часто встречается на реальных веб-сайтах.

- Мощные инструменты поиска: Методы find(), find_all(), select() позволяют искать элементы по тегам, классам, идентификаторам и CSS-селекторам.

- Извлечение текста и атрибутов: Легко получать текст внутри элементов с помощью .get_text() и значения атрибутов через доступ как к словарю (`element['attribute']`).

Важно учитывать:

- Уважение к правилам сайта: Перед парсингом убедитесь, что вы имеете право собирать данные с сайта. Проверьте файл robots.txt и условия использования ресурса.

- Эффективность: Для небольших проектов или единоразового сбора данных Beautiful Soup подходит идеально. Однако для больших объемов данных или сложных сайтов стоит рассмотреть использование Scrapy.

- Обработка динамического контента: Beautiful Soup не выполняет JavaScript. Для сайтов с динамическим контентом потребуется использовать Selenium или запросы к API.

Заключение

Beautiful Soup — отличный инструмент для быстрого и простого веб-скрейпинга. Он особенно полезен, когда нужно извлечь данные из статических веб-страниц с минимальными усилиями.

Подпишись 👉🏻 @KodduuPython 🤖
Курс Python в нескучных примерах (50) обновлен 👍

Подпишись 👉🏻 @KodduuPython 🤖
Octoparse — это мощный инструмент для веб-скрейпинга с графическим интерфейсом, который также предоставляет API для программного управления задачами и получения данных. С помощью Python вы можете взаимодействовать с Octoparse API для запуска задач, проверки их статуса и извлечения результатов.

Ниже приведен пример кода на Python, который запускает задачу в Octoparse и получает результаты:


import requests
import json
import time

# Ваш API-ключ Octoparse
api_key = 'YOUR_API_KEY'

# ID задачи, которую вы хотите запустить
task_id = 'YOUR_TASK_ID'

# Функция для запуска задачи
def run_task(api_key, task_id):
url = 'https://dataapi.octoparse.com/api/task/startTask'
headers = {'Content-Type': 'application/json'}
payload = {
'taskId': task_id,
'apiKey': api_key
}
response = requests.post(url, headers=headers, data=json.dumps(payload))
return response.json()

# Функция для проверки статуса задачи
def check_task_status(api_key, task_id):
url = 'https://dataapi.octoparse.com/api/task/getTaskStatus'
headers = {'Content-Type': 'application/json'}
payload = {
'taskId': task_id,
'apiKey': api_key
}
response = requests.post(url, headers=headers, data=json.dumps(payload))
return response.json()

# Функция для получения данных
def get_data(api_key, task_id):
url = 'https://dataapi.octoparse.com/api/alldata/getData'
headers = {'Content-Type': 'application/json'}
payload = {
'taskId': task_id,
'apiKey': api_key,
'size': 100, # Количество записей для получения
'skip': 0 # Пропустить первые N записей
}
response = requests.post(url, headers=headers, data=json.dumps(payload))
return response.json()

# Запуск задачи
print('Запуск задачи...')
run_response = run_task(api_key, task_id)
if run_response.get('success'):
print('Задача успешно запущена.')
else:
print('Ошибка при запуске задачи:', run_response.get('message'))
exit()

# Проверка статуса задачи
print('Ожидание завершения задачи...')
while True:
status_response = check_task_status(api_key, task_id)
if status_response.get('success'):
status = status_response['data']['status']
print('Текущий статус задачи:', status)
if status == 'Completed':
print('Задача завершена.')
break
else:
print('Ошибка при проверке статуса:', status_response.get('message'))
break
time.sleep(10) # Ждем 10 секунд перед следующей проверкой

# Получение данных
print('Получение данных...')
data_response = get_data(api_key, task_id)
if data_response.get('success'):
data_list = data_response['data']['dataList']
for item in data_list:
print(item)
else:
print('Ошибка при получении данных:', data_response.get('message'))


Особенности данного примера:

1. Аутентификация: Используется apiKey для авторизации запросов к API Octoparse.

2. Запуск задачи: Функция run_task отправляет запрос на запуск задачи по ее taskId.

3. Проверка статуса задачи: С помощью функции check_task_status происходит периодическая проверка состояния задачи до ее завершения.

4. Получение данных: После завершения задачи функция get_data извлекает данные, собранные задачей.

5. Структура кода: Код разделен на функции для удобства повторного использования и улучшения читаемости.

Особенности использования Octoparse с Python:

- Интеграция с API: Octoparse предоставляет RESTful API, что позволяет легко интегрировать его с Python с помощью HTTP-запросов.

- Обработка больших объемов данных: Octoparse способен обрабатывать большие объемы данных, а с помощью Python вы можете автоматизировать процессы извлечения и обработки этих данных.

- Гибкость: Возможность настраивать задачи в Octoparse и управлять ими программно дает высокую степень гибкости в веб-скрейпинге.

- Асинхронность: Поскольку задачи выполняются на серверах Octoparse, ваш скрипт может запускать задачи и продолжать выполнение без ожидания их завершения.
2
Важно учитывать:

- API-ключ: Ваш API-ключ должен быть защищен. Не размещайте его в общедоступных репозиториях и используйте переменные окружения или файлы конфигурации для его хранения.

- Ограничения API: У Octoparse есть ограничения на количество запросов и объема данных, зависящие от вашего тарифного плана.

- Законность: Убедитесь, что вы соблюдаете все правовые нормы и условия использования веб-сайтов, с которых собираете данные.

- Обработка ошибок: В реальном применении добавьте более детальную обработку ошибок и исключений для повышения надежности вашего скрипта.

Заключение

Использование Octoparse вместе с Python позволяет сочетать простоту настройки задач через графический интерфейс с мощью программной автоматизации. Это идеальное решение для сложных проектов по сбору данных, где требуется надежность и масштабируемость.

Подпишись 👉🏻 @KodduuPython 🤖
2
Давайте создадим интересную программу на Python, которая рисует фрактальное дерево с помощью модуля turtle.


import turtle

def fractal_tree(branch_len, t):
if branch_len > 5:
t.forward(branch_len)
t.right(20)
fractal_tree(branch_len - 15, t)
t.left(40)
fractal_tree(branch_len - 15, t)
t.right(20)
t.backward(branch_len)

t = turtle.Turtle()
t.left(90)
t.up()
t.backward(100)
t.down()
t.color("green")
fractal_tree(100, t)
turtle.done()


Описание кода:

- Импортируем модуль `turtle`: позволяет создавать графические рисунки.
- Определяем функцию `fractal_tree`: она рисует ветви дерева рекурсивно.
- Если длина ветви больше 5, выполняем следующие действия:
- Движемся вперед на branch_len.
- Поворачиваем направо на 20 градусов и вызываем функцию снова с уменьшенной длиной ветви.
- Поворачиваем налево на 40 градусов и снова вызываем функцию.
- Поворачиваем направо на 20 градусов, чтобы вернуть исходное направление.
- Движемся назад на branch_len, возвращаясь к исходной точке ветви.
- Настраиваем черепаху `t`:
- Поворачиваем вверх (на 90 градусов).
- Поднимаем перо и отходим назад, чтобы дерево было по центру экрана.
- Опускаем перо и устанавливаем цвет.
- Вызываем функцию `fractal_tree` с начальной длиной ветви 100.
- `turtle.done()`: сохраняет окно открытым после завершения рисования.

Запустив этот код, вы увидите красивое фрактальное дерево, созданное с помощью рекурсии!

Подпишись 👉🏻 @KodduuPython 🤖
1
Создадим сложную программу на Python с использованием объектно-ориентированного программирования (ООП). Мы реализуем простой трассировщик лучей (ray tracer), который сможет генерировать изображения 3D-сцен с использованием основных принципов ООП: наследования, полиморфизма, инкапсуляции и абстрактных классов.


import numpy as np
from PIL import Image
from abc import ABC, abstractmethod

class Ray:
def __init__(self, origin, direction):
self.origin = origin # Точка начала луча
self.direction = direction / np.linalg.norm(direction) # Нормализованное направление луча

class Material(ABC):
@abstractmethod
def shade(self, hit_point, normal, light_dir):
pass

class LambertianMaterial(Material):
def __init__(self, color):
self.color = color

def shade(self, hit_point, normal, light_dir):
# Диффузное освещение по модели Ламберта
return self.color * max(np.dot(normal, light_dir), 0)

class Sphere:
def __init__(self, center, radius, material):
self.center = center # Центр сферы
self.radius = radius # Радиус сферы
self.material = material # Материал сферы

def intersect(self, ray):
# Решаем квадратное уравнение для пересечения луча со сферой
oc = ray.origin - self.center
a = np.dot(ray.direction, ray.direction)
b = 2.0 * np.dot(oc, ray.direction)
c = np.dot(oc, oc) - self.radius * self.radius
discriminant = b * b - 4 * a * c

if discriminant < 0:
return None # Пересечений нет
else:
sqrt_disc = np.sqrt(discriminant)
t1 = (-b - sqrt_disc) / (2.0 * a)
t2 = (-b + sqrt_disc) / (2.0 * a)
t = min(t1, t2) if t1 > 0 else (t2 if t2 > 0 else None)
if t:
hit_point = ray.origin + t * ray.direction
normal = (hit_point - self.center) / self.radius
return (t, hit_point, normal, self.material)
else:
return None

class Light:
def __init__(self, position, intensity):
self.position = position # Позиция источника света
self.intensity = intensity # Интенсивность света

class Scene:
def __init__(self):
self.objects = [] # Объекты в сцене
self.lights = [] # Источники света в сцене

def add_object(self, obj):
self.objects.append(obj)

def add_light(self, light):
self.lights.append(light)

def render(self, width, height):
aspect_ratio = width / height
camera_origin = np.array([0, 0, 0])
viewport_height = 2.0
viewport_width = aspect_ratio * viewport_height
focal_length = 1.0

# Создаем изображение
image = Image.new("RGB", (width, height))
pixels = image.load()

for j in range(height):
for i in range(width):
u = (i + 0.5) / width
v = (j + 0.5) / height
x = (u - 0.5) * viewport_width
y = (v - 0.5) * viewport_height
direction = np.array([x, -y, -focal_length])
ray = Ray(camera_origin, direction)
color = self.ray_trace(ray)
pixels[i, height - j - 1] = tuple((np.clip(color, 0, 1) * 255).astype(np.uint8))
image.show()

def ray_trace(self, ray):
closest_t = float('inf')
hit_info = None

# Находим ближайший объект пересечения
for obj in self.objects:
result = obj.intersect(ray)
if result and result[0] < closest_t:
closest_t, hit_point, normal, material = result
hit_info = (hit_point, normal, material)
if hit_info:
hit_point, normal, material = hit_info
color = np.zeros(3)
for light in self.lights:
light_dir = light.position - hit_point
light_dir = light_dir / np.linalg.norm(light_dir)
# Проверка на тени
shadow_ray = Ray(hit_point + 1e-5 * normal, light_dir)
in_shadow = False
for obj in self.objects:
shadow_result = obj.intersect(shadow_ray)
if shadow_result and shadow_result[0] > 1e-5:
in_shadow = True
break
if not in_shadow:
color += material.shade(hit_point, normal, light_dir) * light.intensity
return np.clip(color, 0, 1)
else:
return np.array([0.2, 0.7, 1.0]) # Цвет фона

# Создаем сцену
scene = Scene()

# Добавляем объекты
material_red = LambertianMaterial(np.array([1, 0, 0]))
material_green = LambertianMaterial(np.array([0, 1, 0]))
material_blue = LambertianMaterial(np.array([0, 0, 1]))
material_yellow = LambertianMaterial(np.array([1, 1, 0]))

sphere1 = Sphere(np.array([-0.6, 0, -3]), 0.5, material_red)
sphere2 = Sphere(np.array([0.6, 0, -3]), 0.5, material_green)
sphere3 = Sphere(np.array([0, -1000.5, -3]), 1000, material_blue) # Плоскость
sphere4 = Sphere(np.array([0, 0.75, -3]), 0.5, material_yellow)

scene.add_object(sphere1)
scene.add_object(sphere2)
scene.add_object(sphere3)
scene.add_object(sphere4)

# Добавляем источник света
light1 = Light(np.array([5, 5, -5]), 1.2)
light2 = Light(np.array([-5, 5, -5]), 1.0)
scene.add_light(light1)
scene.add_light(light2)

# Рендерим сцену
scene.render(400, 300)


Описание кода:

1. Импортируем необходимые модули:
- numpy для работы с векторами и матрицами.
- PIL (Python Imaging Library) для создания и отображения изображения.
- abc для создания абстрактных классов.

2. Определяем класс `Ray`:
- Представляет луч с origin (начало) и direction (направление).

3. Создаем абстрактный класс `Material`:
- Имеет абстрактный метод shade, который должен быть реализован в подклассах.

4. Класс `LambertianMaterial`:
- Наследует от Material.
- Реализует диффузное освещение по модели Ламберта.

5. Класс `Sphere`:
- Представляет сферу в 3D-пространстве.
- Метод intersect вычисляет пересечение луча со сферой и возвращает информацию о пересечении.

6. Класс `Light`:
- Представляет точечный источник света с позицией и интенсивностью.

7. Класс `Scene`:
- Содержит объекты и источники света.
- Метод render создает изображение, трассируя лучи из камеры в сцену.
- Метод ray_trace выполняет трассировку луча и вычисляет цвет пикселя.

8. Создаем сцену и добавляем объекты:
- Четыре сферы с разными материалами (красный, зеленый, синий, желтый).
- Большая сфера, представляющая плоскость (землю).

9. Добавляем источники света:
- Два точечных источника света для более сложного освещения сцены.

10. Рендерим сцену:
- Вызываем scene.render с заданными шириной и высотой изображения.

Как это работает:

- Трассировка лучей:
- Для каждого пикселя генерируется луч из камеры через плоскость проекции.
- Луч пересекается со всеми объектами сцены, выбирается ближайшее пересечение.
- Если есть пересечение, вычисляется цвет точки с учетом освещения и теней.
- Если пересечений нет, пикселю присваивается цвет фона.

- Освещение и тени:
- Используется модель освещения Ламберта для расчета диффузного освещения.
- Для каждого источника света проверяется, не находится ли точка в тени других объектов.

Основные концепции ООП, используемые в коде:
- Инкапсуляция: Классы Ray, Sphere, Light, Scene и другие скрывают детали реализации и предоставляют интерфейсы для взаимодействия.
- Наследование: LambertianMaterial наследует от абстрактного класса Material.
- Полиморфизм: Метод shade может быть переопределен в разных материалах для создания различных эффектов освещения.
- Абстрактные классы и методы: Использование ABC и abstractmethod для определения интерфейса материалов.

Как запустить код:

1. Установите необходимые библиотеки:


pip install numpy pillow


2. Запустите скрипт.

Что вы увидите:

- Сгенерируется изображение сцены с несколькими разноцветными сферами и плоскостью, освещенными двумя источниками света.
- Сцена будет содержать реалистичные тени и освещение благодаря использованию трассировки лучей.

Дальнейшие улучшения:

- Добавить отражения и преломления для материалов.
- Реализовать дополнительные модели освещения.
- Добавить новые примитивы (плоскости, треугольники).
- Оптимизировать пересечения и добавить ускоряющие структуры данных.

Вывод:

Этот пример демонстрирует, как можно использовать ООП для создания сложных программ, таких как трассировщик лучей. Классы и наследование помогают структурировать код, а полиморфизм позволяет легко расширять функциональность.

Подпишись 👉🏻 @KodduuPython 🤖
Курс Python Data Science: самый быстрый курс готов 😎😎😎

Подпишись 👉🏻 @KodduuPython 🤖
Давайте разработаем сложную программу на Python с использованием объектно-ориентированного программирования (ООП). Мы создадим простую версию интерпретатора языка программирования, который будет включать парсинг, интерпретацию и выполнение кода на нашем собственном мини-языке.


import re
from abc import ABC, abstractmethod

# Определение абстрактного синтаксического узла
class ASTNode(ABC):
@abstractmethod
def evaluate(self, context):
pass

# Узел для числовых значений
class NumberNode(ASTNode):
def __init__(self, value):
self.value = value

def evaluate(self, context):
return self.value

# Узел для переменных
class VariableNode(ASTNode):
def __init__(self, name):
self.name = name

def evaluate(self, context):
return context.get(self.name, 0)

# Узел для бинарных операций
class BinaryOperationNode(ASTNode):
def __init__(self, left, operator, right):
self.left = left
self.operator = operator
self.right = right

def evaluate(self, context):
left_val = self.left.evaluate(context)
right_val = self.right.evaluate(context)
if self.operator == '+':
return left_val + right_val
elif self.operator == '-':
return left_val - right_val
elif self.operator == '*':
return left_val * right_val
elif self.operator == '/':
return left_val / right_val

# Узел для присваивания
class AssignmentNode(ASTNode):
def __init__(self, variable_name, expression):
self.variable_name = variable_name
self.expression = expression

def evaluate(self, context):
value = self.expression.evaluate(context)
context[self.variable_name] = value
return value

# Узел для вывода на экран
class PrintNode(ASTNode):
def __init__(self, expression):
self.expression = expression

def evaluate(self, context):
value = self.expression.evaluate(context)
print(value)
return value

# Парсер кода
class Parser:
def __init__(self, code):
self.tokens = re.findall(r'\w+|[\+\-\*/=()]', code)
self.position = 0

def parse(self):
nodes = []
while self.position < len(self.tokens):
node = self.parse_statement()
nodes.append(node)
return nodes

def parse_statement(self):
if self.tokens[self.position] == 'print':
self.position += 1
expr = self.parse_expression()
return PrintNode(expr)
else:
return self.parse_assignment()

def parse_assignment(self):
var_name = self.tokens[self.position]
self.position += 1
if self.tokens[self.position] == '=':
self.position += 1
expr = self.parse_expression()
return AssignmentNode(var_name, expr)
else:
raise SyntaxError('Ожидалось "="')

def parse_expression(self):
node = self.parse_term()
while self.position < len(self.tokens) and self.tokens[self.position] in ('+', '-'):
op = self.tokens[self.position]
self.position += 1
right = self.parse_term()
node = BinaryOperationNode(node, op, right)
return node

def parse_term(self):
node = self.parse_factor()
while self.position < len(self.tokens) and self.tokens[self.position] in ('*', '/'):
op = self.tokens[self.position]
self.position += 1
right = self.parse_factor()
node = BinaryOperationNode(node, op, right)
return node