Kodduu Python
1.07K subscribers
313 photos
28 videos
189 links
Научись программировать на Python на интересных примерах

Самый быстрый курс https://stepik.org/a/187914
Самый нескучный курс https://stepik.org/a/185238

Во вопросам сотрудничества: @AlexErf
Download Telegram
Давайте рассмотрим другой пример использования нейронных сетей на Python. Мы создадим простую модель для решения задачи бинарной классификации, то есть задачи, где есть два возможных класса или ответа. Мы будем использовать набор данных, который встроен в библиотеку Keras - это набор данных о раке груди из UCI Machine Learning Repository.

python
import numpy as np
import tensorflow.keras as keras

# Загружаем набор данных о раке груди из sklearn
from sklearn.datasets import load_breast_cancer
data = load_breast_cancer()

# Разделяем данные на признаки и целевую переменную
X = data.data
Y = data.target

# Нормализуем данные
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X = sc.fit_transform(X)

# Разбиваем данные на обучающую и тестовую выборку
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.2, random_state = 0)

# Создаем модель
model = keras.models.Sequential([
keras.layers.Dense(16, activation='relu', input_shape=(X_train.shape[1],)),
keras.layers.Dense(1, activation='sigmoid')
])

# Компилируем модель
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# Обучаем модель
model.fit(X_train, Y_train, epochs=50)

# Оцениваем модель
model.evaluate(X_test, Y_test)

Вот что делает этот скрипт:

1. Загружает набор данных о раке груди с помощью встроенной функции load_breast_cancer() из sklearn. Данные разбиваются на признаки (X) и целевую переменную (Y).

2. Нормализует данные с помощью StandardScaler из sklearn. Это приводит все признаки к одному и тому же масштабу.

3. Разделяет данные на обучающий и тестовый наборы.

4. Создает простую нейронную сеть с одним скрытым слоем, содержащим 16 нейронов и функцией активации ReLU, и выходным слоем с одним нейроном и функцией активации sigmoid (что хорошо подходит для бинарной классификации).

5. Компилирует модель с оптимизатором Adam, функцией потерь binary_crossentropy (хорошо подходит для задач бинарной классификации) и метрикой для отслеживания точности.

6. Обучает модель на обучающих данных с использованием 50 эпох.

Прошу прощения за прерывание. Вот продолжение последней строки:

7. Оценивает модель на тестовых данных и выводит потери и точность.

Этот код представляет собой базовый пример использования нейронной сети для задачи бинарной классификации. Помимо этого, в реальных задачах вы можете захотеть добавить больше слоев или нейронов в вашу сеть, настроить параметры оптимизатора, использовать различные функции активации или применять техники, такие как ранняя остановка или отложенное уменьшение скорости обучения, чтобы улучшить производительность вашей модели.
Если вы ищете пример кода для создания нейронной сети без использования библиотек высокого уровня, таких как Keras или PyTorch, вам придется написать больше кода, и он будет сложнее для понимания. Однако это может быть хорошим способом лучше понять, как работают нейронные сети.

Вот пример простейшей нейронной сети с одним скрытым слоем, реализованной на чистом Python:

python
import numpy as np

def sigmoid(x):
return 1.0/(1+ np.exp(-x))

def sigmoid_derivative(x):
return x * (1.0 - x)

class NeuralNetwork:
def __init__(self, x, y):
self.input = x
self.weights1 = np.random.rand(self.input.shape[1],4)
self.weights2 = np.random.rand(4,1)
self.y = y
self.output = np.zeros(self.y.shape)

def feedforward(self):
self.layer1 = sigmoid(np.dot(self.input, self.weights1))
self.output = sigmoid(np.dot(self.layer1, self.weights2))

def backprop(self):
d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output)))
d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1)))

self.weights1 += d_weights1
self.weights2 += d_weights2


X = np.array([[0,0,1],
[0,1,1],
[1,0,1],
[1,1,1]])
y = np.array([[0],[1],[1],[0]])
nn = NeuralNetwork(X,y)

for i in range(1500):
nn.feedforward()
nn.backprop()

print(nn.output)

Этот скрипт создает простую нейронную сеть с одним скрытым слоем и обучает ее с помощью алгоритма обратного распространения ошибки.

1. Функции sigmoid и sigmoid_derivative используются как функции активации и их производные.

2. Класс NeuralNetwork инициализируется с входными данными, весами для двух слоев сети, вектором целевых значений и пустым вектором для вывода сети.

3. Метод feedforward выполняет прямое распространение входного сигнала через сеть и сохраняет вывод.

4. Метод backprop реализует алгоритм обратного распространения ошибки, который корректирует веса сети на основе ошибки между ее текущим и желаемым выходом.

5. Далее мы определяем входные данные и целевые значения, создаем объект нейронной сети и выполняем 1500 итераций прямого распространения и обратного распространения.

6. Наконец, мы выводим полученные предсказания сети.

При выполнении этого кода вы увидите, что сеть учится предсказывать целевые значения на основе входных данных.

Важно отметить, что это простой пример, и его не следует использовать для решения сложных проблем машинного обучения. В реальных задачах рекомендуется использовать библиотеки машинного обучения, такие как TensorFlow, Keras или PyTorch, которые содержат множество оптимизаций и могут работать на GPU, что значительно ускоряет обучение и инференцию.
Давайте создадим простую полносвязную нейронную сеть с помощью библиотеки PyTorch. Эта нейронная сеть будет классифицировать изображения из набора данных MNIST.

python
import torch
from torchvision import datasets, transforms
from torch import nn, optim

# Загружаем данные
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])
trainset = datasets.MNIST('~/.pytorch/MNIST_data/', download=True, train=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)

# Определяем модель
model = nn.Sequential(nn.Linear(784, 128),
nn.ReLU(),
nn.Linear(128, 64),
nn.ReLU(),
nn.Linear(64, 10),
nn.LogSoftmax(dim=1))

# Определяем функцию потерь и оптимизатор
criterion = nn.NLLLoss()
optimizer = optim.SGD(model.parameters(), lr=0.003)

# Обучаем модель
epochs = 5
for e in range(epochs):
running_loss = 0
for images, labels in trainloader:
# Переформатируем images из набора размером (batch_size, 1, 28, 28) в вектор размером (batch_size, 784)
images = images.view(images.shape[0], -1)

optimizer.zero_grad()

output = model(images)
loss = criterion(output, labels)
loss.backward()
optimizer.step()

running_loss += loss.item()
else:
print(f"Training loss: {running_loss/len(trainloader)}")


Вот что делает этот скрипт:

1. Сначала мы загружаем набор данных MNIST с помощью torchvision, нормализуем его и создаем DataLoader.

2. Затем мы определяем модель. В этом случае мы используем полносвязную (или "плотную") нейронную сеть с двумя скрытыми слоями и функцией активации ReLU. Выходной слой использует LogSoftmax для получения вероятностей для каждого класса.

3. Мы определяем функцию потерь (в этом случае, отрицательную логарифмическую вероятность, или NLL) и оптимизатор (SGD - стохастический градиентный спуск).

4. Затем мы обучаем модель за 5 эпох, пройдя по всем изображениям и меткам в trainloader. Мы переформатируем каждое изображение в вектор, затем запускаем его через модель, вычисляем потери, делаем обратный проход и обновляем веса модели.

5. В конце каждой эпохи мы выводим среднюю потерю во время обучения.

Пожалуйста, обратите внимание, что для выполнения этого кода у вас должны быть установлены библиотеки PyTorch и torchvision.

Это пример простой полносвязной нейронной сети, которая может быть использована для классификации изображений. В реальных сценариях использования, вы можете добавить больше слоев, изменить функции активации, добавить dropout слои для предотвращения переобучения и настроить другие параметры модели и процесса обучения, чтобы улучшить производительность вашей модели.
Рассмотрим пример на Python. Допустим, у нас есть список, и мы хотим удалить из него все дубликаты.

Неоптимальный вариант:

python
def remove_duplicates(lst):
result = []
for item in lst:
if item not in result:
result.append(item)
return result

print(remove_duplicates([1, 2, 2, 3, 4, 4, 4, 5, 6, 6, 7]))

В этом примере функция remove_duplicates проходит по каждому элементу списка и проверяет, есть ли он уже в результирующем списке. Если нет, то элемент добавляется. Это работает, но неэффективно, потому что операция item not in result требует прохода по всему списку result на каждой итерации, что делает сложность алгоритма O(n^2).

Оптимизированный вариант:

python
def remove_duplicates(lst):
return list(set(lst))

print(remove_duplicates([1, 2, 2, 3, 4, 4, 4, 5, 6, 6, 7]))

В этом случае мы используем структуру данных set, которая автоматически удаляет все дубликаты. После этого мы просто преобразуем set обратно в список. Этот алгоритм имеет сложность O(n), что значительно быстрее предыдущего варианта, особенно для больших списков.

Однако стоит учесть, что set не сохраняет порядок элементов, так что если порядок важен, этот вариант не подойдет. В этом случае можно использовать dict или collections.OrderedDict (в Python 3.7 и выше порядок вставки элементов сохраняется в dict):

python
def remove_duplicates(lst):
return list(dict.fromkeys(lst))

print(remove_duplicates([1, 2, 2, 3, 4, 4, 4, 5, 6, 6, 7]))

Этот вариант также имеет сложность O(n), но сохраняет порядок элементов.
Вот пример "необычного" кода на Python. Он называется "quine". Quine — это программа, которая выводит свой собственный исходный код. Вот пример простого quine на Python:

python
def quine():
q = 'def quine():\n q = {!r}\n print(q.format(q))\nquine()'
print(q.format(q))

quine()


Вот что делает этот код:

1. Он определяет функцию quine().
2. Внутри этой функции он определяет строку q, которая содержит исходный код функции quine(), где сама строка q представлена в виде {!r}. {!r} — это placeholder для представления строки в виде строки, экранирующей специальные символы и обрамляющей её в кавычки.
3. Функция quine() затем выводит q.format(q), заменяя {!r} на саму строку q, что даёт нам исходный код функции quine().
4. Наконец, он вызывает функцию quine(), чтобы начать всю эту процедуру.

Особенность этого кода в том, что он является самовоспроизводящимся: когда вы его выполняете, он выводит свой собственный исходный код. Это необычная и интересная особенность некоторых программ, которая демонстрирует некоторые из уникальных возможностей языков программирования.
Интересный фильм о технологиях, искусственном интеллекте и сфере digital

Социальная дилемма (2020) - зависимость от социальных сетей возникает не случайно. Популярные приложения манипулируют нами, залезая вглубь подсознания и пользуясь его уязвимостью, о которой многие даже не подозревают. Документальная лента раскрывает тёмную сторону социальных сетей, рассказывая о неоднозначном влиянии информационных технологий.
👍2
QR коды – это двумерные коды, используемые для хранения информации. Они обычно состоят из черных квадратов на белом фоне, которые могут быть прочитаны камерой на смартфоне или специализированным программным обеспечением. Информация в QR кодах может быть текстом, ссылкой на веб-сайт или другими данными.

Чтобы парсить QR коды, нам понадобится использовать библиотеку, которая умеет распознавать эти коды. В Python, одной из популярных библиотек для этого является pyzbar.

Вот простой пример кода, который использует pyzbar и opencv для чтения QR кода из изображения:

python
from pyzbar.pyzbar import decode
import cv2

def decode_qr_code(image_path):
img = cv2.imread(image_path)
decoded_objects = decode(img)
for obj in decoded_objects:
print('Type:', obj.type)
print('Data:', obj.data.decode('utf-8'))

decode_qr_code('path_to_your_qr_code_image.jpg')


В этом коде:
- cv2.imread(image_path) считывает изображение с QR-кодом.
- decode(img) выполняет декодирование QR-кода.
- for obj in decoded_objects: перебирает все обнаруженные на изображении QR-коды (если их больше одного).
- 'Type:', obj.type показывает тип кода (QR-код, штрих-код и т.д.).
- 'Data:', obj.data.decode('utf-8') выводит данные, которые были закодированы в QR-коде.

Обратите внимание, что для работы этого кода у вас должны быть установлены библиотеки pyzbar и opencv. Вы можете установить их с помощью pip:

bash
pip install opencv-python
pip install pyzbar
👍2
QR-коды используют встроенные механизмы коррекции ошибок, основанные на кодах Рида-Соломона, которые позволяют восстановить данные даже при частичном повреждении или загрязнении. Их можно настроить на разные уровни коррекции ошибок: L (7%), M (15%), Q (25%) и H (30%). Более высокий уровень коррекции ошибок означает, что больше информации может быть восстановлено, но это также уменьшает количество информации, которую можно хранить в QR-коде.

Концепция контрольной суммы используется во многих областях информационных технологий для проверки целостности данных. Контрольная сумма - это просто значение, которое вычисляется из набора данных и затем хранится или передается вместе с данными. Когда данные получены или прочитаны, вычисляется новое значение контрольной суммы и сравнивается с оригинальным. Если контрольные суммы совпадают, данные считаются целыми; если нет - это указывает на ошибку или повреждение данных.

Пример простой проверки контрольной суммы на Python:

python
def checksum(data):
return sum(data) % 256

data = [123, 3, 44, 125, 0, 99]
original_checksum = checksum(data)

# Впоследствии, когда мы получим данные, мы можем проверить их целостность:
received_data = [123, 3, 44, 125, 0, 99] # Предположим, это те же данные
received_checksum = checksum(received_data)

if original_checksum == received_checksum:
print("Данные целы")
else:
print("Данные повреждены")


В случае с QR-кодами, механизмы проверки целостности и коррекции ошибок уже встроены в стандарт, и программа, которую вы используете для чтения QR-кода, должна автоматически обрабатывать их.
Для чтения штрих-кода с использованием Python, можно использовать библиотеку под названием Pyzbar. Вот простой код для этой операции:

python
from pyzbar.pyzbar import decode
from PIL import Image

def read_barcode(file):
image = Image.open(file)
result = decode(image)
for barcode in result:
print("Тип штрих-кода: ", barcode.type)
print("Данные штрих-кода: ", barcode.data.decode('utf-8'))

read_barcode('path_to_your_barcode_image.jpg')

В этом коде выполняются следующие действия:

1. Сначала импортируются необходимые библиотеки. Pyzbar используется для распознавания штрих-кода, а PIL (Python Imaging Library) используется для работы с изображениями.

2. Затем определяется функция read_barcode, которая принимает в качестве аргумента путь к файлу изображения.

3. В этой функции изображение открывается с использованием функции Image.open из PIL.

4. Затем функция decode из Pyzbar используется для распознавания штрих-кодов на изображении. Она возвращает список найденных штрих-кодов.

5. Далее мы перебираем все найденные штрих-коды и выводим их тип и данные.

Пожалуйста, обратите внимание, что этот код предназначен для чтения штрих-кодов из изображений. Если вам нужно считывать штрих-коды в реальном времени (например, с использованием камеры), вам потребуется другой подход, вероятно, с использованием библиотеки OpenCV для работы с видео.
Для чтения штрих-кодов в реальном времени, можно использовать библиотеку OpenCV вместе с Pyzbar. Вот базовый код для чтения штрих-кодов с веб-камеры:

python
import cv2
from pyzbar.pyzbar import decode

cap = cv2.VideoCapture(0) # открывает камеру по умолчанию

while True:
ret, frame = cap.read() # читает кадр с камеры
for barcode in decode(frame):
print("Тип штрих-кода: ", barcode.type)
print("Данные штрих-кода: ", barcode.data.decode('utf-8'))
(x, y, w, h) = barcode.rect # координаты штрих-кода
cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) # обводим штрих-код зеленым прямоугольником

cv2.imshow('Camera', frame) # отображаем кадр на экране

if cv2.waitKey(1) & 0xFF == ord('q'): # если нажать 'q', то цикл завершается
break

cap.release() # освобождаем ресурс камеры
cv2.destroyAllWindows() # закрываем все окна

В этом коде делаются следующие вещи:

1. Сначала импортируются необходимые библиотеки: cv2 (OpenCV) для работы с изображениями и видео, и pyzbar.pyzbar для распознавания штрих-кодов.

2. Затем открывается поток видео с камеры с помощью функции cv2.VideoCapture.

3. В бесконечном цикле читается каждый кадр с камеры, и для каждого кадра применяется функция decode для поиска штрих-кодов.

4. Если на кадре найден штрих-код, его данные выводятся на экран, а также на изображении рисуется прямоугольник вокруг штрих-кода.

5. Полученный кадр с возможным штрих-кодом отображается на экране.

6. Если пользователь нажимает 'q', то цикл завершается, и ресурсы, занятые камерой, освобождаются.

Обратите внимание, что данный код не содержит обработку исключений и может не работать корректно, если камера не доступна или возникают другие проблемы. В реальном приложении следует добавить соответствующую обработку исключений.
🥰2
Простой блокчейн может быть реализован на Python так:

python
import hashlib
import time

class Block:
def __init__(self, index, previous_hash, timestamp, data, hash):
self.index = index
self.previous_hash = previous_hash
self.timestamp = timestamp
self.data = data
self.hash = hash


def calculate_hash(index, previous_hash, timestamp, data):
value = str(index) + str(previous_hash) + str(timestamp) + str(data)
return hashlib.sha256(value.encode('utf-8')).hexdigest()


def create_genesis_block():
return Block(0, "0", int(time.time()), "Genesis Block", calculate_hash(0, "0", int(time.time()), "Genesis Block"))


def create_new_block(previous_block, data):
index = previous_block.index + 1
timestamp = int(time.time())
hash = calculate_hash(index, previous_block.hash, timestamp, data)
return Block(index, previous_block.hash, timestamp, data, hash)


# создаем блокчейн и добавляем генезис блок
blockchain = [create_genesis_block()]
previous_block = blockchain[0]

# добавляем блоки в блокчейн
num_blocks_to_add = 10
for i in range(0, num_blocks_to_add):
block_to_add = create_new_block(previous_block, f"Block #{i} has been added to the blockchain!")
blockchain.append(block_to_add)
previous_block = block_to_add
print(f"Block #{block_to_add.index} has been added to the blockchain!")
print(f"Hash: {block_to_add.hash}\n")

Объяснение:

1. Этот код определяет класс Block, который представляет собой блок в блокчейне. У каждого блока есть свой индекс, хеш предыдущего блока, временная метка, данные и собственный хеш.

2. calculate_hash - это функция, которая используется для создания хеша для блока. Она использует функцию sha256 из модуля hashlib для создания хеша из строкового представления индекса блока, хеша предыдущего блока, временной метки и данных.

3. create_genesis_block - это функция, которая создает первый блок в блокчейне, называемый "генезис блоком". Этот блок обычно имеет заранее заданные значения, и у него нет предыдущего блока.

4. create_new_block - это функция, которая создает новый блок на основе предыдущего блока и некоторых данных.

5. Наконец, код создает блокчейн, добавляет генезис блок, а затем добавляет еще 10 блоков, каждый из которых ссылается на предыдущий блок.

Основная идея блокчейна заключается в том, что каждый блок связан с предыдущим блоком путем включения хеша предыдущего блока в свои данные. Это создает цепочку блоков, которую очень трудно изменить без заметных последствий, поскольку изменение информации в блоке изменит его хеш. Поскольку этот хеш включен в следующий блок, это приведет к изменению хеша следующего блока, и так далее по цепочке. Это обеспечивает прозрачность и защиту от подделок в блокчейн системах.

Важно отметить, что этот код является упрощенной версией блокчейна и не включает многие важные особенности реальных блокчейн систем, такие как механизмы консенсуса (например, Proof of Work или Proof of Stake), системы транзакций и управления данными, а также различные меры безопасности. Однако он демонстрирует базовые принципы работы блокчейна.

Подпишись 👉🏻 @KodduuPython 🤖
👍6
Предположим, что у нас есть система, которая отслеживает приход и уход сотрудников, и мы хотим использовать блокчейн, чтобы гарантировать, что эта информация не может быть изменена. Ниже представлен код на Python, который демонстрирует это:

python
import hashlib
import time

class Block:
def __init__(self, index, previous_hash, timestamp, data, hash):
self.index = index
self.previous_hash = previous_hash
self.timestamp = timestamp
self.data = data
self.hash = hash

def calculate_hash(index, previous_hash, timestamp, data):
value = str(index) + str(previous_hash) + str(timestamp) + str(data)
return hashlib.sha256(value.encode('utf-8')).hexdigest()

def create_genesis_block():
return Block(0, "0", int(time.time()), {"employee_id": "0", "action": "Genesis Block", "time": int(time.time())}, calculate_hash(0, "0", int(time.time()), "Genesis Block"))

def create_new_block(previous_block, data):
index = previous_block.index + 1
timestamp = int(time.time())
hash = calculate_hash(index, previous_block.hash, timestamp, data)
return Block(index, previous_block.hash, timestamp, data, hash)

blockchain = [create_genesis_block()]
previous_block = blockchain[0]

def log_event(employee_id, action):
data = {
"employee_id": employee_id,
"action": action,
"time": int(time.time())
}
block_to_add = create_new_block(previous_block, data)
blockchain.append(block_to_add)
print(f"Employee #{data['employee_id']} has {data['action']} at {data['time']}")
return block_to_add

# Пример использования:

previous_block = log_event("123", "entered office")
previous_block = log_event("123", "left office")
previous_block = log_event("456", "entered office")

В этом коде функция log_event добавляет новый блок в блокчейн с данными о событии: идентификатор сотрудника, действие и время. Благодаря использованию блокчейна, эта информация нельзя изменить без изменения всех последующих блоков.

В данном примере кода предполагается, что идентификатор сотрудника и действие вводятся вручную. В реальной системе они, вероятно, будут получены автоматически, например, через систему распознавания лиц или бейджи доступа.
3👍2
В зависимости от модели дрона, который вы хотите управлять, будут различные библиотеки и API, которые вы можете использовать. Однако, вот простой пример кода, который бы использовался для управления дроном с помощью библиотеки python-ardrone.

Эта библиотека специально разработана для управления дронами Parrot AR.Drone:

python
import time
from ardrone import ARDrone

# Инициализируем класс ARDrone
drone = ARDrone()

# Стартуем двигатели дрона
drone.takeoff()

# Пауза, чтобы дать дрону время на поднятие в воздух
time.sleep(3)

# Дрон движется вперед
drone.move_forward()
time.sleep(1)

# Дрон поворачивает налево
drone.turn_left()
time.sleep(1)

# Дрон движется назад
drone.move_backward()
time.sleep(1)

# Дрон поворачивает направо
drone.turn_right()
time.sleep(1)

# Дрон приземляется
drone.land()
time.sleep(1)

# Отключаем двигатели
drone.halt()

В этом примере кода дрон взлетает, движется вперед, поворачивает налево, движется назад, поворачивает направо, а затем приземляется. Между каждым действием вставляется пауза, чтобы дать дрону время для выполнения предыдущего действия.

Помните, что взаимодействие с реальным оборудованием всегда включает риск, и вы должны быть осторожны, чтобы избежать повреждения оборудования или окружающей среды. Убедитесь, что вы удовлетворяете всем необходимым требованиям безопасности перед запуском кода, который управляет физическим оборудованием, как дрон.

Подпишись 👉🏻 @KodduuPython 🤖
👍3🔥2
Обнаружение и отслеживание людей в реальном времени является сложной задачей, которая обычно решается с использованием алгоритмов компьютерного зрения и машинного обучения. OpenCV - это библиотека компьютерного зрения, которая включает в себя множество функций, которые можно использовать для обнаружения и отслеживания объектов, включая людей.

Ниже представлен пример кода, который может быть использован для обнаружения людей с использованием HOG (Histogram of Oriented Gradients) дескриптора и SVM (Support Vector Machines) классификатора, включенных в OpenCV. Затем можно было бы использовать обнаруженное положение человека для управления дроном.

python
import cv2
from droneapi import Drone

# Инициализируем дрон
drone = Drone()

# Инициализируем детектор людей
HOGCV = cv2.HOGDescriptor()
HOGCV.setSVMDetector(cv2.HOGDescriptor_getDefaultPeopleDetector())

while True:
# Дрон делает снимок
frame = drone.capture_image()

# Обработка изображения с помощью OpenCV и обнаружение людей
boxes, weights = HOGCV.detectMultiScale(frame, winStride=(4, 4), padding=(8, 8), scale=1.05)

# Отслеживание первого обнаруженного человека (если есть)
if len(boxes) > 0:
x, y, w, h = boxes[0]

# Простая стратегия следования: если человек слева от центра - поворачиваем налево,
# если справа - поворачиваем направо
center_x = x + w / 2
if center_x < frame.shape[1] / 2:
drone.turn_left()
else:
drone.turn_right()


Заметьте, что это очень простой пример того, как можно было бы отслеживать человека с помощью дрона. В реальном мире вы, вероятно, столкнетесь со многими проблемами, которые не рассматриваются в этом примере, включая но не ограничиваясь ошибками обнаружения, проблемами с навигацией и управлением дроном, препятствиями в пути дрона, и так далее.

Также учтите, что это всего лишь демонстрация, что можно сделать с Python и OpenCV, и в действительности вам потребуется больше кода и возможностей для того, чтобы создать дрон, который может надежно отслеживать человека в реальном времени
3
Рисование по точкам в виде текста можно осуществить с помощью библиотеки matplotlib. Для начала нам потребуется определить координаты каждой точки, которые формируют буквы надписи "Dart Vader".

Вот пример, как это можно сделать:

python
import matplotlib.pyplot as plt

# Определение координат для надписи "Dart Vader"
# Пожалуйста, замените на реальные координаты
dart_vader_points = {
'D': [(1, 3), (1, 2), (1, 1), (2, 3), (2, 1), (3, 3), (3, 1), (4, 2)],
'a': [(6, 2), (6, 1), (7, 3), (7, 1), (8, 2)],
'r': [(10, 3), (10, 2), (10, 1), (11, 3)],
't': [(13, 3), (13, 2), (13, 1), (14, 3)],
'V': [(17, 3), (18, 2), (19, 1), (20, 2), (21, 3)],
'a2': [(23, 2), (23, 1), (24, 3), (24, 1), (25, 2)],
'd': [(27, 3), (27, 2), (27, 1), (28, 3), (29, 3), (29, 2), (29, 1)],
'e': [(31, 3), (31, 2), (31, 1), (32, 3), (32, 1), (33, 3), (33, 2)],
'r2': [(35, 3), (35, 2), (35, 1), (36, 3)]
}

fig, ax = plt.subplots()

# Рисуем каждую точку
for letter, points in dart_vader_points.items():
for point in points:
ax.plot(*point, 'bo')

ax.set_ylim(0, 4)
ax.set_xlim(0, 40)
ax.set_aspect('equal')

plt.gca().invert_yaxis()
plt.show()


Координаты в этом примере являются произвольными и нужно заменить их на реальные координаты для создания надписи "Dart Vader". Это могло бы быть сделано вручную, но это потребует много времени и терпения.

Помимо этого, для создания более сложных рисунков можно было бы использовать алгоритмы для автоматического генерирования точек по шрифтам или изображениям.
2
Можно использовать библиотеку PIL (Pillow) для чтения пикселей изображения и преобразования их в набор точек.

Возьмем пример с изображением.

python
from PIL import Image
import matplotlib.pyplot as plt

# Открыть изображение и преобразовать в черно-белое
image = Image.open('dart_vader.png').convert('L')

# Преобразовать изображение в массив пикселей
pixels = list(image.getdata())

# Создать пустой список для хранения координат точек
points = []

# Пройтись по всем пикселям изображения
for y in range(image.height):
for x in range(image.width):
# Получить интенсивность текущего пикселя (0 - черный, 255 - белый)
intensity = pixels[y * image.width + x]

# Если интенсивность ниже определенного порога, добавить координаты в список точек
if intensity < 128:
points.append((x, y))

# Отобразить точки на графике
plt.figure(figsize=(10,10))
plt.scatter(*zip(*points), s=1, color='black')
plt.gca().invert_yaxis()
plt.show()


В этом примере мы открываем изображение, преобразуем его в черно-белый формат, а затем преобразуем в массив пикселей. Затем мы проходим по каждому пикселю и, если его интенсивность (или яркость) ниже определенного порога, мы добавляем его координаты в список точек. Наконец, мы отображаем эти точки на графике.

Помните, что этот код будет работать только если файл изображения ('dart_vader.png') находится в той же директории, что и Python скрипт. Измените имя файла изображения на имя вашего файла. Вам также может потребоваться установить библиотеку Pillow, если она еще не установлена (это можно сделать с помощью команды pip install pillow в командной строке).
2
Задержка сигнала между Землей и Марсом может быть от 4 до 24 минут в обоих направлениях, в зависимости от их текущего положения друг относительно друга. По этой причине марсоходы обычно используют некую форму автономной навигации, которая позволяет им избегать препятствий без непосредственного вмешательства операторов на Земле.

Но давайте представим, что вы должны управлять марсоходом напрямую и вам нужно учитывать задержку. Предположим, что ваш MarsRoverAPI имеет методы turn_steering_wheel(angle) и press_gas(amount), где angle это угол поворота в градусах (от -45 до 45), а amount это сколько газа дать (от 0 до 1).

Мы будем использовать asyncio библиотеку для симуляции временной задержки.

python
import asyncio
import MarsRoverAPI # предположим, что такая библиотека существует

class MarsRoverController:

def __init__(self, signal_delay):
self.signal_delay = signal_delay
self.rover = MarsRoverAPI.Rover()

async def turn(self, angle):
print(f'Sending turn signal with angle {angle}...')
await asyncio.sleep(self.signal_delay) # Wait for the signal to reach Mars
self.rover.turn_steering_wheel(angle)

async def press_gas(self, amount):
print(f'Sending gas signal with amount {amount}...')
await asyncio.sleep(self.signal_delay) # Wait for the signal to reach Mars
self.rover.press_gas(amount)

async def main():
# Assume signal delay is 10 minutes
signal_delay = 10 * 60

controller = MarsRoverController(signal_delay)

# send some commands
await controller.turn(30)
await controller.press_gas(0.5)

# Run the program
asyncio.run(main())


Обратите внимание, что этот код просто симулирует отправку команд с задержкой. В реальной ситуации вам, скорее всего, придется планировать движение марсохода заранее, учитывая известные препятствия, и затем отправлять эти планы на марсоход, чтобы он мог их выполнять автономно.

Вы также можете захотеть включить в свою программу обратную связь от марсохода, чтобы управлять его действиями на основе полученных данных о его окружающем пространстве.
Для вычисления текущего времени на планете Марс, нам потребуется знать отношение между временем на Земле и Марсе. Наиболее распространенным методом является использование отношения средних солнечных дней на Земле и Марсе.

Вот пример кода на Python, который вычисляет текущее время на планете Марс с использованием модуля datetime:

python
import datetime

# Задаем отношение средних солнечных дней на Земле и Марсе
mars_solar_day = 1.027491252
earth_solar_day = 1

# Получаем текущую дату и время на Земле
current_datetime = datetime.datetime.now()

# Вычисляем количество прошедших секунд на Земле
earth_seconds = (current_datetime.hour * 3600) + (current_datetime.minute * 60) + current_datetime.second

# Вычисляем количество прошедших секунд на Марсе
mars_seconds = earth_seconds * (mars_solar_day / earth_solar_day)

# Конвертируем количество секунд на Марсе в формат времени
mars_time = datetime.timedelta(seconds=mars_seconds)

print(f"Текущее время на Марсе: {mars_time}")


Обратите внимание, что этот код использует среднее отношение длительности солнечных дней на Марсе и Земле. Фактическое время на Марсе может отличаться из-за различий в продолжительности солнечных дней и других факторов. Этот код демонстрирует примерную оценку текущего времени на Марсе на основе отношения средних солнечных дней.
1. Инкапсуляция - это концепция, которая заключается в объединении данных и методов, которые работают с этими данными, в одном объекте и скрытии деталей реализации от пользователя.

python
class BankAccount:
def __init__(self):
self.__balance = 0 # приватное свойство

def deposit(self, amount): # метод для внесения депозита
self.__balance += amount
return self.__balance

def withdraw(self, amount): # метод для снятия денег
if amount > self.__balance:
return "Insufficient funds"
self.__balance -= amount
return self.__balance


В этом примере, BankAccount класс инкапсулирует свойства и методы, которые связаны с банковским счетом. Детали реализации, такие как свойство __balance, скрыты от пользователя. Методы deposit и withdraw предоставляют контролируемый доступ к этим данным.
2. Наследование - это концепция, которая позволяет создать новый класс на основе существующего класса. Новый класс наследует все свойства и методы родительского класса, но также может добавлять или переопределять их.

python
class Vehicle:
def __init__(self, make, model):
self.make = make
self.model = model

def print_details(self):
print(f"Manufacturer: {self.make}")
print(f"Model: {self.model}")

class Car(Vehicle):
def __init__(self, make, model, year):
super().__init__(make, model)
self.year = year

def print_details(self):
super().print_details()
print(f"Year: {self.year}")

car = Car("Toyota", "Camry", 2020)
car.print_details()


В этом примере Car является подклассом Vehicle и наследует свойства и методы Vehicle. Однако Car также добавляет новое свойство year и переопределяет метод print_details().
👍1
3. Полиморфизм - это концепция, которая позволяет использовать единый интерфейс для различных типов данных. Это означает, что разные объекты могут применять один и тот же метод, но выполнять его по-разному.

python
class Dog:
def sound(self):
return "Woof!"

class Cat:
def sound(self):
return "Meow!"

def make_sound(animal):
print(animal.sound())

dog = Dog()
cat = Cat()

make_sound(dog) # выводит: Woof!
make_sound(cat) # выводит: Meow!


В этом примере Dog и Cat классы оба имеют метод sound(), но реализуют его по-разному. Функция make_sound(animal) может принимать любой объект, который имеет метод sound(), и вызывать этот метод. Это и есть полиморфизм - один и тот же интерфейс (sound()) используется для объектов разных типов (Dog и Cat).
👍1