День семьсот двадцать четвёртый. #MoreEffectiveCSharp
20. Учитывайте, Что События Усиливают Связанность Объектов во Время Выполнения
Кажется, что события предоставляют способ полностью отделить ваш класс от классов, которые он должен уведомлять. Вы определяете тип события и позволяете подписываться на него. Внутри вашего класса вы вызываете событие. Ваш класс ничего не знает о подписчиках и не налагает ограничений на них. Код можно расширить, создавая любое необходимое поведение при возникновении этих событий. Однако не всё так просто.
Начнём с того, что некоторые типы аргументов событий содержат флаги состояния, которые предписывают вашему классу выполнять определённые операции.
Во время выполнения возникает ещё одна форма связи между источником события и подписчиками. Источник содержит ссылку на делегат, который предоставляет подписчик. Время жизни объекта подписчика теперь будет соответствовать времени жизни объекта источника. Источник будет вызывать обработчик подписчика всякий раз, когда происходит событие. Но это не должно продолжаться после удаления подписчика. То есть подписчикам на события необходимо реализовать паттерн Disposable и отписываться от события в методе Dispose(). В противном случае подписчики продолжат существовать, поскольку в источнике будут ссылки на их делегаты.
Это еще один случай, когда связывание во время выполнения может вам дорого обойтись несмотря на то, что связь кажется более слабой. Связь на основе событий ослабляет статическую связь между типами, но за счет более тесной связи между источником события и подписчиками во время выполнения.
Вы должны учесть эти проблемы в своем дизайне, чтобы использовать события.
Источник: Bill Wagner “More Effective C#”. – 2nd ed. Глава 20.
20. Учитывайте, Что События Усиливают Связанность Объектов во Время Выполнения
Кажется, что события предоставляют способ полностью отделить ваш класс от классов, которые он должен уведомлять. Вы определяете тип события и позволяете подписываться на него. Внутри вашего класса вы вызываете событие. Ваш класс ничего не знает о подписчиках и не налагает ограничений на них. Код можно расширить, создавая любое необходимое поведение при возникновении этих событий. Однако не всё так просто.
Начнём с того, что некоторые типы аргументов событий содержат флаги состояния, которые предписывают вашему классу выполнять определённые операции.
public class WorkerEngine {
public event
EventHandler<WorkerEventArgs> OnProgress;
public void DoLotsOfStuff() {
for (int i = 0; i < 100; i++) {
SomeWork();
var args = new WorkerEventArgs();
args.Percent = i;
OnProgress?.Invoke(this, args);
if (args.Cancel) return;
}
}
private void SomeWork(){…}
}
Теперь все подписчики на это событие связаны. Если один подписчик запросит отмену операции, установив Cancel в true, другой может отменить это. Таким образом, последний подписчик в цепочке может переопределить действие любого предыдущего. Невозможно заставить иметь только одного подписчика, и нет способа гарантировать, что делегат какого-то из подписчиков будет выполнен последним. Вы можете изменить аргументы события, чтобы гарантировать, что после установки флага отмены ни один подписчик не сможет его выключить:public class WorkerEventArgs : EventArgs {
public int Percent { get; set; }
public bool Cancel { get; private set; }
public void RequestCancel() {
Cancel = true;
}
}
Это изменение сработает в этом случае, но так можно сделать не всегда. Если вам нужно убедиться, что есть ровно один подписчик, придётся выбрать другой способ связи классов. Например, определить интерфейс и вызывать метод интерфейса вместо события. Или запрашивать делегат подписчика в качестве параметра метода. Затем этот единственный подписчик может решить, хочет ли он поддерживать несколько подписчиков и как организовать семантику запросов на отмену.Во время выполнения возникает ещё одна форма связи между источником события и подписчиками. Источник содержит ссылку на делегат, который предоставляет подписчик. Время жизни объекта подписчика теперь будет соответствовать времени жизни объекта источника. Источник будет вызывать обработчик подписчика всякий раз, когда происходит событие. Но это не должно продолжаться после удаления подписчика. То есть подписчикам на события необходимо реализовать паттерн Disposable и отписываться от события в методе Dispose(). В противном случае подписчики продолжат существовать, поскольку в источнике будут ссылки на их делегаты.
Это еще один случай, когда связывание во время выполнения может вам дорого обойтись несмотря на то, что связь кажется более слабой. Связь на основе событий ослабляет статическую связь между типами, но за счет более тесной связи между источником события и подписчиками во время выполнения.
Вы должны учесть эти проблемы в своем дизайне, чтобы использовать события.
Источник: Bill Wagner “More Effective C#”. – 2nd ed. Глава 20.
День семьсот двадцать пятый. #Оффтоп
Вы Всё Ещё не Пишете Тесты?
Редкий пост с моими собственными мыслями, без источника. Мысли предельно примитивные, поэтому не ругайте строго.
Я всегда ненавидел писать тесты. Думаю, я далеко не одинок в этом. И на работе у нас не то, чтобы это обязательно (да, я чувствую ваше осуждение). Поэтому тесты пишутся по остаточному принципу, когда есть время (а его почти никогда нет). Кроме того, некоторые читатели моего канала знают, что мне приходится поддерживать ещё классический ASP, а там с тестами примерно никак (хотя, есть мною с нуля написанная система тестов основных функций). Поэтому и практики особой у меня в этом деле не было.
Но недавние события заставили меня взглянуть на тесты совсем по-другому. Нет, тут не будет ничего нового для более-менее опытных разработчиков. Думаю, это смогли ощутить на себе почти все, кто писал тесты на свой (или чужой) код. Просто личная история, подтверждение теории практикой.
1. Тесты помогают найти ошибки
У нас на сайте есть общедоступная статистика. Некоторые отчёты доступны года с 2003го, другие появились позже. Есть несколько предустановленных периодов, которые пользователь может выбрать для удобства, чтобы не устанавливать даты вручную: предыдущая неделя, предыдущий месяц, квартал, год, год-до-текущей-даты и т.п. Собственно, написан метод (не мной), которому передаётся выбранный период (например, предыдущий месяц) и сроки доступности отчёта, а выдаётся дата начала и дата окончания периода. Однако период передаётся в виде 2х параметров: тип периода (день, неделя, месяц, квартал, год) и количество периодов. То есть используется метод всегда с количеством 1 (предыдущий), но теоретически можно передавать и другое число. Кроме того, результирующие даты ограничиваются сроком доступности отчёта. Например, если запрошен отчёт за предыдущие 2 года, а доступен он только за год, то дата начала берётся как первый день доступности отчёта. Аналогично с датой окончания.
Получил тикет, что неверно выбирается предыдущий квартал. Метод написан осенью, а сейчас вылезло, что 4й квартал 2020го начинается не с октября, а с сентября. Простейшая опечатка. В логике поставлен не 10й месяц, а 9й. Остальная логика на первый взгляд казалась правильной, но какой-то странной. Поэтому я решил всё-таки написать серию тестов. Так вот, поскольку метод использовался с количеством периодов равным 1, он чуть ли не в половине случаев неверно рассчитывал даты, если задать другое количество периодов. Я в итоге нашёл 3 или 4 ошибки в расчётах. Даже в такой вроде бы не самой сложной логике!
2. Покрытие тестами реально повышает уверенность в коде
У вас бывало так, что перед релизом вроде всё работает, но всё равно терзает какое-то странное чувство, что что-то не так? Тесты позволяют избавиться от этого чувства. В методе, который я описал выше, я, конечно, изменил не только 9й месяц на 10й. Я исправил примерно четверть его кода. Но из-за наличия тестов я на 100 (хорошо, на 99) процентов уверен, что теперь он работает правильно.
Вы Всё Ещё не Пишете Тесты?
Редкий пост с моими собственными мыслями, без источника. Мысли предельно примитивные, поэтому не ругайте строго.
Я всегда ненавидел писать тесты. Думаю, я далеко не одинок в этом. И на работе у нас не то, чтобы это обязательно (да, я чувствую ваше осуждение). Поэтому тесты пишутся по остаточному принципу, когда есть время (а его почти никогда нет). Кроме того, некоторые читатели моего канала знают, что мне приходится поддерживать ещё классический ASP, а там с тестами примерно никак (хотя, есть мною с нуля написанная система тестов основных функций). Поэтому и практики особой у меня в этом деле не было.
Но недавние события заставили меня взглянуть на тесты совсем по-другому. Нет, тут не будет ничего нового для более-менее опытных разработчиков. Думаю, это смогли ощутить на себе почти все, кто писал тесты на свой (или чужой) код. Просто личная история, подтверждение теории практикой.
1. Тесты помогают найти ошибки
У нас на сайте есть общедоступная статистика. Некоторые отчёты доступны года с 2003го, другие появились позже. Есть несколько предустановленных периодов, которые пользователь может выбрать для удобства, чтобы не устанавливать даты вручную: предыдущая неделя, предыдущий месяц, квартал, год, год-до-текущей-даты и т.п. Собственно, написан метод (не мной), которому передаётся выбранный период (например, предыдущий месяц) и сроки доступности отчёта, а выдаётся дата начала и дата окончания периода. Однако период передаётся в виде 2х параметров: тип периода (день, неделя, месяц, квартал, год) и количество периодов. То есть используется метод всегда с количеством 1 (предыдущий), но теоретически можно передавать и другое число. Кроме того, результирующие даты ограничиваются сроком доступности отчёта. Например, если запрошен отчёт за предыдущие 2 года, а доступен он только за год, то дата начала берётся как первый день доступности отчёта. Аналогично с датой окончания.
Получил тикет, что неверно выбирается предыдущий квартал. Метод написан осенью, а сейчас вылезло, что 4й квартал 2020го начинается не с октября, а с сентября. Простейшая опечатка. В логике поставлен не 10й месяц, а 9й. Остальная логика на первый взгляд казалась правильной, но какой-то странной. Поэтому я решил всё-таки написать серию тестов. Так вот, поскольку метод использовался с количеством периодов равным 1, он чуть ли не в половине случаев неверно рассчитывал даты, если задать другое количество периодов. Я в итоге нашёл 3 или 4 ошибки в расчётах. Даже в такой вроде бы не самой сложной логике!
2. Покрытие тестами реально повышает уверенность в коде
У вас бывало так, что перед релизом вроде всё работает, но всё равно терзает какое-то странное чувство, что что-то не так? Тесты позволяют избавиться от этого чувства. В методе, который я описал выше, я, конечно, изменил не только 9й месяц на 10й. Я исправил примерно четверть его кода. Но из-за наличия тестов я на 100 (хорошо, на 99) процентов уверен, что теперь он работает правильно.
День семьсот двадцать шестой. #ЗаметкиНаПолях
Как Работает Git. Начало
Определение Git в Википедии - распределённая система контроля версий. То есть мало того, что Git делает то, что делают другие системы контроля версий (такие как Subversion), он делает это распределённым способом.
Это довольно сложно понять сразу, поэтому уберём один слой – распределённость. Представим, что в мире есть только один компьютер и на нём есть репозиторий. Таким образом, Git становится просто системой контроля версий. Однако это тоже сложное понятие. Оно включает в себя такие вещи, как история, ветки, слияния… Упрощаем дальше. Забудем про ветки, историю и т.п. Теперь это можно назвать примитивным трекером контента (stupid content tracker – определение Git из документации). Потому что это всё, что он делает - отслеживает контент, файлы или каталоги. Но давайте забудем и об отслеживании контента. Посмотрим на самую суть, основную идею. И на самом деле Git – это просто карта, которая сопоставляет ключи со значениями.
Значения - это просто любая последовательность байт, например, содержимое текстового или даже двоичного файла. Для ключа Git вычисляет хэш значения с помощью алгоритма SHA‑1. У каждого объекта в репозитории есть собственный хэш-ключ. SHA‑1 представляет собой последовательность из 40 шестнадцатеричных цифр, например,
Хранение
Теперь посмотрите в папку с любым репозиторием Git. В ней есть скрытая папка
И точно так же хранятся все коммиты. Коммит – это просто текстовый файл, хранящийся в репозитории. Его так же можно посмотреть через
Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
Как Работает Git. Начало
Определение Git в Википедии - распределённая система контроля версий. То есть мало того, что Git делает то, что делают другие системы контроля версий (такие как Subversion), он делает это распределённым способом.
Это довольно сложно понять сразу, поэтому уберём один слой – распределённость. Представим, что в мире есть только один компьютер и на нём есть репозиторий. Таким образом, Git становится просто системой контроля версий. Однако это тоже сложное понятие. Оно включает в себя такие вещи, как история, ветки, слияния… Упрощаем дальше. Забудем про ветки, историю и т.п. Теперь это можно назвать примитивным трекером контента (stupid content tracker – определение Git из документации). Потому что это всё, что он делает - отслеживает контент, файлы или каталоги. Но давайте забудем и об отслеживании контента. Посмотрим на самую суть, основную идею. И на самом деле Git – это просто карта, которая сопоставляет ключи со значениями.
Значения - это просто любая последовательность байт, например, содержимое текстового или даже двоичного файла. Для ключа Git вычисляет хэш значения с помощью алгоритма SHA‑1. У каждого объекта в репозитории есть собственный хэш-ключ. SHA‑1 представляет собой последовательность из 40 шестнадцатеричных цифр, например,
239982efa3b9bb5cf84e1b8a9f188025432e789e. Для получения хэша значения используется команда git hash-object.Хранение
Теперь посмотрите в папку с любым репозиторием Git. В ней есть скрытая папка
.git, которая и хранит репозиторий. Зайдите в папку .git/objects. Пока не обращайте внимания на папки init и pack. Заметьте, что остальные папки содержат первые 2 символа хэша, а файлы внутри этих папок названы оставшимися 38 символами. Для объекта выше это будет папка 23, файл 9982efa3b9bb5cf84e1b8a9f188025432e789e. Этот файл содержит сжатое значение. Значение можно посмотреть с помощью команды git cat-file, передав ей хэш. Параметр -t выдаст нам тип объекта (в данном случае blob), а параметр -p распакует и выдаст содержимое файла.И точно так же хранятся все коммиты. Коммит – это просто текстовый файл, хранящийся в репозитории. Его так же можно посмотреть через
git cat-file. Только, если передать параметр -t, то результатом будет commit. git cat-file 1177e23 -pПомимо данных об авторе, времени и сообщении лога, коммит содержит хэш ещё одного объекта типа tree. В Git
tree be4d42cd6ecc95e9fa5bc3e029bf28bb263104c0
author S.Benzenko <…> 1606106642 +0300
committer S.Benzenko <…> 1606106642 +0300
Initial commit
blob представляет файл, а tree - папку. Коммит указывает на корень проекта. Так же, как и всё остальное, tree – это текстовый файл, который содержит список хэшей файлов и папок, их имена, а также цифровое представление прав доступа к ним. git cat-file be4d42cd -pПри этом Git хранит только содержимое файла. Если несколько файлов имеют одинаковое содержимое (т.е. одинаковый хэш), реально храниться в репозитории содержимое будет только один раз в объекте
100644 tree 3ee7d56f… folder1
100644 blob 239982ef… file1.txt
blob с этим хэшем, но несколько объектов tree будут ссылаться этот объект blob и хранить разные имена этих файлов. Например, посмотрим содержимое папки folder1:git cat-file 3ee7d56 -pЗдесь два файла
100644 blob 361ad437… README.md
100644 blob 239982ef… samefile1.txt
file1.txt и samefile1.txt имеют одинаковое содержимое, поэтому хранятся, как один blob объект с хэшем 239982ef…. Имена файлов хранятся в объектах tree be4d42cd (корень) и 3ee7d56 (папка folder1).Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
День семьсот двадцать седьмой. #ЗаметкиНаПолях
Как Работает Git. Продолжение
Начало
Версии
Посмотрим, что же из себя представляют версии. Любой коммит, кроме первого, помимо ссылки на tree (хэша) содержит ссылку
Посмотрим на упрощённую объектную модель Git (см. рисунок ниже). Итак, у нас есть структура, в которой одни объекты содержат данные (
В нашем проекте есть файл
Во втором коммите
Продолжение следует...
Источник: https://app.pluralsight.com/library/courses/how-git-works
Как Работает Git. Продолжение
Начало
Версии
Посмотрим, что же из себя представляют версии. Любой коммит, кроме первого, помимо ссылки на tree (хэша) содержит ссылку
parent – предыдущий коммит.git cat-file 25087999 -pНовый коммит хранит ссылку на предыдущий (
tree 6ee02ade…
parent 1177e235…
author S. Benzenko <…> 1606107663 +0300
committer S. Benzenko <…> 1606107663 +0300
Second commit
1177e23), а также ссылку на новый корень проекта (tree) - 6ee02ade (см. рисунок ниже). Однако, если посмотреть, что хранит новый корень, то там будут ссылки на изменённые в этом коммите файлы, а также ссылка на объект tree из предыдущего коммита, поскольку эти объекты не менялись. Таким образом, каждый коммит содержит только изменения относительно предыдущего. А если вы храните огромный файл, и меняете в нём лишь небольшую часть, Git может выполнить несколько оптимизаций, чтобы не хранить этот большой файл дважды. Вы можете посмотреть размер репозитория с помощью команды git count-objects.Посмотрим на упрощённую объектную модель Git (см. рисунок ниже). Итак, у нас есть структура, в которой одни объекты содержат данные (
blob) – аналоги файлов в файловой системе, другие объекты (tree) – аналоги папок – содержат ссылки на объекты blob и tree. Получается древовидная структура, причём имена объектов blob и tree не хранятся в самих объектах. Вместо этого они хранятся в содержащем их объекте tree. Таким образом, у вас может быть один и тот же объект blob или tree, на который указывают разные объекты tree, хранящие разные имена. Это очень похоже на файловую систему. Ну и поверх этого наложены объекты commit, позволяющие управлять версиями.В нашем проекте есть файл
file1.txt и папка folder1 с файлами samefile1.txt и README.md. Файлы file1.txt и samefile1.txt имеют одинаковое содержимое. В файловой системе file1.txt находится в корне, а samefile1.txt находится в папке folder1. Однако в Git оба файла ссылаются на один объект blob с хэшем 2399.Во втором коммите
2508 изменилось только содержимое файла file1.txt. Поэтому новый корень 6ee0 ссылается на новый объект blob - f1fe. Другие файлы не менялись, поэтому корни обоих коммитов ссылаются на один и тот же объект tree (3ee7), представляющий собой папку folder1. Таким образом текущая версия файлов получается простым проходом по ссылкам из коммита. Из коммита 2508 можно «найти» только изменившуюся версию файла file1.txt (f1fe), но нельзя «дойти» до версии 2399 (на неё ссылается только файл samefile1.txt). Аналогично из коммита 1177 нельзя получить доступ к изменённой версии file1.txt. Однако все объекты внутри папки folder1 доступны из обоих коммитов, поскольку они не изменялись.Продолжение следует...
Источник: https://app.pluralsight.com/library/courses/how-git-works
День семьсот двадцать восьмой. #ЗаметкиНаПолях
Как Работает Git. Продолжение
Начало
Версии
Ветки
Мы еще не создавали веток, но одна у нас уже есть. Это ветка
Кроме этого, при необходимости меняется содержимое файлов в рабочем каталоге. В предыдущем посте мы разбирали диаграмму объектов. Объекты
После смены ветки
Что же происходит, когда мы сливаем ветки (
1. Создаётся новый коммит. Он будет отличаться тем, что у него будет два родительских коммита (2 записи
2. Ссылка текущей ветки перемещается на новый коммит.
3. Ссылка ветки, которую мы слили с текущей, остаётся на её последнем коммите (см. рисунок ниже).
4. Обновляются файлы в рабочей папке.
Два главных вывода:
1. Не бойтесь обилия объектов
2. На самом деле Git не заботится о вашей рабочей папке. При перемещении по истории Git просто заменяет содержимое рабочей папки данными из репозитория. Объекты в репозитории неизменяемы и постоянны, а файлы в вашей рабочей папке временны. Да, Git предупредит при возможной потере изменений в изменённых файлах (например, если попытаться выполнить
Отделённая голова
Помимо перехода на другую ветку, можно перейти и к любому доступному коммиту, например:
Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
Как Работает Git. Продолжение
Начало
Версии
Ветки
Мы еще не создавали веток, но одна у нас уже есть. Это ветка
master (main в последних версиях Git). Список веток можно посмотреть с помощью команды git branch:* mainОбычно ветки размещаются в каталоге
.git/refs/heads, и действительно, мы видим там файл main с SHA-1 хэшем, который соответствует последнему коммиту в ветке. То есть ветка – это просто ссылка на коммит. Если у нас несколько веток, все они будут размещены здесь в виде файлов со ссылками. Какая ветка является текущей? Это определяется в файле .git/HEAD:ref: refs/heads/mainТо есть
HEAD – это просто ссылка на текущую ветку. Когда мы делаем коммит, файл refs/heads/main меняется и получает ссылку на новый коммит. Когда мы создаём новую ветку, например:git branch newили переключаемся на существующую ветку,
git checkout new
меняется файл HEAD, он получает ссылку на новую ветку, например, refs/heads/new. Кроме этого, при необходимости меняется содержимое файлов в рабочем каталоге. В предыдущем посте мы разбирали диаграмму объектов. Объекты
commit используются для отслеживания истории. Содержимое рабочей папки восстанавливается простым переходом по ссылкам из соответствующего коммита. Все объекты, которые доступны из коммита, восстанавливаются в рабочей папке, остальные удаляются.После смены ветки
git branch выведет:mainЗдесь звёздочка указывает на текущую ветку (на которую ссылается файл
* new
HEAD).Что же происходит, когда мы сливаем ветки (
git merge).1. Создаётся новый коммит. Он будет отличаться тем, что у него будет два родительских коммита (2 записи
parent, см. предыдущий пост). 2. Ссылка текущей ветки перемещается на новый коммит.
3. Ссылка ветки, которую мы слили с текущей, остаётся на её последнем коммите (см. рисунок ниже).
4. Обновляются файлы в рабочей папке.
Два главных вывода:
1. Не бойтесь обилия объектов
tree и blob. Перемещаться по истории в Git довольно просто. Сосредоточьтесь на коммитах, и том как они связаны друг с другом, а Git сам разберётся с объектами репозитория.2. На самом деле Git не заботится о вашей рабочей папке. При перемещении по истории Git просто заменяет содержимое рабочей папки данными из репозитория. Объекты в репозитории неизменяемы и постоянны, а файлы в вашей рабочей папке временны. Да, Git предупредит при возможной потере изменений в изменённых файлах (например, если попытаться выполнить
git checkout), но не более того.Отделённая голова
Помимо перехода на другую ветку, можно перейти и к любому доступному коммиту, например:
git checkout ecbebe660Эта ситуация называется «отделённая голова» (detached head). Вы можете продолжить работу и добавлять коммиты,
HEAD будет ссылаться на последний добавленный вами коммит (см. рисунок ниже). Однако, если вы решите перейти на одну из веток, больше ничто не будет ссылаться на коммиты, добавленные в режиме detached head, и рано или поздно они будут удалены сборщиком мусора (да, он тут тоже есть). Чтобы «спасти» их, просто нужно создать новую ветку. Этот приём используется в случаях, когда вы хотите попробовать какие-то изменения, но не уверены, нужно ли сохранять их в репозитории.Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
День семьсот двадцать девятый. #ЗаметкиНаПолях
Как Работает Git. Продолжение
Начало
Версии
Ветки
Rebase
Допустим, мы хотим соединить содержимое двух веток (см. рисунок ниже). Мы можем слить их с помощью
Нельзя просто так взять и перенести коммиты. Объекты репозитория неизменяемы. А если вы измените что-либо в коммите (например, ссылку на родителя), вы получите другой хэш, то есть другой коммит. Поэтому на самом деле создаётся новый синий коммит с тем же содержимым и единственным отличием, что родительским коммитом у него будет не красный, а последний из жёлтых (см. рисунок ниже). Затем копируется следующий синий коммит (потому что его родитель тоже изменился), и так далее. Таким образом, эти новые коммиты выглядят почти так же, как оригинальные, но это новые объекты с новыми хэшами. И, наконец, Git перемещает указатель перебазированной ветки на новые коммиты. Старые коммиты, как мы рассмотрели в предыдущем посте остаются без ветки и со временем удаляются сборщиком мусора.
Merge
+ сохраняет историю в неизменном виде,
+ при возникновении конфликтов слияния получившийся коммит будет включать исправления конфликтов,
- в больших проектах история становится громоздкой и запутанной.
Rebase
+ сохраняет историю чистой и аккуратной,
- эта история не настоящая (например, на рисунке ниже кажется, что жёлтые коммиты созданы раньше, чем синие),
- создают конфликты при распределённой разработке, когда несколько человек работают над проектом параллельно.
Итого: если сомневаетесь, используйте merge. Rebase – мощный и полезный инструмент, но им можно пользоваться, только если вы знаете, что делаете, и понимаете последствия.
Коротко о Тэгах
Тэги – это ещё один тип объектов репозитория. В Git есть два типа тэгов: аннотированные и без аннотаций (или легковесные). Создать тэг можно с помощью команды:
Тэги расположены в каталоге
Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
Как Работает Git. Продолжение
Начало
Версии
Ветки
Rebase
Допустим, мы хотим соединить содержимое двух веток (см. рисунок ниже). Мы можем слить их с помощью
merge, однако есть другой способ – расположить одну ветку поверх другой (rebase). В этом случае Git находит общий коммит двух веток (красный на рисунке), а затем берёт коммиты синей ветки и помещает их после коммитов жёлтой ветки. Мы соединили ветки в одну не за счёт слияния в один общий коммит, а за счёт перегруппировки коммитов так, чтобы они выглядели как одна ветка. На самом деле, конечно, не всё так просто.Нельзя просто так взять и перенести коммиты. Объекты репозитория неизменяемы. А если вы измените что-либо в коммите (например, ссылку на родителя), вы получите другой хэш, то есть другой коммит. Поэтому на самом деле создаётся новый синий коммит с тем же содержимым и единственным отличием, что родительским коммитом у него будет не красный, а последний из жёлтых (см. рисунок ниже). Затем копируется следующий синий коммит (потому что его родитель тоже изменился), и так далее. Таким образом, эти новые коммиты выглядят почти так же, как оригинальные, но это новые объекты с новыми хэшами. И, наконец, Git перемещает указатель перебазированной ветки на новые коммиты. Старые коммиты, как мы рассмотрели в предыдущем посте остаются без ветки и со временем удаляются сборщиком мусора.
Merge
+ сохраняет историю в неизменном виде,
+ при возникновении конфликтов слияния получившийся коммит будет включать исправления конфликтов,
- в больших проектах история становится громоздкой и запутанной.
Rebase
+ сохраняет историю чистой и аккуратной,
- эта история не настоящая (например, на рисунке ниже кажется, что жёлтые коммиты созданы раньше, чем синие),
- создают конфликты при распределённой разработке, когда несколько человек работают над проектом параллельно.
Итого: если сомневаетесь, используйте merge. Rebase – мощный и полезный инструмент, но им можно пользоваться, только если вы знаете, что делаете, и понимаете последствия.
Коротко о Тэгах
Тэги – это ещё один тип объектов репозитория. В Git есть два типа тэгов: аннотированные и без аннотаций (или легковесные). Создать тэг можно с помощью команды:
git tag <имя тэга>Для аннотированного тэга надо добавить параметр
‑a и опционально -m и описание. Аннотированный тэг будет содержать много полезной информации, такой как дата создания, автор, описание и т.д. Тэг без аннотации имеет только имя.Тэги расположены в каталоге
.git/refs/tags. Тэг – это такая же ссылка на коммит, как и ветка. На самом деле можно переместить файл тэга в папку .git/refs/heads, и он «станет веткой» (не делайте так). Есть только одно отличие: при создании нового коммита ссылка в ветке изменяется, чтобы указывать на него, а тэг так и ссылается на тот же самый коммит. Можно перейти к тэгу с помощью git checkout, точно также, как можно перейти к ветке или коммиту. Тэги часто используются для отметки версии продукта в истории коммитов.Продолжение следует…
Источник: https://app.pluralsight.com/library/courses/how-git-works
День семьсот тридцатый. #ЗаметкиНаПолях
Как Работает Git. Окончание
Начало
Версии
Ветки
Rebase
Распределённость
Мы наконец добрались до верхнего слоя определения Git (распределённая система контроля версий). Допустим, мы создали репозиторий на GitHub. Получить копию его на локальном компьютере можно с помощью команды
Теперь есть два клона репозитория, один на GitHub и один на локальном компьютере, и оба клона одинаково хороши. В отличие от Subversion или других традиционных систем контроля версий, в Git нет централизованного сервера. Оба компьютера теперь содержат весь проект и его историю. У нас может быть сколько угодно клонов. Вы можете решить, что один конкретный клон является самым важным. Но это условность, договорённость. Технически все клоны равноправны.
При клонировании репозитория через
Git также требуется сохранять состояние локального и удалённого репозиториев. Для состояния удалённого репозитория используется папка
Иногда из-за внутренних оптимизаций файл
Синхронизация
Команда
Однако, если кто-то другой добавил коммит в удалённый репозиторий, возникает конфликт. Решить его можно двумя способами:
1. Принудительный push
Команда
2. Разрешение конфликта
Сначала выполняется команда
Источник: https://app.pluralsight.com/library/courses/how-git-works
Как Работает Git. Окончание
Начало
Версии
Ветки
Rebase
Распределённость
Мы наконец добрались до верхнего слоя определения Git (распределённая система контроля версий). Допустим, мы создали репозиторий на GitHub. Получить копию его на локальном компьютере можно с помощью команды
git clone <адрес репозитория>В локальную папку будет сохранено содержимое папки
.git, то есть вся история. В последних версиях, правда, git clone по умолчанию копирует только ветку main. После копирования репозитория Git восстанавливает файлы рабочей области из репозитория.Теперь есть два клона репозитория, один на GitHub и один на локальном компьютере, и оба клона одинаково хороши. В отличие от Subversion или других традиционных систем контроля версий, в Git нет централизованного сервера. Оба компьютера теперь содержат весь проект и его историю. У нас может быть сколько угодно клонов. Вы можете решить, что один конкретный клон является самым важным. Но это условность, договорённость. Технически все клоны равноправны.
При клонировании репозитория через
git clone добавляется несколько строк в конфигурацию нашего репозитория (файл .git/config):[remote "origin"]Каждый репозиторий Git может запоминать информацию о других копиях, которые называются удалёнными (
url = https://github.com/user/repo
fetch = +refs/heads/*:refs/remotes/origin/*
[branch "main"]
remote = origin
merge = refs/heads/main
remote). Копия по умолчанию называется origin. В конфигурации сохраняется url удалённого репозитория, а также связь локальной ветки main с веткой main из origin. Вы можете настроить эту конфигурацию, чтобы изменить политику синхронизации.Git также требуется сохранять состояние локального и удалённого репозиториев. Для состояния удалённого репозитория используется папка
.git/refs/remotes/origin. Здесь мы можем видеть знакомые нам файлы HEAD и main, предназначение которых такое же, как и у их локальных копий: main хранит ссылку на последний коммит, HEAD – ссылку на текущую ветку.Иногда из-за внутренних оптимизаций файл
main может отсутствовать, и тогда информация о состоянии репозиториев будет храниться в файле .git/packed-refs. Посмотреть состояние локального и удалённого репозиториев можно с помощью команды git show-ref.Синхронизация
Команда
git push сохраняет локальные изменения и коммиты в удалённый репозиторий. Это просто, когда репозитории изначально были синхронизированы (см. красный коммит в левой части рисунка ниже). Тогда ваши изменения (фиолетовый коммит) будут сохранены, ссылка main в удалённом репозитории и origin/main в локальном перейдут на новый коммит.Однако, если кто-то другой добавил коммит в удалённый репозиторий, возникает конфликт. Решить его можно двумя способами:
1. Принудительный push
Команда
git push -f принудит внести ваши изменения в удалённый репозиторий (см. в средней части рисунка ниже). Тогда указатель ветки main перейдёт на ваш коммит (фиолетовый), а коммит, сделанный другим человеком (зелёный), со временем будет удалён сборщиком мусора, как будто его и не было.2. Разрешение конфликта
Сначала выполняется команда
git fetch, которая получит данные из удалённого репозитория в ваш локальный (см. в правой части рисунка ниже). Далее командой git merge origin/main удалённая ветка сливается с вашей локальной в новый коммит (розовый). Это настолько частый случай, что для этих операций есть отдельная команда git pull. После этого команда git push сохранит все получившиеся изменения в удалённом репозитории.Источник: https://app.pluralsight.com/library/courses/how-git-works
День семьсот тридцать первый. #Оффтоп #97Вещей
97 Вещей, Которые Должен Знать Каждый Программист
75. Боритесь со Стрессом
Каждый из нас, будь то начинающий или опытный программист, когда-нибудь попадал в ситуацию, когда всё бесит. Задача не решается, мелкий пакостный баг никак не получается отловить, компоненты или фреймворки отказываются работать друг с другом, IDE тормозит, кто-то постоянно отвлекает… Такие большие и мелкие неприятности постепенно выводят из душевного равновесия, и ваша производительность катастрофически снижается. Что сделать, чтобы этого не случалось?
1. Рабочий стол
Приберитесь на рабочем столе (как реальном, так и виртуальном). Уберите отвлекающие вещи, вроде телефона. Поставьте рядом вещи, которые вас успокаивают, с которыми вам уютно. Это может быть фото семьи, ваша детская игрушка, чётки или эспандер, чтобы повертеть в руке. Найдите комфортное положение в кресле. Вам удобнее сидеть прямо или откинувшись на спинку?
2. Внутренний цикл разработчика
Обычный цикл разработчики состоит в повторении трёх шагов:
- написание кода
- запуск
- отладка
Убедитесь, что переход по шагам этого цикла максимально быстр и прост. Как мы пишем веб-сайт? Пишем код, собираем проект, запускаем сайт, обновляем браузер, останавливаем сайт, делаем изменение, собираем проект… При этом каждый раз мы переключаемся между окнами, убираем руку с клавиатуры, чтобы взять мышку и наоборот. Это очень муторно.
Как ускорить этот процесс?
Во-первых, с помощью клавиш
Во-вторых, в .NET есть монитор файлов
3. Навыки редактора
Изучите IDE и горячие клавиши для наиболее часто повторяемых операций. Поищите информацию о том, что вообще умеет IDE (например, см. посты по тэгу #TipsAndTricks).
Эти советы помогут уменьшить количество раздражающих вещей. Но что делать, если вы всё-таки попали в ситуацию, когда задача не решается, непонятно, что делать и всё бесит?
- Сделайте глубокий вдох и откиньтесь на кресле.
- Закройте лишние окна, вкладки в браузере или файлы в IDE.
- Отвлекитесь от монитора и возьмите блокнот и карандаш, запишите план того, что вам нужно сделать.
- Прогуляйтесь.
- Объясните проблему «утёнку».
Главное, запомните, что вам помогло снизить стресс и решить проблему, чтобы использовать этот метод в следующий раз.
Что вам помогает выйти из стрессовой ситуации? Оставляйте комментарии.
Источник: https://www.hanselman.com/blog/the-art-of-rubber-ducking-or-rubber-duck-debugging/
Автор оригинала – Scott Hanselman
97 Вещей, Которые Должен Знать Каждый Программист
75. Боритесь со Стрессом
Каждый из нас, будь то начинающий или опытный программист, когда-нибудь попадал в ситуацию, когда всё бесит. Задача не решается, мелкий пакостный баг никак не получается отловить, компоненты или фреймворки отказываются работать друг с другом, IDE тормозит, кто-то постоянно отвлекает… Такие большие и мелкие неприятности постепенно выводят из душевного равновесия, и ваша производительность катастрофически снижается. Что сделать, чтобы этого не случалось?
1. Рабочий стол
Приберитесь на рабочем столе (как реальном, так и виртуальном). Уберите отвлекающие вещи, вроде телефона. Поставьте рядом вещи, которые вас успокаивают, с которыми вам уютно. Это может быть фото семьи, ваша детская игрушка, чётки или эспандер, чтобы повертеть в руке. Найдите комфортное положение в кресле. Вам удобнее сидеть прямо или откинувшись на спинку?
2. Внутренний цикл разработчика
Обычный цикл разработчики состоит в повторении трёх шагов:
- написание кода
- запуск
- отладка
Убедитесь, что переход по шагам этого цикла максимально быстр и прост. Как мы пишем веб-сайт? Пишем код, собираем проект, запускаем сайт, обновляем браузер, останавливаем сайт, делаем изменение, собираем проект… При этом каждый раз мы переключаемся между окнами, убираем руку с клавиатуры, чтобы взять мышку и наоборот. Это очень муторно.
Как ускорить этот процесс?
Во-первых, с помощью клавиш
Win+стрелки можно расположить окна на экране так, чтобы не приходилось каждый раз их скрывать и разворачивать. Кстати, а вы знаете, что в Windows можно сделать несколько рабочих столов с независимыми наборами программ в каждом? Нажмите Win+Tab, и в верхней плашке вы увидите свой рабочий стол и кнопку «Новый рабочий стол» (New desktop). Туда вы можете переместить любые окна, которые вам в данный момент не нужны. Переключаться между рабочими столами можно с помощью Ctrl+Win+стрелки. Кроме того, существуют программы, позволяющие вам разделить экран на зоны (например, в треть высоты или по четвертям) окна, помещённые в зону, автоматически примут её размер.Во-вторых, в .NET есть монитор файлов
dotnet-watch. Например, команда dotnet watch run, выполненная в папке сайта, заставит dotnet следить за изменениями в папке, и как только вы сохраняете файл, будет пересобирать и перезапускать веб-приложение. Также можно настроить выполнение тестов, выбрать отслеживаемые типы файлов и т.п. И таких мелких утилит тысячи. Мы не задумываемся о таких вещах, погружённые в процесс, автоматически выполняем набор действий. Но иногда полезно последить, можно ли автоматизировать какие-то повторяющиеся процессы.3. Навыки редактора
Изучите IDE и горячие клавиши для наиболее часто повторяемых операций. Поищите информацию о том, что вообще умеет IDE (например, см. посты по тэгу #TipsAndTricks).
Эти советы помогут уменьшить количество раздражающих вещей. Но что делать, если вы всё-таки попали в ситуацию, когда задача не решается, непонятно, что делать и всё бесит?
- Сделайте глубокий вдох и откиньтесь на кресле.
- Закройте лишние окна, вкладки в браузере или файлы в IDE.
- Отвлекитесь от монитора и возьмите блокнот и карандаш, запишите план того, что вам нужно сделать.
- Прогуляйтесь.
- Объясните проблему «утёнку».
Главное, запомните, что вам помогло снизить стресс и решить проблему, чтобы использовать этот метод в следующий раз.
Что вам помогает выйти из стрессовой ситуации? Оставляйте комментарии.
Источник: https://www.hanselman.com/blog/the-art-of-rubber-ducking-or-rubber-duck-debugging/
Автор оригинала – Scott Hanselman
День семьсот тридцать второй. #ЧтоНовенького
Планы на EF Core 6.0
EF Core 6.0 является следующим релизом после EF Core 5.0 и в настоящее время запланирован на ноябрь 2021 года одновременно с .NET 6. EF Core 6.0 будет соответствовать .NET 6 в качестве выпуска с долгосрочной поддержкой (LTS). Он не будет работать в .NET Framework и маловероятно, что будет поддерживать какую-либо версию .NET Standard. Приведённые ниже планы – это пока лишь предложения от сообщества, и они не обязательно будут реализованы. Кроме того, может появиться и что-то другое.
Самые востребованные функции
1. Темпоральные таблицы SQL Server
Создание темпоральных таблиц с помощью миграции, а также доступ к историческим данным с помощью запросов LINQ.
2. Столбцы типа JSON
Общие шаблоны для поддержки JSON, которые могут быть реализованы любым поставщиком базы данных. Поддержка столбцов JSON будет реализована для SQL Server и SQLite (PostgreSQL и MySQL уже их поддерживают).
3. ColumnAttribute.Order
Произвольный порядок столбцов при создании таблицы с помощью Migrations или EnsureCreated.
Производительность
1. Инфраструктура производительности и новые тесты
Улучшение инфраструктуры для тестов производительности, а также добавление новых тестов и исправление ошибок.
2. Скомпилированные модели
Скомпилированные модели улучшат производительность запуска, а также в целом улучшат производительность при доступе к модели.
3. TechEmpower Fortunes
Планируется сравниться по производительности Dapper на тесте TechEmpower Fortunes.
4. Компоновщики/AOT
Продолжатся исследования по улучшению работы EF Core с компоновщиками и AOT.
Миграции и развертывание
1. Пакеты миграций
Пакеты миграции предоставят простой и надежный механизм для развертывания миграций EF Core.
2. Управление миграциями
Планируется улучшить инструменты и управление проектами/сборками для миграций EF Core.
Кроме того, планируется улучшение существующих функций и исправление известных ошибок. Полный план на EF Core 6.0 можно найти здесь. Также вы можете голосовать за новые функции или оставлять свои предложения в GitHub.
Источник: https://devblogs.microsoft.com/dotnet/the-plan-for-entity-framework-core-6-0/
Планы на EF Core 6.0
EF Core 6.0 является следующим релизом после EF Core 5.0 и в настоящее время запланирован на ноябрь 2021 года одновременно с .NET 6. EF Core 6.0 будет соответствовать .NET 6 в качестве выпуска с долгосрочной поддержкой (LTS). Он не будет работать в .NET Framework и маловероятно, что будет поддерживать какую-либо версию .NET Standard. Приведённые ниже планы – это пока лишь предложения от сообщества, и они не обязательно будут реализованы. Кроме того, может появиться и что-то другое.
Самые востребованные функции
1. Темпоральные таблицы SQL Server
Создание темпоральных таблиц с помощью миграции, а также доступ к историческим данным с помощью запросов LINQ.
2. Столбцы типа JSON
Общие шаблоны для поддержки JSON, которые могут быть реализованы любым поставщиком базы данных. Поддержка столбцов JSON будет реализована для SQL Server и SQLite (PostgreSQL и MySQL уже их поддерживают).
3. ColumnAttribute.Order
Произвольный порядок столбцов при создании таблицы с помощью Migrations или EnsureCreated.
Производительность
1. Инфраструктура производительности и новые тесты
Улучшение инфраструктуры для тестов производительности, а также добавление новых тестов и исправление ошибок.
2. Скомпилированные модели
Скомпилированные модели улучшат производительность запуска, а также в целом улучшат производительность при доступе к модели.
3. TechEmpower Fortunes
Планируется сравниться по производительности Dapper на тесте TechEmpower Fortunes.
4. Компоновщики/AOT
Продолжатся исследования по улучшению работы EF Core с компоновщиками и AOT.
Миграции и развертывание
1. Пакеты миграций
Пакеты миграции предоставят простой и надежный механизм для развертывания миграций EF Core.
2. Управление миграциями
Планируется улучшить инструменты и управление проектами/сборками для миграций EF Core.
Кроме того, планируется улучшение существующих функций и исправление известных ошибок. Полный план на EF Core 6.0 можно найти здесь. Также вы можете голосовать за новые функции или оставлять свои предложения в GitHub.
Источник: https://devblogs.microsoft.com/dotnet/the-plan-for-entity-framework-core-6-0/
.NET Разработчик
День семьсот тридцатый. #ЗаметкиНаПолях Как Работает Git. Окончание Начало Версии Ветки Rebase Распределённость Мы наконец добрались до верхнего слоя определения Git (распределённая система контроля версий). Допустим, мы создали репозиторий на GitHub. Получить…
День семьсот тридцать третий. #Оффтоп #КакСтатьСеньором
Что Я Узнал, Чтобы Стать Сеньором
Работник Bloomberg, пришедший туда джуниор-разработчиком, описывает свой опыт роста в компании.
7. Об Управлении
В Bloomberg у нас есть три команды, и мы используем Jenkins для автоматического тестирования. Предстояла большая задача по обслуживанию Jenkins, и я решил взять её на себя. Задача подразумевала выяснение того, как реализовать изменения, организацию встреч для обсуждения улучшений и альтернатив и, наконец, координацию релиза. Однако, когда я брал задачу на себя, я и не знал, что именно я буду делать всё это. Я просто подумал, что это будет интересно.
Я написал в нашем групповом чате об альтернативах, которые я придумал. Пошло обсуждение, но разговор быстро прервался, возможно, потому что все были чем-то заняты. Я почувствовал, что не знаю, что мне теперь с этим делать. Поэтому решил заняться другими своими задачами в спринте.
Я рассуждал так: «Ну что ж, я попробовал. Когда-нибудь кто-нибудь ответит в чате, и тогда мы сможем продолжить разговор». Я играл роль хозяина задачи, но не взял её под свой контроль. Когда я это понял, это стало для меня откровением. Такое поведение - очень плохой способ управления. Все над чем-то работают, и их мысли заняты работой, а не моими проблемами. Поэтому я обязан привлечь их внимание к моей задаче.
Через два дня после первого разговора (именно столько времени мне потребовалось, чтобы подумать и понять, что я был неправ), я снова написал сообщение с объяснениями моих решений и описанием работ, которыми будет заниматься каждая из команд. Это стало уже вторым откровением: все согласились. Дело не в том, что им было всё равно, просто им было нечего добавить после первого разговора.
Я очень дорожу этим опытом. Он научил меня некоторым важным привычкам: всегда следить за собой, а если уж взял задачу на себя, это моя обязанность двигать её вперед. Не расслабляйтесь, играя роль начальника, делайте дело: будь то делегирование полномочий или выполнение работы самостоятельно.
Помимо этого, я открыл для себя ещё одну интересную вещь: надо ценить сюрпризы. Под сюрпризом здесь я имею в виду несоответствие между тем, что вы ожидали и тем, что произошло на самом деле. Это прекрасная возможность изменить мышление и получить новый опыт.
Источник: https://medium.com/better-programming/the-things-i-learned-to-become-a-senior-software-engineer-1083686d70cd
Автор оригинала – Neil Kakkar
Что Я Узнал, Чтобы Стать Сеньором
Работник Bloomberg, пришедший туда джуниор-разработчиком, описывает свой опыт роста в компании.
7. Об Управлении
В Bloomberg у нас есть три команды, и мы используем Jenkins для автоматического тестирования. Предстояла большая задача по обслуживанию Jenkins, и я решил взять её на себя. Задача подразумевала выяснение того, как реализовать изменения, организацию встреч для обсуждения улучшений и альтернатив и, наконец, координацию релиза. Однако, когда я брал задачу на себя, я и не знал, что именно я буду делать всё это. Я просто подумал, что это будет интересно.
Я написал в нашем групповом чате об альтернативах, которые я придумал. Пошло обсуждение, но разговор быстро прервался, возможно, потому что все были чем-то заняты. Я почувствовал, что не знаю, что мне теперь с этим делать. Поэтому решил заняться другими своими задачами в спринте.
Я рассуждал так: «Ну что ж, я попробовал. Когда-нибудь кто-нибудь ответит в чате, и тогда мы сможем продолжить разговор». Я играл роль хозяина задачи, но не взял её под свой контроль. Когда я это понял, это стало для меня откровением. Такое поведение - очень плохой способ управления. Все над чем-то работают, и их мысли заняты работой, а не моими проблемами. Поэтому я обязан привлечь их внимание к моей задаче.
Через два дня после первого разговора (именно столько времени мне потребовалось, чтобы подумать и понять, что я был неправ), я снова написал сообщение с объяснениями моих решений и описанием работ, которыми будет заниматься каждая из команд. Это стало уже вторым откровением: все согласились. Дело не в том, что им было всё равно, просто им было нечего добавить после первого разговора.
Я очень дорожу этим опытом. Он научил меня некоторым важным привычкам: всегда следить за собой, а если уж взял задачу на себя, это моя обязанность двигать её вперед. Не расслабляйтесь, играя роль начальника, делайте дело: будь то делегирование полномочий или выполнение работы самостоятельно.
Помимо этого, я открыл для себя ещё одну интересную вещь: надо ценить сюрпризы. Под сюрпризом здесь я имею в виду несоответствие между тем, что вы ожидали и тем, что произошло на самом деле. Это прекрасная возможность изменить мышление и получить новый опыт.
Источник: https://medium.com/better-programming/the-things-i-learned-to-become-a-senior-software-engineer-1083686d70cd
Автор оригинала – Neil Kakkar
День семьсот тридцать четвёртый. #ЧтоНовенького
Новинки в Visual Studio 2019 v16.9 Preview 3
Использование звуковых сигналов в тестах
Я считаю, что ничего лучше в VS уже не придумают. Обозреватель тестов теперь может воспроизводить настраиваемый звук после завершения прогона тестов. Вы можете выбрать два разных звука:
- после успешного прохождения тестов,
- после того, как хотя бы один тест завершится неудачей.
Настроить звуки можно в стандартных настройках звука Windows (наряду со звуками удачной/неудачной сборки, или звуком достижения точки останова). Посмотрите видео, разве это не прекрасно? https://youtu.be/VwIMIJgY3wk
Улучшение контрастной темы
IDE может определять, включены ли в Windows настройки высокой контрастности. Если эти параметры включены, Visual Studio 2019 будет учитывать эти параметры. Чтобы активировать эту функцию, перейдите в Инструменты > Параметры (Tools > Options). Обратите внимание на новый параметр «Использовать настройки высокой контрастности Windows» (Use Windows High Contrast Settings). Когда этот флажок отмечен, настройка по умолчанию будет соответствовать обнаруженным настройкам высокой контрастности Windows. Если этот флажок не установлен, вы можете выбрать любую из тем, включённых в Visual Studio 2019.
Повышение Продуктивности в .NET
1. IntelliSense теперь может выдавать подсказки для директив препроцессора. Чтобы увидеть это в действии, начните вводить директиву
2. В Обозревателе решений теперь будут отображаться новые генераторы исходного кода .NET 5.0 внутри группы Анализатор (Analyzer). Это позволит вам легко находить и просматривать сгенерированный код.
3. Функция Go To All (
Новый редактор Razor
В настройках среды найдите Предварительный просмотр (Preview Features) и отметьте флажок «Включить экспериментальный редактор Razor» (Enable experimental Razor editor).
В новом редакторе Razor есть улучшенный механизм форматирования, который более консервативен, чем старый, а также намного умнее в том, как он обрабатывает ваш код. Некоторые быстрые действия теперь также доступны в файлах Razor:
- добавление директивы
- добавление проверки на
- переименование компонентов Blazor из тегов (файл компонента будет изменён автоматически),
- создание компонента Blazor из неизвестного тега,
- извлечение блока
- переход к определению компонента Blazor по
Источники:
- https://devblogs.microsoft.com/dotnet/the-plan-for-entity-framework-core-6-0/
- https://devblogs.microsoft.com/aspnet/improvements-to-the-new-razor-editor-in-visual-studio/
Новинки в Visual Studio 2019 v16.9 Preview 3
Использование звуковых сигналов в тестах
Я считаю, что ничего лучше в VS уже не придумают. Обозреватель тестов теперь может воспроизводить настраиваемый звук после завершения прогона тестов. Вы можете выбрать два разных звука:
- после успешного прохождения тестов,
- после того, как хотя бы один тест завершится неудачей.
Настроить звуки можно в стандартных настройках звука Windows (наряду со звуками удачной/неудачной сборки, или звуком достижения точки останова). Посмотрите видео, разве это не прекрасно? https://youtu.be/VwIMIJgY3wk
Улучшение контрастной темы
IDE может определять, включены ли в Windows настройки высокой контрастности. Если эти параметры включены, Visual Studio 2019 будет учитывать эти параметры. Чтобы активировать эту функцию, перейдите в Инструменты > Параметры (Tools > Options). Обратите внимание на новый параметр «Использовать настройки высокой контрастности Windows» (Use Windows High Contrast Settings). Когда этот флажок отмечен, настройка по умолчанию будет соответствовать обнаруженным настройкам высокой контрастности Windows. Если этот флажок не установлен, вы можете выбрать любую из тем, включённых в Visual Studio 2019.
Повышение Продуктивности в .NET
1. IntelliSense теперь может выдавать подсказки для директив препроцессора. Чтобы увидеть это в действии, начните вводить директиву
#if, и вы увидите доступные варианты завершения команды, определённые в настоящее время в области видимости.2. В Обозревателе решений теперь будут отображаться новые генераторы исходного кода .NET 5.0 внутри группы Анализатор (Analyzer). Это позволит вам легко находить и просматривать сгенерированный код.
3. Функция Go To All (
Ctrl+T) больше не будет отображать повторяющиеся результаты для netcoreapp3.1 и netcoreapp2.0, а также результаты для partial типов. Это поможет упорядочить результаты, чтобы вы могли легче находить код и перемещаться по нему. Результаты теперь также включают имена файлов.Новый редактор Razor
В настройках среды найдите Предварительный просмотр (Preview Features) и отметьте флажок «Включить экспериментальный редактор Razor» (Enable experimental Razor editor).
В новом редакторе Razor есть улучшенный механизм форматирования, который более консервативен, чем старый, а также намного умнее в том, как он обрабатывает ваш код. Некоторые быстрые действия теперь также доступны в файлах Razor:
- добавление директивы
@using или полного имени типа,- добавление проверки на
null,- переименование компонентов Blazor из тегов (файл компонента будет изменён автоматически),
- создание компонента Blazor из неизвестного тега,
- извлечение блока
@code в файл отделённого кода,- переход к определению компонента Blazor по
F12.Источники:
- https://devblogs.microsoft.com/dotnet/the-plan-for-entity-framework-core-6-0/
- https://devblogs.microsoft.com/aspnet/improvements-to-the-new-razor-editor-in-visual-studio/
День семьсот тридцать шестой. #TypesAndLanguages
3. Finally при Прекращении Работы
Рассмотрим следующий код:
Внутри обработанного исключения гарантируется выполнение связанного блока
Поэтому блок
Дальше больше, потому что всё может зависеть от типа исключения. Например, в .NET есть атрибут HandleProcessCorruptedStateExceptions:
Исключения повреждённого состояния процесса - это исключения, которые указывают, что состояние процесса было повреждено. Дальнейшее выполнение приложения в этом состоянии не рекомендуется.
По умолчанию среда CLR не передаёт эти исключения управляемому коду, и блоки
Таким образом, ваше приложение может продолжить работу, но не все блоки
Аналогичный вопрос возникает, когда вместо создания исключения вы выходите из приложения, вызывая
Зачем это нужно? Потому что мы обычно освобождаем ресурсы в блоке finally. Если эти ресурсы являются локальными для процесса, тогда это не имеет большого значения, но как только вы начнете использовать межпроцессные вещи (например, общесистемные мьютексы), важно освободить их, иначе другой пользователь может не знать, повреждено защищённое состояние или нет.
Это уже не говоря о том, что необработанное исключение может (.NET) или не может (JVM) привести к остановке всего приложения.
Вывод
Всегда помещайте в поток исполнения глобальный обработчик
Источник: https://blog.adamfurmanek.pl/2021/01/23/types-and-programming-languages-part-3/
3. Finally при Прекращении Работы
Рассмотрим следующий код:
try {
throw new Exception("Exception 1");
}finally{
// очистка
}
Допустим, в этом потоке исполнения нет блока catch. Что произойдёт? Это зависит от платформы. Например, в документации C# по finally говорится:Внутри обработанного исключения гарантируется выполнение связанного блока
finally. Однако если исключение не обработано, то выполнение блока finally зависит от того, как запускается операция развертывания исключения. Это, в свою очередь, зависит от способа настройки компьютера.Поэтому блок
finally может и не выполниться. В то же время, согласно этому документу, JVM гарантирует исполнение блока finally.Дальше больше, потому что всё может зависеть от типа исключения. Например, в .NET есть атрибут HandleProcessCorruptedStateExceptions:
Исключения повреждённого состояния процесса - это исключения, которые указывают, что состояние процесса было повреждено. Дальнейшее выполнение приложения в этом состоянии не рекомендуется.
По умолчанию среда CLR не передаёт эти исключения управляемому коду, и блоки
try-catch (или другие способы обработки исключений) для них не вызываются. Если вы абсолютно уверены, что хотите самостоятельно обрабатывать такие исключения, вы должны применить атрибут HandleProcessCorruptedStateExceptions к методу, в котором вы хотите выполнять блоки обработки таких исключений. CLR предоставляет исключения повреждённого состояния процесса в применимые блоки обработки исключений только в методах, которые имеют атрибуты HandleProcessCorruptedStateExceptions или SecurityCritical.Таким образом, ваше приложение может продолжить работу, но не все блоки
finally могут быть выполнены.Аналогичный вопрос возникает, когда вместо создания исключения вы выходите из приложения, вызывая
Application.Exit(). Будет ли исполнен блок finally?Зачем это нужно? Потому что мы обычно освобождаем ресурсы в блоке finally. Если эти ресурсы являются локальными для процесса, тогда это не имеет большого значения, но как только вы начнете использовать межпроцессные вещи (например, общесистемные мьютексы), важно освободить их, иначе другой пользователь может не знать, повреждено защищённое состояние или нет.
Это уже не говоря о том, что необработанное исключение может (.NET) или не может (JVM) привести к остановке всего приложения.
Вывод
Всегда помещайте в поток исполнения глобальный обработчик
try-catch.Источник: https://blog.adamfurmanek.pl/2021/01/23/types-and-programming-languages-part-3/
День семьсот тридцать седьмой. #ЗаметкиНаПолях
10 Советов по Работе с JavaScript Console
Да, сегодня про ненавистный JS. Но не поленитесь, почитайте, мне показалось полезным.
1. console.clear()
Используется для «очистки» консоли, т.е. удаляет весь предыдущий вывод. После этого появится текст «Console was cleared».
2. console.count()
Используется для определения количества вызовов. Принимает необязательный строковый параметр метки, которая печатается каждый раз при вызове метода. Следующий код:
3. console.table()
Используется для отображения массива в формате таблицы. Можно использовать массив объектов, тогда поля объектов будут колонками таблицы:
Методы используются для создания сворачиваемых групп. Принимает необязательный параметр названия группы.
5. console.assert()
Используется для условного отображения ошибки. Первым параметром является утверждение, а вторым - сообщение или объект, который необходимо отобразить в консоли, если утверждение не выполняется. Если результат утверждения верен, в консоль ничего не выводится. В противном случае будет выведено сообщение в виде ошибки.
7. console.memory
Свойство memory хранит размер кучи памяти. Может оказаться полезным при отладке проблем с производительностью.
8. console.trace()
Можно использовать для отслеживания стека функций. При вызове выводит полное дерево стека в консоль браузера.
9. console.dir()
Принимает объект и отображает список его свойств в иерархическом формате. Это может быть полезно, если вы пытаетесь исследовать элемент HTML в консоли.
10. console.log() и CSS
Можно применять стили CSS к выводу в консоли. Для этого используется модификатор
10 Советов по Работе с JavaScript Console
Да, сегодня про ненавистный JS. Но не поленитесь, почитайте, мне показалось полезным.
1. console.clear()
Используется для «очистки» консоли, т.е. удаляет весь предыдущий вывод. После этого появится текст «Console was cleared».
2. console.count()
Используется для определения количества вызовов. Принимает необязательный строковый параметр метки, которая печатается каждый раз при вызове метода. Следующий код:
for(let i = 0; i < 3; i++) {
console.count('cnt')
}
выведет:cnt: 1Также можно использовать метод
cnt: 2
cnt: 3
countReset() для сброса счётчика.3. console.table()
Используется для отображения массива в формате таблицы. Можно использовать массив объектов, тогда поля объектов будут колонками таблицы:
const users = [4. console.group() и console.groupEnd()
{ name: 'John', age: 20 },
{ name: 'Mike', age: 22 }
];
console.table(users);
Методы используются для создания сворачиваемых групп. Принимает необязательный параметр названия группы.
console.group('Countries');
console.log('India');
console.log('Russia');
console.groupEnd();
Также можно создавать вложенные группы.5. console.assert()
Используется для условного отображения ошибки. Первым параметром является утверждение, а вторым - сообщение или объект, который необходимо отобразить в консоли, если утверждение не выполняется. Если результат утверждения верен, в консоль ничего не выводится. В противном случае будет выведено сообщение в виде ошибки.
for (let num = 0; num <= 5; num++) {
console.assert(num % 2 === 0, 'Число ${num} нечётное');
}
6. console.time() и console.timeEnd()time() запускает таймер, а timeEnd() останавливает и выводит истекшее время.7. console.memory
Свойство memory хранит размер кучи памяти. Может оказаться полезным при отладке проблем с производительностью.
8. console.trace()
Можно использовать для отслеживания стека функций. При вызове выводит полное дерево стека в консоль браузера.
9. console.dir()
Принимает объект и отображает список его свойств в иерархическом формате. Это может быть полезно, если вы пытаетесь исследовать элемент HTML в консоли.
10. console.log() и CSS
Можно применять стили CSS к выводу в консоли. Для этого используется модификатор
%c в начале строки вывода. Вторым параметром передаётся строка свойств:let rules = [Источник: https://www.c-sharpcorner.com/article/10-javascript-console-tricks-that-you-may-not-know/
'color: #ff0000',
'background: #000000',
'font-size: 30px',
'padding: 100px'
].join(';');
console.log('%c Hello World', rules);
День семьсот тридцать восьмой.
Парсер Командной Строки на .NET
Передача аргументов командной строки в приложение - очень распространённая задача. Вы можете вручную их разбирать, но, если у вас много параметров, это может быть утомительно и подвержено ошибкам.
CommandLineParser
Это библиотека с открытым исходным кодом, созданная Эриком Ньютоном и членами сообщества .NET. Он существует с 2005 года и его скачали более 26 миллионов раз! CommandLineParser «предлагает приложениям CLR чистый и лаконичный API для управления аргументами командной строки и связанными с этим задачами, такими как определение переключателей, обязательных и необязательных параметров и команд».
Вместо того, чтобы вручную анализировать массив строк
Итого
Пакет NuGet CommandLineParser - очень мощный помощник, который упрощает часто повторяющуюся задачу разбора аргументов до простого декларативного подхода. Кроме того, он гораздо более гибкий, чем пример, продемонстрированный здесь. Вы можете найти его документацию на их странице GitHub Wiki.
Источник: https://devblogs.microsoft.com/pax-windows/command-line-parser-on-net5/
Парсер Командной Строки на .NET
Передача аргументов командной строки в приложение - очень распространённая задача. Вы можете вручную их разбирать, но, если у вас много параметров, это может быть утомительно и подвержено ошибкам.
CommandLineParser
Это библиотека с открытым исходным кодом, созданная Эриком Ньютоном и членами сообщества .NET. Он существует с 2005 года и его скачали более 26 миллионов раз! CommandLineParser «предлагает приложениям CLR чистый и лаконичный API для управления аргументами командной строки и связанными с этим задачами, такими как определение переключателей, обязательных и необязательных параметров и команд».
Вместо того, чтобы вручную анализировать массив строк
args, вы можете просто определить класс, который будет анализироваться библиотекой, на основе набора атрибутов, которыми вы аннотируете класс.using CommandLine;Это практически всё, что требуется для использования этой библиотеки.
public class CmdLineOpts {
[Value(index: 0, Required = true,
HelpText = "File path.")]
public string Path { get; set; }
[Option(shortName: 'c',
longName: "confidence", Required = false,
HelpText = "Minimum confidence.", Default = 0.9f)]
public float Confidence { get; set; }
}
ValueAttribute и OptionAttribute предоставляются пакетом. Здесь первый параметр обязательный, а второй необязательный, который можно передать через короткое -с или длинное --confidence имя. Использование:using CommandLine;Парсер автоматически разбирает аргументы. Более того, из подсказок в атрибутах свойств класса автоматически генерируется страница справки, которая выдаётся при возникновении ошибок или вызовом приложения с параметром
static async Task<int> Main(string[] args) {
return await Parser.Default
.ParseArguments<CmdLineOpts>(args)
.MapResult(async (CmdLineOpts opts) => {
try {
//аргументы разобраны, используем их
return await AnalyzeFileAsync(
opts.Path, opts.Confidence);
}
catch {
Console.WriteLine("Error!");
return -1;
}
},
errs => Task.FromResult(-1));
}
--help.Итого
Пакет NuGet CommandLineParser - очень мощный помощник, который упрощает часто повторяющуюся задачу разбора аргументов до простого декларативного подхода. Кроме того, он гораздо более гибкий, чем пример, продемонстрированный здесь. Вы можете найти его документацию на их странице GitHub Wiki.
Источник: https://devblogs.microsoft.com/pax-windows/command-line-parser-on-net5/
День семьсот тридцать девятый. #Оффтоп #97Вещей
97 Вещей, Которые Должен Знать Каждый Программист
76. Приложение не Существует в Вакууме
Никакое приложение не существует в вакууме; каждое приложение - это кусочек экосистемы, часть чего-то большего.
Вам как разработчику (команде или отделу разработки) очень легко сосредоточиться исключительно на приложении или веб-сайте и забыть о его месте в «экосистеме». На самом деле это не ошибка отдельного разработчика или команды, а скорее проблема организации.
Возьмем, к примеру, мобильное приложение банка в магазине приложений. Взаимодействие человека и приложения - это гораздо больше, чем просто использование клиентом самого приложения. Как человек вообще узнал о приложении и как он нашёл его в магазине приложений. Просто поискал или у банка есть реклама с QR-кодом? Пользователи входят в приложение с существующими реквизитами интернет-банкинга? Если да, то как они создали свою учетную запись - на веб-сайте банка? Что происходит, когда пользователь закрывает счёта или хочет удалить приложение? Что произойдёт, если в приложении возникнет проблема и пользователи будут звонить в колл-центр? Если новая версия приложения не работает, вызовет ли это приток звонков в колл-центр, перегрузку его возможностей и, возможно, снижение продаж из-за упущенных других звонков?
На более техническом уровне, какие API вызывает приложение? Как эти API, в свою очередь, взаимодействуют с другими системами (например, с банковским мэйнфреймом)? Если возникла ошибка на мэйнфрейме, как это повлияет на API и, следовательно, на приложение и человека, использующего приложение?
Если у клиента возникла проблема с приложением, и он обращается за помощью в банк, смогут ли там помочь представители отдела работы с клиентами? Если нет, есть ли у них номер «горячей линии», по которому можно напрямую связаться с ИТ-специалистами или специалистами службы поддержки приложений?
Как разработчики, мы все являемся потребителями программного обеспечения, и иногда это даёт нам больше (а иногда и меньше) терпения относительно обычного пользователя. Когда что-то не работает, мы часто можем примерно определить тип ошибки и понять, возникла она по вине разработчиков по нашей вине или из-за внешних обстоятельств. Если что-то плохо спроектировано, мы, в отличие от обычных пользователей, можем предпринять некоторый расширенный набор действий, чтобы добиться результата (найти нужную кнопку, закопанную в дебрях меню, попробовать ещё раз, перезапустить приложение и т.п.).
Если нас, разработчиков ПО, раздражает плохая работа приложений, представьте, что чувствует «нормальный» человек?
Возможно, настало время, чтобы у каждой достаточно крупной компании была специальная команда по работе с пользователями, которая хорошо знакома со всей «экосистемой» и способами взаимодействия с ней пользователей. Тогда эти «чемпионы по UX» могли бы стать частью команд разработчиков, чтобы убедиться, что ни одно приложение не существует в вакууме.
Источник: http://dontcodetired.com/blog/post/No-App-Is-An-Island
97 Вещей, Которые Должен Знать Каждый Программист
76. Приложение не Существует в Вакууме
Никакое приложение не существует в вакууме; каждое приложение - это кусочек экосистемы, часть чего-то большего.
Вам как разработчику (команде или отделу разработки) очень легко сосредоточиться исключительно на приложении или веб-сайте и забыть о его месте в «экосистеме». На самом деле это не ошибка отдельного разработчика или команды, а скорее проблема организации.
Возьмем, к примеру, мобильное приложение банка в магазине приложений. Взаимодействие человека и приложения - это гораздо больше, чем просто использование клиентом самого приложения. Как человек вообще узнал о приложении и как он нашёл его в магазине приложений. Просто поискал или у банка есть реклама с QR-кодом? Пользователи входят в приложение с существующими реквизитами интернет-банкинга? Если да, то как они создали свою учетную запись - на веб-сайте банка? Что происходит, когда пользователь закрывает счёта или хочет удалить приложение? Что произойдёт, если в приложении возникнет проблема и пользователи будут звонить в колл-центр? Если новая версия приложения не работает, вызовет ли это приток звонков в колл-центр, перегрузку его возможностей и, возможно, снижение продаж из-за упущенных других звонков?
На более техническом уровне, какие API вызывает приложение? Как эти API, в свою очередь, взаимодействуют с другими системами (например, с банковским мэйнфреймом)? Если возникла ошибка на мэйнфрейме, как это повлияет на API и, следовательно, на приложение и человека, использующего приложение?
Если у клиента возникла проблема с приложением, и он обращается за помощью в банк, смогут ли там помочь представители отдела работы с клиентами? Если нет, есть ли у них номер «горячей линии», по которому можно напрямую связаться с ИТ-специалистами или специалистами службы поддержки приложений?
Как разработчики, мы все являемся потребителями программного обеспечения, и иногда это даёт нам больше (а иногда и меньше) терпения относительно обычного пользователя. Когда что-то не работает, мы часто можем примерно определить тип ошибки и понять, возникла она по вине разработчиков по нашей вине или из-за внешних обстоятельств. Если что-то плохо спроектировано, мы, в отличие от обычных пользователей, можем предпринять некоторый расширенный набор действий, чтобы добиться результата (найти нужную кнопку, закопанную в дебрях меню, попробовать ещё раз, перезапустить приложение и т.п.).
Если нас, разработчиков ПО, раздражает плохая работа приложений, представьте, что чувствует «нормальный» человек?
Возможно, настало время, чтобы у каждой достаточно крупной компании была специальная команда по работе с пользователями, которая хорошо знакома со всей «экосистемой» и способами взаимодействия с ней пользователей. Тогда эти «чемпионы по UX» могли бы стать частью команд разработчиков, чтобы убедиться, что ни одно приложение не существует в вакууме.
Источник: http://dontcodetired.com/blog/post/No-App-Is-An-Island
День семьсот сороковой. #ЗаметкиНаПолях
API Endpoints как Замена Контроллерам MVC
Контроллеры в MVC по сути являются антипаттерном. Это наборы методов, которые никогда не вызывают друг друга и редко работают с одним и тем же состоянием. Они не связаны, имеют тенденцию раздуваться и выходить из-под контроля. Их приватные методы, если они вообще есть, обычно вызываются только одним публичным методом. Большинство разработчиков признают, что контроллеры должны быть как можно тоньше, но это единственное решение, предлагаемое «из коробки», так что это инструмент, который используют 99% разработчиков ASP.NET Core.
Вы можете использовать такие инструменты, как MediatR, чтобы смягчить проблему. MediatR позволяет использовать однострочные методы действий, которые направляют команды обработчикам. Но что, если можно обойтись и без этой надстройки?
Зачем использовать нестандартный фреймворк?
API Endpoints - это на самом деле просто контроллеры с наложенными на них некоторыми ограничениями. Они наследуют от
Вы, конечно, можете сами создавать контроллеры, соответствующие принципу SRP, но давайте честно, вы не будете этого делать. Например, практически все согласны с тем, что прямое изменение глобального состояния из множества различных функций, классов и модулей - плохая практика. Поэтому большинство языков предлагают области видимости для локальных переменных и аргументов, а большинство ОО-языков предлагают множество способов защиты и инкапсуляции переменных с использованием таких ключевых слов, как private, protected и internal. «Но нам не нужны эти ограничения - мы можем просто использовать соглашение об именах для наших глобальных переменных, чтобы сделать то же самое!» Да, да… Дайте знать, когда это заработает.
Хорошо, как начать работать с API Endpoints?
Для начала прочитайте файл README этого репозитория. В репозитории также есть образец проекта, который вы можете просмотреть, чтобы увидеть, как использовать паттерн Request-EndPoint-Response (REPR). Другие проекты с этим подходом: шаблон Clean Architecture и справочное приложение eShopOnWeb от Microsoft.
Если у вас уже есть проект и вы просто хотите начать использовать API Endpoints вместо контроллеров, просто добавьте пакет NuGet Ardalis.ApiEndpoints, а затем создавайте конечные точки, наследуя от типов
Паттерн REPR
Model-View-Controller (MVC) предназначен для работы с пользовательскими интерфейсами. Если вы создаёте API, представлений нет, поэтому в лучшем случае вы используете паттерн MC или его можно назвать Model-Action-Controller. То есть вы уже не используете MVC для API, поэтому можно подумать о более подходящем паттерне.
Конечные точки в API довольно самодостаточны, и каждую из них можно описать с помощью трёх компонентов:
1. Запрос - данные, ожидаемые конечной точкой.
2. Конечная точка - логика, которую конечная точка выполняет при получении запроса.
3. Ответ - ответ, который конечная точка возвращает вызывающей стороне.
Так получается паттерн Request-EndPoint-Response или REPR.
Не всем конечным точкам требуются данные в запросе или ответе. Но пустой запрос или ответ допустим, так же как некоторые действия MVC не требуют модели.
Использование библиотеки API Endpoints позволяет сгруппировать классы запроса, конечной точки и ответа в одном месте, чтобы вам не приходилось копаться в папках типа
Источник: https://ardalis.com/mvc-controllers-are-dinosaurs-embrace-api-endpoints/
API Endpoints как Замена Контроллерам MVC
Контроллеры в MVC по сути являются антипаттерном. Это наборы методов, которые никогда не вызывают друг друга и редко работают с одним и тем же состоянием. Они не связаны, имеют тенденцию раздуваться и выходить из-под контроля. Их приватные методы, если они вообще есть, обычно вызываются только одним публичным методом. Большинство разработчиков признают, что контроллеры должны быть как можно тоньше, но это единственное решение, предлагаемое «из коробки», так что это инструмент, который используют 99% разработчиков ASP.NET Core.
Вы можете использовать такие инструменты, как MediatR, чтобы смягчить проблему. MediatR позволяет использовать однострочные методы действий, которые направляют команды обработчикам. Но что, если можно обойтись и без этой надстройки?
Зачем использовать нестандартный фреймворк?
API Endpoints - это на самом деле просто контроллеры с наложенными на них некоторыми ограничениями. Они наследуют от
ControllerBase. Таким образом, они ни в коем случае не являются нестандартным подходом, и всё, что работает с контроллерами (маршрутизация, привязка модели, проверка модели, внедрение зависимостей, фильтры и т.д.), отлично работает с API Endpoints.Вы, конечно, можете сами создавать контроллеры, соответствующие принципу SRP, но давайте честно, вы не будете этого делать. Например, практически все согласны с тем, что прямое изменение глобального состояния из множества различных функций, классов и модулей - плохая практика. Поэтому большинство языков предлагают области видимости для локальных переменных и аргументов, а большинство ОО-языков предлагают множество способов защиты и инкапсуляции переменных с использованием таких ключевых слов, как private, protected и internal. «Но нам не нужны эти ограничения - мы можем просто использовать соглашение об именах для наших глобальных переменных, чтобы сделать то же самое!» Да, да… Дайте знать, когда это заработает.
Хорошо, как начать работать с API Endpoints?
Для начала прочитайте файл README этого репозитория. В репозитории также есть образец проекта, который вы можете просмотреть, чтобы увидеть, как использовать паттерн Request-EndPoint-Response (REPR). Другие проекты с этим подходом: шаблон Clean Architecture и справочное приложение eShopOnWeb от Microsoft.
Если у вас уже есть проект и вы просто хотите начать использовать API Endpoints вместо контроллеров, просто добавьте пакет NuGet Ardalis.ApiEndpoints, а затем создавайте конечные точки, наследуя от типов
BaseEndpoint или BaseAsyncEndpoint.Паттерн REPR
Model-View-Controller (MVC) предназначен для работы с пользовательскими интерфейсами. Если вы создаёте API, представлений нет, поэтому в лучшем случае вы используете паттерн MC или его можно назвать Model-Action-Controller. То есть вы уже не используете MVC для API, поэтому можно подумать о более подходящем паттерне.
Конечные точки в API довольно самодостаточны, и каждую из них можно описать с помощью трёх компонентов:
1. Запрос - данные, ожидаемые конечной точкой.
2. Конечная точка - логика, которую конечная точка выполняет при получении запроса.
3. Ответ - ответ, который конечная точка возвращает вызывающей стороне.
Так получается паттерн Request-EndPoint-Response или REPR.
Не всем конечным точкам требуются данные в запросе или ответе. Но пустой запрос или ответ допустим, так же как некоторые действия MVC не требуют модели.
Использование библиотеки API Endpoints позволяет сгруппировать классы запроса, конечной точки и ответа в одном месте, чтобы вам не приходилось копаться в папках типа
ViewModels или DTOs в поисках нужного класса. Библиотека значительно упрощает работу с отдельными конечными точками.Источник: https://ardalis.com/mvc-controllers-are-dinosaurs-embrace-api-endpoints/