Нужно переименовать пять переменных одновременно? Или добавить .orElseThrow() к каждому Optional в цепочке? Обычно копируешь первую строчку, вставляешь, правишь, повторяешь еще четыре раза.
Скучно, медленно, и легко ошибиться. А можно умнее.
🔹 Что делает
— Создает несколько курсоров в разных местах кода одновременно
— Все изменения применяются параллельно: печатаешь один раз → меняется везде
— Работает с выделением: можно выделить несколько фрагментов и редактировать их синхронно
— Понимает контекст: может выбрать все вхождения переменной или строки в файле
🔹 Зачем это нужно
— Массовые однотипные правки за секунды вместо копипасты
— Видишь все изменения сразу, до применения
— Идеально для инициализации билдеров: добавляешь .with перед каждым полем одним движением
— Работает с вертикальными блоками кода: легко править список параметров или цепочку вызовов
🔹 Как использовать
— Способ 1: Alt+J (Windows/Linux) или ⌃+G (macOS) — выделяет следующее вхождение слова под курсором.
Нажимайте повторно, чтобы добавить еще вхождения, или Ctrl+Alt+Shift+J / ⌃+⌘+G для всех сразу
— Способ 2: Alt+Shift+Click (Windows/Linux) или ⌥+Shift+Click (macOS) — ставит курсор в место клика.
Кликайте в нужные места, создавая множество курсоров вручную
— Способ 3: Alt+Shift+Insert (Windows/Linux) или ⌘+Shift+8 (macOS) — Column Selection Mode для вертикального выделения.
Для отмены всех курсоров кроме основного: Esc
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤6👍4
🔥 Как настроить Liquibase для управления миграциями БД
Liquibase — это инструмент для версионирования схемы базы данных. Забудьте про ручные SQL-скрипты и проблемы с синхронизацией между окружениями.
Работает декларативно, отслеживает все изменения, поддерживает rollback и работает с любыми реляционными БД.
1️⃣ Добавляем зависимости
Нужна одна основная зависимость: liquibase-core. Если используете Spring Boot, добавьте spring-boot-starter-liquibase — он автоматически интегрируется с DataSource и запускается при старте приложения.
Критически важно добавить JDBC-драйвер вашей БД (postgresql, mysql-connector и т.д.). Без него Liquibase не сможет подключиться и применить миграции.
2️⃣ Создаём структуру changelog-файлов
Создайте директорию resources/db/changelog/. В корне положите главный файл db.changelog-master.yaml — это точка входа, которая включает все остальные миграции.
В мастер-файле перечисляете пути к конкретным changeset-файлам в порядке применения. Называйте файлы по схеме: v1.0-create-users-table.yaml, v1.1-add-email-column.yaml — так проще ориентироваться в истории изменений.
3️⃣ Настраиваем application.yml
В конфигурации укажите путь к мастер-файлу через параметр spring.liquibase.change-log. По умолчанию это classpath:db/changelog/db.changelog-master.yaml.
Обязательно настройте параметры enabled (включить/выключить), drop-first (очистка БД перед стартом — только для dev!) и contexts (для разделения миграций по окружениям: dev, test, prod).
4️⃣ Пишем changeset'ы
Каждое изменение оборачивается в changeset с уникальным id и автором. Liquibase отслеживает, какие changeset'ы уже применены через служебную таблицу databasechangelog.
Основные типы изменений:
▪️ createTable / dropTable — создание/удаление таблиц
▪️ addColumn / dropColumn — добавление/удаление колонок
▪️ createIndex — создание индексов для оптимизации запросов
▪️ addForeignKey — настройка связей между таблицами
▪️ insert / update — заполнение справочников и тестовых данных
▪️ sql / sqlFile — для сложных кастомных запросов
Используйте preconditions для проверки условий перед применением: например, не создавать таблицу, если она уже существует.
5️⃣ Настраиваем rollback
Liquibase умеет откатывать изменения. Для большинства операций rollback генерируется автоматически, но для sql и sqlFile нужно явно указывать rollback-блок.
Добавляйте тег rollback с SQL-командами отката. Для createTable это будет dropTable, для addColumn — dropColumn. Это критически важно для production — без rollback вы не сможете откатить проблемную миграцию.
6️⃣ Работа с разными окружениями
Используйте contexts и labels для разделения миграций. Тестовые данные помечайте context="dev", production-миграции — context="prod". При запуске приложения указывайте нужный context в конфигурации.
Можно создать отдельные файлы для каждого окружения: db.changelog-dev.yaml с тестовыми данными и db.changelog-prod.yaml только со структурными изменениями. Подключайте их условно через профили Spring.
7️⃣ Лучшие практики
▪️ Никогда не изменяйте уже применённые changeset'ы — создавайте новые для исправлений
▪️ Один changeset = одно атомарное изменение. Не пихайте всё в один файл
▪️ Используйте runOnChange="false" чтобы changeset применялся только один раз
▪️ Добавляйте failOnError="true" для критичных миграций
▪️ Тестируйте миграции на копии production БД перед деплоем
✔️ Что происходит под капотом
При старте приложения Liquibase подключается к БД и проверяет наличие служебных таблиц DATABASECHANGELOG и DATABASECHANGELOGLOCK. Если их нет — создаёт.
Затем читает master-файл, получает список всех changeset'ов и сверяет с таблицей DATABASECHANGELOG. Новые changeset'ы применяются последовательно, информация о них записывается в таблицу с MD5-хэшем для контроля целостности.
💡 Бонус-совет
Интегрируйте Liquibase с CI/CD. Перед деплоем запускайте команду liquibase validate для проверки корректности changelog'ов. В pipeline добавьте команду liquibase updateSQL чтобы увидеть, какой SQL будет выполнен, без реального применения.
🐸 Библиотека джависта
#Enterprise
Liquibase — это инструмент для версионирования схемы базы данных. Забудьте про ручные SQL-скрипты и проблемы с синхронизацией между окружениями.
Работает декларативно, отслеживает все изменения, поддерживает rollback и работает с любыми реляционными БД.
Нужна одна основная зависимость: liquibase-core. Если используете Spring Boot, добавьте spring-boot-starter-liquibase — он автоматически интегрируется с DataSource и запускается при старте приложения.
Критически важно добавить JDBC-драйвер вашей БД (postgresql, mysql-connector и т.д.). Без него Liquibase не сможет подключиться и применить миграции.
Создайте директорию resources/db/changelog/. В корне положите главный файл db.changelog-master.yaml — это точка входа, которая включает все остальные миграции.
В мастер-файле перечисляете пути к конкретным changeset-файлам в порядке применения. Называйте файлы по схеме: v1.0-create-users-table.yaml, v1.1-add-email-column.yaml — так проще ориентироваться в истории изменений.
В конфигурации укажите путь к мастер-файлу через параметр spring.liquibase.change-log. По умолчанию это classpath:db/changelog/db.changelog-master.yaml.
Обязательно настройте параметры enabled (включить/выключить), drop-first (очистка БД перед стартом — только для dev!) и contexts (для разделения миграций по окружениям: dev, test, prod).
Каждое изменение оборачивается в changeset с уникальным id и автором. Liquibase отслеживает, какие changeset'ы уже применены через служебную таблицу databasechangelog.
Основные типы изменений:
▪️ createTable / dropTable — создание/удаление таблиц
▪️ addColumn / dropColumn — добавление/удаление колонок
▪️ createIndex — создание индексов для оптимизации запросов
▪️ addForeignKey — настройка связей между таблицами
▪️ insert / update — заполнение справочников и тестовых данных
▪️ sql / sqlFile — для сложных кастомных запросов
Используйте preconditions для проверки условий перед применением: например, не создавать таблицу, если она уже существует.
Liquibase умеет откатывать изменения. Для большинства операций rollback генерируется автоматически, но для sql и sqlFile нужно явно указывать rollback-блок.
Добавляйте тег rollback с SQL-командами отката. Для createTable это будет dropTable, для addColumn — dropColumn. Это критически важно для production — без rollback вы не сможете откатить проблемную миграцию.
Используйте contexts и labels для разделения миграций. Тестовые данные помечайте context="dev", production-миграции — context="prod". При запуске приложения указывайте нужный context в конфигурации.
Можно создать отдельные файлы для каждого окружения: db.changelog-dev.yaml с тестовыми данными и db.changelog-prod.yaml только со структурными изменениями. Подключайте их условно через профили Spring.
▪️ Никогда не изменяйте уже применённые changeset'ы — создавайте новые для исправлений
▪️ Один changeset = одно атомарное изменение. Не пихайте всё в один файл
▪️ Используйте runOnChange="false" чтобы changeset применялся только один раз
▪️ Добавляйте failOnError="true" для критичных миграций
▪️ Тестируйте миграции на копии production БД перед деплоем
При старте приложения Liquibase подключается к БД и проверяет наличие служебных таблиц DATABASECHANGELOG и DATABASECHANGELOGLOCK. Если их нет — создаёт.
Затем читает master-файл, получает список всех changeset'ов и сверяет с таблицей DATABASECHANGELOG. Новые changeset'ы применяются последовательно, информация о них записывается в таблицу с MD5-хэшем для контроля целостности.
Интегрируйте Liquibase с CI/CD. Перед деплоем запускайте команду liquibase validate для проверки корректности changelog'ов. В pipeline добавьте команду liquibase updateSQL чтобы увидеть, какой SQL будет выполнен, без реального применения.
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2🔥1
JMH — это фреймворк для точного микробенчмаркинга в Java
Он предназначен для создания тестов производительности, которые помогают анализировать, как различные изменения в коде влияют на его эффективность.
▪️ измерение времени выполнения на уровне микроопераций;
▪️ поддержка сложных случаев оптимизации JVM;
▪️ вывод подробной статистики;
▪️ возможность настройки параметров теста;
▪️ точные результаты без влияния JVM-оптимизаций.
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4❤1👏1
Вместо того чтобы копировать чужие манифесты с GitHub, вы настраиваете полноценный production-ready деплоймент через промпт.
Оптимизированный Dockerfile с multi-stage сборкой, Deployment с resource limits и health probes, Service Discovery через Kubernetes DNS, Ingress с TLS терминацией, автоскейлинг через HPA, NetworkPolicy для изоляции, RBAC для безопасности, и observability через Prometheus/Grafana.
📝 Промпт:
Generate a production-ready Spring Boot 3 application deployment to Kubernetes with enterprise-grade configuration:
— Create optimized multi-stage Dockerfile: Eclipse Temurin JDK 21, layered JAR, non-root user, distroless runtime image, minimal attack surface.
— Configure Kubernetes Deployment: resource requests/limits (CPU/memory), pod anti-affinity, PodDisruptionBudget, rolling update strategy with maxSurge/maxUnavailable, replica count.
— Implement health probes: liveness (/health/liveness), readiness (/health/readiness), startup probe for slow apps, custom health indicators, initial delays and timeouts.
— Set up configuration management: ConfigMaps for application.yml, Secrets for credentials, environment-specific overlays, volume mounts, Spring Cloud Kubernetes Config integration.
— Configure Service and Ingress: ClusterIP Service, NGINX Ingress with path/host routing, TLS termination via cert-manager, rate limiting, CORS policies.
— Implement RBAC: ServiceAccount, Role with least-privilege, RoleBinding, pod security context (runAsNonRoot, readOnlyRootFilesystem).
— Set up autoscaling: HorizontalPodAutoscaler based on CPU/memory/custom metrics, VerticalPodAutoscaler, scaling thresholds.
— Add NetworkPolicy: ingress/egress rules, namespace isolation, pod selector-based restrictions, deny-all default.
— Configure observability: Prometheus ServiceMonitor, Grafana dashboards, Spring Boot Actuator metrics, distributed tracing with Jaeger/Tempo, Loki for logs.
— Implement graceful shutdown: SIGTERM handling, preStop hooks, connection draining, termination grace period (30s+).
— Add secrets management: External Secrets Operator, HashiCorp Vault, AWS/GCP Secrets Manager CSI drivers.
— Create Helm chart: values.yaml with environment configs, templates for all resources, chart dependencies, deployment notes.
— Add Kustomize setup: base manifests, environment-specific overlays, ConfigMap generators.
— Configure init containers: database migrations (Flyway), wait-for-dependencies, secret fetching.
— Implement GitOps: ArgoCD Application manifest, sync policies, health checks, automated rollback.
Deliverables:
— Dockerfile with multi-stage build
— kubernetes/*.yaml (deployment, service, ingress, configmap, secret, hpa, networkpolicy)
— helm/ chart with templates and values
— kustomize/ with base and overlays
— prometheus-servicemonitor.yaml
— grafana-dashboard.json
— README with deployment guide and troubleshooting
— настроить service mesh (Istio) с mTLS;
— добавить canary deployments с Argo Rollouts;
— реализовать policy enforcement через Kyverno;
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏2🔥1🌚1
Пишешь SQL запрос в строке — ни подсветки синтаксиса, ни проверки, ни автодополнения. Опечатка в названии таблицы найдется только в рантайме. JSON в тесте? Вручную экранируешь кавычки и молишься, что не забыл запятую.
А IDEA умеет превращать строковые литералы в полноценные мини-редакторы с поддержкой нужного языка.
🔹 Что делает
— Внедряет поддержку другого языка (SQL, JSON, RegEx, HTML) внутри строкового литерала Java
— Включает подсветку синтаксиса, автодополнение, проверку ошибок для внедренного языка
— Позволяет редактировать в отдельном окне с полноценным редактором
— Понимает контекст: для SQL подключается к БД и предлагает реальные таблицы и колонки
🔹 Зачем это нужно
— Нативные SQL запросы в JDBC перестают быть черным ящиком — видишь ошибки до запуска
— JSON в тестовых данных валидируется на лету, форматируется одной кнопкой
— RegEx с подсветкой групп захвата и встроенным тестером
— HTML/XML в шаблонах проверяется на корректность структуры
— Xpath выражения с автодополнением элементов
🔹 Как использовать
— Автоматически: IDEA часто сама определяет язык (например, для методов createQuery, Pattern.compile)
— Вручную: Alt+Enter на строке → "Inject language or reference"
— Через аннотацию: добавить @Language("SQL") над String параметром
— Редактирование: Alt+Enter → "Edit SQL/JSON/RegEx fragment" — открывает полноценный редактор в popup
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥2❤1
🔥 Как настроить Swagger/OpenAPI для документирования API
Swagger (OpenAPI) — стандарт описания REST API. Автогенерация документации, интерактивное тестирование через UI, генерация клиентов для различных языков.
Синхронизируется с кодом автоматически, поддерживает аннотации для детального описания и используется как контракт между фронтендом и бекендом.
1️⃣ Добавляем зависимости
Для Spring Boot 3.x используйте springdoc-openapi-starter-webmvc-ui. Это современная библиотека, заменившая устаревший springfox.
Одна зависимость подтягивает всё необходимое: генерацию спецификации, Swagger UI и валидацию. Автоматически интегрируется со Spring MVC и Spring Security.
2️⃣ Создаём базовую конфигурацию
Создайте класс OpenApiConfig аннотированный @Configuration. Определите bean OpenAPI с общей информацией: название API, версия, описание, контакты, лицензия.
Используйте Info, Contact, License для метаданных. Настройте servers() для указания базовых URL разных окружений (dev, staging, prod). Это позволит тестировать через UI на любом окружении.
3️⃣ Документируем контроллеры
Используйте @Tag на классе контроллера для группировки эндпоинтов. На методах применяйте @Operation(summary, description) для описания операции.
Аннотируйте параметры через @Parameter(description, required, example). Для тела запроса используйте @io.swagger.v3.oas.annotations.parameters.RequestBody с описанием и примерами. Добавляйте @Schema на DTO для описания полей модели.
4️⃣ Описываем ответы API
Используйте @ApiResponses с набором @ApiResponse для каждого возможного HTTP статуса. Укажите responseCode, description и content с примерами.
Создайте стандартные ErrorResponse классы и документируйте их через @Schema(description). Это даст консистентную обработку ошибок и понятную документацию для клиентов API.
5️⃣ Настраиваем Security схемы
Для JWT добавьте SecurityScheme через @SecurityScheme аннотацию на конфигурации. Укажите type = BEARERAUTH, scheme = "bearer", bearerFormat = "JWT".
На защищённых эндпоинтах используйте @SecurityRequirement(name = "bearerAuth"). Swagger UI автоматически добавит поле для ввода токена и будет подставлять его в заголовок Authorization.
6️⃣ Кастомизация и расширение
Настройте springdoc.swagger-ui.path для изменения URL (по умолчанию /swagger-ui.html). Включите tryItOutEnabled и supportedSubmitMethods для удобного тестирования.
Используйте springdoc.api-docs.path для изменения пути к JSON спецификации (по умолчанию /v3/api-docs). Для группировки API используйте @RouterOperations и группировку по packages или paths.
7️⃣ Best practices и продвинутые фичи
▪️ Используйте @Hidden на методах/контроллерах для исключения из документации
▪️ Добавьте примеры запросов/ответов через @ExampleObject для лучшего UX
▪️ Генерируйте client SDK через openapi-generator-maven-plugin
▪️ В production отключайте Swagger UI или закрывайте авторизацией
▪️ Используйте springdoc.show-actuator для документирования Actuator эндпоинтов
▪️ Включите springdoc.default-consumes/produces-media-type для дефолтных типов
✔️ Что происходит под капотом
При старте приложения springdoc сканирует все контроллеры, читает аннотации Spring и OpenAPI, анализирует сигнатуры методов и типы параметров.
Из этой информации генерируется OpenAPI спецификация в формате JSON/YAML. Swagger UI читает эту спецификацию и рендерит интерактивный интерфейс с формами для тестирования и документацией.
💡 Бонус-совет
Интегрируйте OpenAPI спецификацию в CI/CD для автоматической проверки breaking changes. Используйте openapi-diff для сравнения версий API. Публикуйте спецификацию в artifact repository для использования клиентами при генерации SDK.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
🐸 Библиотека джависта
#Enterprise
Swagger (OpenAPI) — стандарт описания REST API. Автогенерация документации, интерактивное тестирование через UI, генерация клиентов для различных языков.
Синхронизируется с кодом автоматически, поддерживает аннотации для детального описания и используется как контракт между фронтендом и бекендом.
Для Spring Boot 3.x используйте springdoc-openapi-starter-webmvc-ui. Это современная библиотека, заменившая устаревший springfox.
Одна зависимость подтягивает всё необходимое: генерацию спецификации, Swagger UI и валидацию. Автоматически интегрируется со Spring MVC и Spring Security.
Создайте класс OpenApiConfig аннотированный @Configuration. Определите bean OpenAPI с общей информацией: название API, версия, описание, контакты, лицензия.
Используйте Info, Contact, License для метаданных. Настройте servers() для указания базовых URL разных окружений (dev, staging, prod). Это позволит тестировать через UI на любом окружении.
Используйте @Tag на классе контроллера для группировки эндпоинтов. На методах применяйте @Operation(summary, description) для описания операции.
Аннотируйте параметры через @Parameter(description, required, example). Для тела запроса используйте @io.swagger.v3.oas.annotations.parameters.RequestBody с описанием и примерами. Добавляйте @Schema на DTO для описания полей модели.
Используйте @ApiResponses с набором @ApiResponse для каждого возможного HTTP статуса. Укажите responseCode, description и content с примерами.
Создайте стандартные ErrorResponse классы и документируйте их через @Schema(description). Это даст консистентную обработку ошибок и понятную документацию для клиентов API.
Для JWT добавьте SecurityScheme через @SecurityScheme аннотацию на конфигурации. Укажите type = BEARERAUTH, scheme = "bearer", bearerFormat = "JWT".
На защищённых эндпоинтах используйте @SecurityRequirement(name = "bearerAuth"). Swagger UI автоматически добавит поле для ввода токена и будет подставлять его в заголовок Authorization.
Настройте springdoc.swagger-ui.path для изменения URL (по умолчанию /swagger-ui.html). Включите tryItOutEnabled и supportedSubmitMethods для удобного тестирования.
Используйте springdoc.api-docs.path для изменения пути к JSON спецификации (по умолчанию /v3/api-docs). Для группировки API используйте @RouterOperations и группировку по packages или paths.
▪️ Используйте @Hidden на методах/контроллерах для исключения из документации
▪️ Добавьте примеры запросов/ответов через @ExampleObject для лучшего UX
▪️ Генерируйте client SDK через openapi-generator-maven-plugin
▪️ В production отключайте Swagger UI или закрывайте авторизацией
▪️ Используйте springdoc.show-actuator для документирования Actuator эндпоинтов
▪️ Включите springdoc.default-consumes/produces-media-type для дефолтных типов
При старте приложения springdoc сканирует все контроллеры, читает аннотации Spring и OpenAPI, анализирует сигнатуры методов и типы параметров.
Из этой информации генерируется OpenAPI спецификация в формате JSON/YAML. Swagger UI читает эту спецификацию и рендерит интерактивный интерфейс с формами для тестирования и документацией.
Интегрируйте OpenAPI спецификацию в CI/CD для автоматической проверки breaking changes. Используйте openapi-diff для сравнения версий API. Публикуйте спецификацию в artifact repository для использования клиентами при генерации SDK.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤2🔥1
Выбор структуры данных — это не только про знание API, но и про понимание:
— нужен ли random access;
— важна ли уникальность;
— критичен ли порядок элементов;
— как часто insert/delete в середине.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤1🔥1🤔1
Проблема: Вы знаете, что код работал неделю назад, но сейчас есть баг. За это время было 50+ коммитов. Как найти тот, который всё сломал?
Эта команда работает как детектив — использует бинарный поиск по истории коммитов, чтобы за несколько шагов найти проблемный коммит. Вместо проверки всех 50 коммитов вручную, вы проверите всего 5-6!
git bisect start
git bisect bad # текущий коммит с багом
git bisect good abc123 # старый рабочий коммит
Git переключит вас на средний коммит. Проверьте код и скажите:
git bisect good # если баг отсутствует
git bisect bad # если баг есть
git bisect reset # вернётесь в исходное состояние
В итоге 50 коммитов проверите за 6 шагов вместо 50! 🚀
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍5❤3
Вместо простого full-text search, вы получаете мощную аналитическую платформу с real-time индексацией.
Spring Data Elasticsearch даёт полный набор возможностей: собственные анализаторы текста, агрегаты для аналитики и сводных выборок, подсветку найденных терминов, поиск с учётом опечаток, геозапросы по координатам, декларативный конструктор запросов, управление жизненным циклом индекса, поиск между несколькими кластерами, создание снимков и восстановление данных для резервного копирования, а также наблюдение и метрики через панели мониторинга в Kibana.
📝 Промпт:
Implement advanced Elasticsearch integration for Spring Boot 3 application:
— Configure Spring Data Elasticsearch: connection settings (cluster nodes, port 9200), RestHighLevelClient configuration, authentication (username/password or API key), SSL/TLS for secure connection, connection pool tuning (max connections, timeout).
— Create document mappings: @Document with index name and settings, @Field with type (text, keyword, date, nested), custom analyzers (standard, whitespace, ngram for autocomplete), tokenizers and filters, multi-field mappings for text/keyword.
— Implement repository layer: extend ElasticsearchRepository, custom query methods with naming conventions (findByTitleContaining), @Query annotation with JSON DSL, native search queries with NativeSearchQuery, pagination with Pageable.
— Add full-text search: multi-match queries across fields, boosting for relevance tuning (title^3, description^1), phrase matching, fuzzy search for typos (fuzziness=AUTO), highlighting with <em> tags, minimum_should_match parameter.
— Configure aggregations: terms aggregation for faceting, date histogram for time-based analytics, metrics (avg, sum, min, max), nested aggregations, bucket sorting, pipeline aggregations for calculations.
— Implement geo-spatial search: geo_point field type, geo_distance queries for radius search, geo_bounding_box for area search, geo_shape for complex polygons, distance sorting.
— Set up index management: index templates for consistent settings, index aliases for zero-downtime reindexing, ILM policies (hot/warm/cold/delete phases), rollover based on size/age, shrink for optimization.
— Add bulk operations: bulk indexing with BulkRequest for performance, batch size tuning (1000-5000 docs), refresh strategy (wait_for or async), error handling for partial failures, bulk processor with backoff.
— Configure search optimization: query cache for repeated queries, field data cache for aggregations/sorting, request cache for size=0 aggregation queries, index refresh interval (1s default, increase for write-heavy), force merge for read-only indices.
— Implement monitoring: cluster health API (green/yellow/red), node stats (JVM heap, disk usage), index stats (doc count, size), slow log for query/indexing analysis, Kibana dashboards with visualizations, alerting with Watcher.
Deliverables: ElasticsearchConfig.java, document entity classes with @Document, repository interfaces, search service with query builders, index templates JSON, ILM policies, Kibana dashboard exports, integration tests with Testcontainers
— добавить learning to rank with LTR plugin;
— реализовать semantic search with dense vectors;
— настроить cross-cluster replication
🤌 Бонусы для подписчиков:
— Скидка 40% на все курсы Академии
— Розыгрыш Apple MacBook
— Бесплатный тест на знание математики
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1👏1
🎯 Магия IntelliJ IDEA: Stream Debugger
Дебажишь цепочку стримов из 5 операций? Breakpoint показывает только входную коллекцию. Чтобы понять, где отвалились элементы, приходится разбивать стрим на переменные или добавлять peek(System.out::println) и пересобирать.
А IDEA умеет дебажить Stream API пошагово с визуализацией данных на каждой операции.
🔹 Что делает
— Показывает данные после каждой операции в цепочке (map, filter, flatMap, etc.)
— Визуализирует, какие элементы прошли/отфильтровались на каждом шаге
— Поддерживает Flat Mode для flatMap — разворачивает вложенные стримы
— Работает с параллельными стримами, показывая распределение по потокам
— Не требует изменения кода — breakpoint на любом месте стрима
🔹 Зачем это нужно
— Понять, почему в результате нет ожидаемых элементов (на каком filter отвалились)
— Увидеть промежуточные трансформации данных в сложных map/flatMap
— Найти элемент, который вызывает exception в середине pipeline
🔹 Как использовать
— Поставить breakpoint на любой строке с Stream API
— При остановке: кнопка "Trace Current Stream Chain" в дебаггере (иконка с волнами)
— Откроется окно с визуализацией: каждая операция — своя колонка с данными
— Можно кликнуть на элемент и увидеть его трансформацию по всей цепочке
— Flat Mode: переключатель для flatMap — раскрывает вложенные коллекции
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
🐸 Библиотека джависта
#Enterprise
Дебажишь цепочку стримов из 5 операций? Breakpoint показывает только входную коллекцию. Чтобы понять, где отвалились элементы, приходится разбивать стрим на переменные или добавлять peek(System.out::println) и пересобирать.
А IDEA умеет дебажить Stream API пошагово с визуализацией данных на каждой операции.
🔹 Что делает
— Показывает данные после каждой операции в цепочке (map, filter, flatMap, etc.)
— Визуализирует, какие элементы прошли/отфильтровались на каждом шаге
— Поддерживает Flat Mode для flatMap — разворачивает вложенные стримы
— Работает с параллельными стримами, показывая распределение по потокам
— Не требует изменения кода — breakpoint на любом месте стрима
🔹 Зачем это нужно
— Понять, почему в результате нет ожидаемых элементов (на каком filter отвалились)
— Увидеть промежуточные трансформации данных в сложных map/flatMap
— Найти элемент, который вызывает exception в середине pipeline
🔹 Как использовать
— Поставить breakpoint на любой строке с Stream API
— При остановке: кнопка "Trace Current Stream Chain" в дебаггере (иконка с волнами)
— Откроется окно с визуализацией: каждая операция — своя колонка с данными
— Можно кликнуть на элемент и увидеть его трансформацию по всей цепочке
— Flat Mode: переключатель для flatMap — раскрывает вложенные коллекции
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥6❤3
🔥 Как настроить Spring Cloud Config для централизованной конфигурации
Spring Cloud Config — это сервер конфигурации для распределённых систем. Централизованное хранение настроек, версионирование через Git, динамическое обновление без рестарта.
Поддерживает profiles, encryption секретов, webhook для автообновления и fallback на локальную конфигурацию при недоступности сервера.
1️⃣ Добавляем зависимости для Config Server
Создайте отдельный Spring Boot проект для Config Server. Добавьте зависимости spring-cloud-config-server и spring-boot-starter-actuator.
Критически важно указать версию Spring Cloud через dependencyManagement. Для Spring Boot 3.x используйте Spring Cloud 2022.x. Несовместимость версий приведёт к runtime ошибкам.
2️⃣ Настраиваем Config Server
Аннотируйте главный класс через @EnableConfigServer. В application.yml укажите spring.cloud.config.server.git.uri с путём к Git репозиторию конфигураций.
Настройте search-paths для структуры директорий: /{application} или /{application}/{profile}. Добавьте username/password для приватных репозиториев. Используйте clone-on-start=true для проверки доступности репо при старте.
3️⃣ Организуем структуру конфигураций в Git
Создайте Git репо с файлами конфигураций. Именование: {application}-{profile}.yml. Например: user-service-dev.yml, user-service-prod.yml.
Общие настройки кладите в application.yml — они применяются ко всем сервисам. Специфичные настройки в application-{profile}.yml. Config Server мержит конфигурации в правильном порядке приоритета.
4️⃣ Настраиваем Config Client в сервисах
В микросервисах добавьте зависимость spring-cloud-starter-config. Создайте bootstrap.yml (или application.yml) с параметрами для подключения к Config Server.
Укажите spring.application.name (имя сервиса для поиска конфигурации), spring.config.import=optional:configserver:http://config-server:8888, spring.cloud.config.fail-fast=false для graceful degradation.
5️⃣ Реализуем динамическое обновление конфигурации
Аннотируйте beans через @RefreshScope для пересоздания при обновлении конфигурации. Они будут уничтожены и созданы заново с новыми значениями из Config Server.
Отправляйте POST запрос на /actuator/refresh для обновления конфигурации в runtime. Для обновления всех инстансов используйте Spring Cloud Bus с RabbitMQ/Kafka — один запрос обновит все микросервисы.
6️⃣ Настраиваем шифрование секретов
Настройте encrypt.key в Config Server для симметричного шифрования или используйте keystore для asymmetric encryption. Шифруйте секреты через POST /encrypt endpoint.
В конфигах храните зашифрованные значения с префиксом {cipher}: password: '{cipher}AQBzQoXWeF...'. Config Server автоматически расшифрует при запросе от клиента. Ключ шифрования храните в environment variables.
7️⃣ Высокая доступность и наблюдение
▪️ Запускайте несколько экземпляров сервера настроек за load balancer'ом
▪️ Настройте параметры retry и timeout в клиентах на случай недоступности сервера
▪️ Включите actuator endpoints для мониторинга Config Server
▪️ Кэшируйте настройки на клиенте через встроенное кэширование spring-cloud-config-client
✔️ Что происходит под капотом
При старте Config Client делает HTTP запрос к Config Server с именем приложения и профилем. Config Server клонирует Git репо (или использует кеш), ищет файлы по pattern, парсит YAML/properties.
Конфигурации мержатся по приоритету (profile > application > default), секреты расшифровываются. Config Server возвращает JSON со всеми property sources. Client применяет их в Spring Environment с высоким приоритетом.
💡 Бонус-совет
Используйте Vault Backend вместо Git для критичных секретов. Spring Cloud Config поддерживает HashiCorp Vault как backend для конфигурации. Vault обеспечивает динамические секреты, audit logging, fine-grained access control. Настройте через spring.cloud.config.server.vault.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
🐸 Библиотека джависта
#Enterprise
Spring Cloud Config — это сервер конфигурации для распределённых систем. Централизованное хранение настроек, версионирование через Git, динамическое обновление без рестарта.
Поддерживает profiles, encryption секретов, webhook для автообновления и fallback на локальную конфигурацию при недоступности сервера.
Создайте отдельный Spring Boot проект для Config Server. Добавьте зависимости spring-cloud-config-server и spring-boot-starter-actuator.
Критически важно указать версию Spring Cloud через dependencyManagement. Для Spring Boot 3.x используйте Spring Cloud 2022.x. Несовместимость версий приведёт к runtime ошибкам.
Аннотируйте главный класс через @EnableConfigServer. В application.yml укажите spring.cloud.config.server.git.uri с путём к Git репозиторию конфигураций.
Настройте search-paths для структуры директорий: /{application} или /{application}/{profile}. Добавьте username/password для приватных репозиториев. Используйте clone-on-start=true для проверки доступности репо при старте.
Создайте Git репо с файлами конфигураций. Именование: {application}-{profile}.yml. Например: user-service-dev.yml, user-service-prod.yml.
Общие настройки кладите в application.yml — они применяются ко всем сервисам. Специфичные настройки в application-{profile}.yml. Config Server мержит конфигурации в правильном порядке приоритета.
В микросервисах добавьте зависимость spring-cloud-starter-config. Создайте bootstrap.yml (или application.yml) с параметрами для подключения к Config Server.
Укажите spring.application.name (имя сервиса для поиска конфигурации), spring.config.import=optional:configserver:http://config-server:8888, spring.cloud.config.fail-fast=false для graceful degradation.
Аннотируйте beans через @RefreshScope для пересоздания при обновлении конфигурации. Они будут уничтожены и созданы заново с новыми значениями из Config Server.
Отправляйте POST запрос на /actuator/refresh для обновления конфигурации в runtime. Для обновления всех инстансов используйте Spring Cloud Bus с RabbitMQ/Kafka — один запрос обновит все микросервисы.
Настройте encrypt.key в Config Server для симметричного шифрования или используйте keystore для asymmetric encryption. Шифруйте секреты через POST /encrypt endpoint.
В конфигах храните зашифрованные значения с префиксом {cipher}: password: '{cipher}AQBzQoXWeF...'. Config Server автоматически расшифрует при запросе от клиента. Ключ шифрования храните в environment variables.
▪️ Запускайте несколько экземпляров сервера настроек за load balancer'ом
▪️ Настройте параметры retry и timeout в клиентах на случай недоступности сервера
▪️ Включите actuator endpoints для мониторинга Config Server
▪️ Кэшируйте настройки на клиенте через встроенное кэширование spring-cloud-config-client
При старте Config Client делает HTTP запрос к Config Server с именем приложения и профилем. Config Server клонирует Git репо (или использует кеш), ищет файлы по pattern, парсит YAML/properties.
Конфигурации мержатся по приоритету (profile > application > default), секреты расшифровываются. Config Server возвращает JSON со всеми property sources. Client применяет их в Spring Environment с высоким приоритетом.
Используйте Vault Backend вместо Git для критичных секретов. Spring Cloud Config поддерживает HashiCorp Vault как backend для конфигурации. Vault обеспечивает динамические секреты, audit logging, fine-grained access control. Настройте через spring.cloud.config.server.vault.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3🔥3👏1
Какая рубрика нравится больше? Если забыли, о чём рубрика, можно освежить в памяти тут.
🔥 → #CoreJava
👍🏼 → #Enterprise
👾 → #DevLife
🤔 → #News
❤️ → Всё нравится :))
#DevLife
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍12🔥6👾4
🔧 Apache Commons — библиотека, которая тебе точно нужна
Apache Commons — это коллекция утилит, которую многие видели, но мало кто использует на полную. Внутри есть решения для задач, которые вы пишете руками почти в каждом проекте.
🔹 StringUtils.defaultIfBlank()
Сколько раз вы писали проверку: "если строка не null, не пустая и не состоит из пробелов — используй её, иначе дефолт"?
В Commons это одна строчка. Причём работает правильно во всех граничных случаях, о которых вы можете забыть в 2 часа ночи перед релизом.
🔹 BidiMap: когда HashMap уже не хватает
Представьте: у вас есть маппинг email → userId, и вам постоянно нужно искать и в одну сторону, и в другую. Обычное решение — две Map синхронизировать вручную.
В Commons есть BidiMap, который делает reverse lookup за O(1) и автоматически поддерживает консистентность.
Идеально для кэшей, где ключ и значение равноправны.
🔹 LRUMap: кэширование без библиотек
Нужен простой in-memory кэш с автоматическим вытеснением старых записей?
Commons даёт готовую LRU реализацию. Никаких зависимостей от Caffeine или Guava, никаких настроек — просто работающий кэш.
При превышении лимита старые элементы выбрасываются автоматически. Для 80% задач кэширования этого достаточно.
🔹 FileAlterationObserver: hot reload без костылей
Хотите, чтобы приложение подхватывало изменения в конфиге без рестарта?
Commons умеет следить за файловой системой и уведомлять об изменениях. Без polling'а каждую секунду, без самописных велосипедов.
🔹 RandomStringUtils: токены и коды
Генерация случайных строк — частая задача. API токены, коды подтверждения, тестовые данные.
В Commons это решается одной строчкой, причём с выбором символов: только буквы, только цифры, алфавитно-цифровые.
Не криптографически стойкий генератор, но для большинства бизнес-задач идеален.
🔹 Bag: подсчёты без Map<T, Integer>
Нужно считать, сколько раз встретился элемент? Обычно делают Map и вручную инкрементят счётчик.
В Commons есть Bag — структура данных специально для этого. Добавляете элементы, она сама считает.
Удобно для статистики, метрик, анализа логов.
🔹 WordUtils: текст для людей
Форматирование текста с переносами — казалось бы, простая задача. Но нужно учитывать границы слов, не ломать их посередине, правильно обрабатывать пробелы.
Commons делает это правильно.
Для CLI-приложений, email-рассылок, генерации отчётов — везде, где текст должен выглядеть аккуратно.
📌 Commons — это не просто набор утилит. Это годы production опыта, упакованные в API. Каждый класс решает реальную проблему, с которой вы уже сталкивались или столкнётесь. И решает правильно, со всеми edge cases.
Вместо того чтобы писать в сотый раз StringHelper или FileWatcher, можно просто использовать готовое. Меньше кода, меньше багов, больше времени на бизнес-логику.
💬 Какие утилиты часто используете?
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
🐸 Библиотека джависта
#Enterprise
Apache Commons — это коллекция утилит, которую многие видели, но мало кто использует на полную. Внутри есть решения для задач, которые вы пишете руками почти в каждом проекте.
🔹 StringUtils.defaultIfBlank()
Сколько раз вы писали проверку: "если строка не null, не пустая и не состоит из пробелов — используй её, иначе дефолт"?
В Commons это одна строчка. Причём работает правильно во всех граничных случаях, о которых вы можете забыть в 2 часа ночи перед релизом.
String name = StringUtils.defaultIfBlank(user.getName(), "Anonymous");
🔹 BidiMap: когда HashMap уже не хватает
Представьте: у вас есть маппинг email → userId, и вам постоянно нужно искать и в одну сторону, и в другую. Обычное решение — две Map синхронизировать вручную.
В Commons есть BidiMap, который делает reverse lookup за O(1) и автоматически поддерживает консистентность.
BidiMap<String, Integer> userIds = new DualHashBidiMap<>();
String email = userIds.getKey(12345); // обратный поиск
Идеально для кэшей, где ключ и значение равноправны.
🔹 LRUMap: кэширование без библиотек
Нужен простой in-memory кэш с автоматическим вытеснением старых записей?
Commons даёт готовую LRU реализацию. Никаких зависимостей от Caffeine или Guava, никаких настроек — просто работающий кэш.
Map<String, Data> cache = new LRUMap<>(1000);
При превышении лимита старые элементы выбрасываются автоматически. Для 80% задач кэширования этого достаточно.
🔹 FileAlterationObserver: hot reload без костылей
Хотите, чтобы приложение подхватывало изменения в конфиге без рестарта?
Commons умеет следить за файловой системой и уведомлять об изменениях. Без polling'а каждую секунду, без самописных велосипедов.
observer.addListener(new FileAlterationListenerAdaptor() {
public void onFileChange(File file) { reloadConfig(); }
});🔹 RandomStringUtils: токены и коды
Генерация случайных строк — частая задача. API токены, коды подтверждения, тестовые данные.
В Commons это решается одной строчкой, причём с выбором символов: только буквы, только цифры, алфавитно-цифровые.
String token = RandomStringUtils.randomAlphanumeric(32);
Не криптографически стойкий генератор, но для большинства бизнес-задач идеален.
🔹 Bag: подсчёты без Map<T, Integer>
Нужно считать, сколько раз встретился элемент? Обычно делают Map и вручную инкрементят счётчик.
В Commons есть Bag — структура данных специально для этого. Добавляете элементы, она сама считает.
Bag<String> errors = new HashBag<>();
errors.add("NullPointer", 5);
int count = errors.getCount("NullPointer");
Удобно для статистики, метрик, анализа логов.
🔹 WordUtils: текст для людей
Форматирование текста с переносами — казалось бы, простая задача. Но нужно учитывать границы слов, не ломать их посередине, правильно обрабатывать пробелы.
Commons делает это правильно.
String wrapped = WordUtils.wrap(longText, 80);
Для CLI-приложений, email-рассылок, генерации отчётов — везде, где текст должен выглядеть аккуратно.
Вместо того чтобы писать в сотый раз StringHelper или FileWatcher, можно просто использовать готовое. Меньше кода, меньше багов, больше времени на бизнес-логику.
🔹 Курс «Алгоритмы и структуры данных»
🔹 Получить консультацию менеджера
🔹 Сайт Академии 🔹 Сайт Proglib
#Enterprise
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥3❤2