Здравствуйте уважаемые форумчане, сегодня мы рассмотрим подробный гайд по сливу баз с сайтов через SQL Dumper. Да конечно таких тем было уже очень много, но моя будет более подробная и на мой взгляд более удобная и рассчитана на новичков. Сюда выкладывать софт не буду, тк все есть на нашем форуме, ссылки будут в конце темы. И так приступим.
Для начала нам потребуется генератор дорков, чтобы создать более-менее приватные запросы. Предупреждаю сразу, если у вас нет фантазии , то тему может сразу закрыть , потому что для создания нормального приват-дорка нужно немного подумать, тк такие запросы как forum , games ,steam и тд уже прочеканны и слиты уже давным давно и максимум что вы получите это небольшую кучку невалида или просто обычные паблик базы с которых будет 0 профита.
И так рассмотрим нашу программу:
В первых 3 столбиках ничего не трогаем, переходим сразу к столбику запрос и тут начинается самое интересное, где нам понадобится фантазия, не бойтесь экспериментировать , придумывайте разные комбинации слов ( небольшой совет, сверху над 2 и 3 столбиком можно поставить галочки, которые прибавляют в дорки запрос inurl: , можете сделать допустим сразу 4 вариации дорков в разных текстовых файлах) Запросов можно писать не ограниченное колличество, 1 запрос на 1 строке, в любом случае программа сделает все возможные комбинации с каждым запросом.После того как написали все нужные вам запросы, жмем генерировать.
Следущий этап: парсим ссылки через наши дорки. Нам потребуется парсер Selka , кончено можно воспользоваться и другим , но плюсы этого парсера: множество поисковиков, выбор по страннам, при этом этот парсер не банит поисковая система и нам не понадобится антигейт или вводить постоянно капчу, очень быстрый и простой в обращении. Устанавливаем и открываем наш парсер, сразу открывается окно нового проекта, в данное окно будем вставлять наши дорки ( примечание: дорки лучше разделить на несколько частей через любые программы для работы с базами и текстом, изза большого колличества дорок и спарсеных ссылок при сохраненнии может возникнуть ошибка при котором ссылки не сохранятся) В случае если новый проект не открылся автоматически то можем открыть его сами, кнопку выделил красным
Когда вставили наши дорки , жмем далее и видим выбор поисковой системы, странны и колличество ссылок на каждый запрос.
Я предпочитаю бинг, странны выбираю Россию и Украину.
Нажимаем далее и запускаем наш проект и ждем пока парсинг ссылок закончится. Коггда поиск закончится, нижимаем экспорт и выбираем Exel и ждем пока сохранится.
Открываем наш Exel файл и копируем ссылки в обчыный тестовый документ и сохраняем.
Открываем Sql Dumper и выбираем Import и выбираем наш текстовый файл с ссылками.
Перходим во вкладку Exploitables и жмем Start Exploiter и ждем пока программа найдет сайты с доступной SQl инъекцией.
Далее переходим во складку Injectables и нажимаем наверху Start analizer , после анализа нам выводят сайты доступные для слива. Нажимаем на сайт ПКМ и жмем go to dumper. И вот мы уже приближаемся к финалу. Видим базу данных нашего сайта. Жмем Get tables и получаем таблицы из нашей базы, нас интересуют таблицы с названием users названия могут меняться , будьте внимательны.
В моем случае forum users. Жмем Get columns и ищем колонны usermail и userpass .
В моем случае user_password и user_email . Опять же названия могут меняться. И теперь жмем Dump data и ждем пока сольются мейл и пасс.
Теперь когда все слилось мы можем сохранить нашу слитую базку, жмем export data и сохранем куда нам удобно.
бывают ситуации когда дампер сохраняет базу наоборот т.е. не майл:пасс , а пасс:майл или хеш:майл. Не стоит пугаться , существуют программы которые меняют местами столбцы в текстовом документе.
Если у вас вместо пароля набор символов как у меня , то это хеш и его нужно разшифровать, в сети очень много программ для расшифровки, найти ее не заставит труда.
Так же можно пропустить шаг с Парсером, поскольку в Дампере есть встроенный парсер дорок, но он парсит медленно и очень мало, выбор за вами.
Вот список утилит которые нам потребуются:
Для начала нам потребуется генератор дорков, чтобы создать более-менее приватные запросы. Предупреждаю сразу, если у вас нет фантазии , то тему может сразу закрыть , потому что для создания нормального приват-дорка нужно немного подумать, тк такие запросы как forum , games ,steam и тд уже прочеканны и слиты уже давным давно и максимум что вы получите это небольшую кучку невалида или просто обычные паблик базы с которых будет 0 профита.
И так рассмотрим нашу программу:
В первых 3 столбиках ничего не трогаем, переходим сразу к столбику запрос и тут начинается самое интересное, где нам понадобится фантазия, не бойтесь экспериментировать , придумывайте разные комбинации слов ( небольшой совет, сверху над 2 и 3 столбиком можно поставить галочки, которые прибавляют в дорки запрос inurl: , можете сделать допустим сразу 4 вариации дорков в разных текстовых файлах) Запросов можно писать не ограниченное колличество, 1 запрос на 1 строке, в любом случае программа сделает все возможные комбинации с каждым запросом.После того как написали все нужные вам запросы, жмем генерировать.
Следущий этап: парсим ссылки через наши дорки. Нам потребуется парсер Selka , кончено можно воспользоваться и другим , но плюсы этого парсера: множество поисковиков, выбор по страннам, при этом этот парсер не банит поисковая система и нам не понадобится антигейт или вводить постоянно капчу, очень быстрый и простой в обращении. Устанавливаем и открываем наш парсер, сразу открывается окно нового проекта, в данное окно будем вставлять наши дорки ( примечание: дорки лучше разделить на несколько частей через любые программы для работы с базами и текстом, изза большого колличества дорок и спарсеных ссылок при сохраненнии может возникнуть ошибка при котором ссылки не сохранятся) В случае если новый проект не открылся автоматически то можем открыть его сами, кнопку выделил красным
Когда вставили наши дорки , жмем далее и видим выбор поисковой системы, странны и колличество ссылок на каждый запрос.
Я предпочитаю бинг, странны выбираю Россию и Украину.
Нажимаем далее и запускаем наш проект и ждем пока парсинг ссылок закончится. Коггда поиск закончится, нижимаем экспорт и выбираем Exel и ждем пока сохранится.
Открываем наш Exel файл и копируем ссылки в обчыный тестовый документ и сохраняем.
Открываем Sql Dumper и выбираем Import и выбираем наш текстовый файл с ссылками.
Перходим во вкладку Exploitables и жмем Start Exploiter и ждем пока программа найдет сайты с доступной SQl инъекцией.
Далее переходим во складку Injectables и нажимаем наверху Start analizer , после анализа нам выводят сайты доступные для слива. Нажимаем на сайт ПКМ и жмем go to dumper. И вот мы уже приближаемся к финалу. Видим базу данных нашего сайта. Жмем Get tables и получаем таблицы из нашей базы, нас интересуют таблицы с названием users названия могут меняться , будьте внимательны.
В моем случае forum users. Жмем Get columns и ищем колонны usermail и userpass .
В моем случае user_password и user_email . Опять же названия могут меняться. И теперь жмем Dump data и ждем пока сольются мейл и пасс.
Теперь когда все слилось мы можем сохранить нашу слитую базку, жмем export data и сохранем куда нам удобно.
бывают ситуации когда дампер сохраняет базу наоборот т.е. не майл:пасс , а пасс:майл или хеш:майл. Не стоит пугаться , существуют программы которые меняют местами столбцы в текстовом документе.
Если у вас вместо пароля набор символов как у меня , то это хеш и его нужно разшифровать, в сети очень много программ для расшифровки, найти ее не заставит труда.
Так же можно пропустить шаг с Парсером, поскольку в Дампере есть встроенный парсер дорок, но он парсит медленно и очень мало, выбор за вами.
Вот список утилит которые нам потребуются:
- Парсер Selka: Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
- Sql Dumper v7 : Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
- Создание дорок : Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
- Расшифровка хеша: Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
- Меняем местами хеш:пасс: Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!