Способы восстановления сайта из вебархива

Дропы

Сложилось впечатление, что народ не в курсе какие есть способы восстановления сайта из вебархива. Я все описывать не буду, т.к. мне лень. Опишу чем пользуюсь сам и к чему присматриваюсь.

Сервисы о которых пойдёт речь:

  1. Archivarix
  2. Ruby/Python

Archivarix

Норм сервис. Часто им пользуюсь.

Плюсы:

  • Восстановление сайта состоящего из 200 файлов будет бесплатным (халява, мужики и дамы!);
  • Настройка восстановления (удалить рекламу, оптимизировать html и т.д.);
  • Archivarix CMS. Удобно потом добавлять метрику или что-то заменять на страницах. Не WordPress, но лучше чем файлики html;
  • Парсинг структурированных данных. Эти данные грузятся в WordPress. Удобно;
  • Недорого для небольших сайтов (а то и вовсе халява);
  • Можно нагенерировать статьи на html с помощью X-GPTWriter и закинуть их в CMS. Должно быть норм.

Сделаю за вас сайт со статьями от chatGPT3.5 на дропе или новореге. Пишите в телегу.

Минусы:

  • Дорого для больших сайтов;
  • Поддержка мне не понравилась. Ответили через стопицотмиллионов веков и завуалированно назвали тупым (возможно, я слишком нежный для ваших суровых интернетов…ну или правда тупой :D). Но это было года 2 назад, может всё поменялось.

Инструкция для восстановления сайта через Archivarix

  1. Регаемся. Надеюсь подробности не нужны? 🙂
  2. Тыкаем Восстановить сайт:
  3. Заполняем строки:
    • Домен — без http/https/www и других штук.
    • Если ввести домен, появляются две кнопочки Календарь снимков (там можно выбрать дату от какого начинать парсить сайт и до какого числа) и Таблица URL (список урлов, которые есть в архиве);
    • До временной отметки — т.е. дата последнего нормально снимка сайта. Например, 202308 (год и месяц). Обычно заполняю.
    • Начиная с временной отметки — т.к. самый старый подходящий снимок сайта. Например, 202007. Обычно не заполняю.
  4. Выбираем настройки, которые вам нужны:
  5. Тыкаем кнопку Восстановить. Ждём.
  6. Подождали, теперь можно и поработать.
  7. Перешли в меню Мой аккаунт — Без подтверждения.
  8. Аху Ахаете от цены, но деваться некуда давайте восстанавливать.
  9. Тыкаем оплатить, оплачиваете (думаю, догадаетесь как) и снова ждём…
  10. Сайт появляется во вкладке Готовые. Тыкаем на кнопку Управлять (или какая там будет?).
  11. Скачиваем CMS и копируем код для файлов сайта.
  12. Отправляем архив на хостинг (я пользуюсь бегетом), распаковываем архив.
  13. Вбиваем в адресную строку domen.ru/archivarix.cms.php
  14. В появившемся окне вбиваем код файлов сайта и CMS сама скачивает файлы.
  15. Вуяля!
Вот чёткая запись от Лёхи:  Эксперимент по накрутке поведенческих факторов

Сам пользуюсь, когда надо скачать небольшой сайт. Советую. Быстро и удобно поддерживать на Archivarix CMS.

Кому лень разбираться — пишите, восстановлю сайты за денежку.

Если вдруг где-то что-то косякнул или не понятно — пишите в комментариях или в телеге.

Библиотека Ruby или Python

Плюсы:

  • Халява! Вуху!

Минусы:

  • Придётся чуток разобраться с установкой и прочим;
  • Нет CMS (но халява!)

Инструкция для Ruby

Опишу на примере Ruby, т.к. с Python будет тоже самое.

  1. Скачиваем Ruby.
  2. Устанавливаем: пишем в терминале
    gem install wayback_machine_downloader
  3. Установилось. Теперь немного о командах:Указываем домен и с какой даты начинаем закачку:
    wayback_machine_downloader http://example.com --from 20060716231334Указываем домен и до какой даты начинаем закачку:
    wayback_machine_downloader http://example.com --to 20140716231334Можно это указать вместе:
    wayback_machine_downloader http://example.com --from 20060716231334 --to 20140716231334Другими командами я не пользуюсь. Если что в гугле найдете 🙂
  4. Где взять дату? В адресной строке вебархива:
  5. Дальше скачиваем и отправляем на хостинг.
  6. Готово.

Кому лень разбираться — пишите, восстановлю сайты за денежку.

Другие способы восстановления сайта

  1. Mydrop — сервис на слуху, его использую для поиска дропов. Но и восстановить сайт тоже можно. Вроде как, у них своя база, не из вебархива. Можно проверять сначала в вебархиве — если там сайт не сохранился, попробовать поискать здесь.
  2. rush-analytics.ru — сервис тоже на слуху, я с него начинал, т.к. был промокод (немного уже описывал сервис в блоге).
  3. https://gitlab.com/robotools-org-parser-download/webarchive_wayback — этим не пользовался не знаю че это. Если вдруг кому не подошли первые варианты.
  4. https://www.waybackmachinedownloader.com/en/ — этим тоже не пользовался, но вдруг пригодится.

Я всё.

Оцените статью
AlexAdi | Сайты, крипта, жизнь - t.me/alexadiru
Добавить комментарий

✔ Нажимая на кнопку «Отправить комментарий», я даю согласие на обработку персональных данных и принимаю политику конфиденциальности.

  1. Kintaro Oe

    На кой черт это надо?

    1
    2
    Ответить
    1. Алексей Адищев автор

      я когда дропы регаю, восстанавливаю сайты, которые на дропах были

      Ответить
  2. seoonly.ru

    норм)

    Ответить
  3. Алекс

    Спасибо

    Ответить
  4. jkeks

    Всю жизнь пользуюсь http://r-tools.org/start#p5014
    И все еще пользуюсь.. правда автор мог закрыть регистрацию.. надо проверять.
    Сервис отличный, если слетает что-то у вебархивов, то ртул чинится быстро, автор на связи всегда. Вообщем стопудовый сервис — рабочий вариант.

    Ответить
  5. Chef

    Про майдроп не знал, спасибо, заценим.
    А про либу на пайтоне так вообще шикос. Если понадобится, терь знаю куда ковырять.

    Ответить
    1. Алексей Адищев автор

      пожалуйста 🙂

      Ответить

Мой канал в телеге:

Ты классный, подпишусь!
Ой, отстань!