Чем и как сделать копию сайта?

Вопрос в заголовке главный, который я должен раскрыть в данном мануале, надеюсь, у меня это получится.

Если вы сможете делать копии крутых сайтов, лендингов, согласитесь, это поможет вам сэкономить или заработать немало денег.

Этапы повествования идут от более простого к сложному. На форуме предложили проанализировать сайт http://energytrip.club/

Я заменил свой выбор, на этот сайт, чтобы не казалось, что я специально подобрал сайт для примера.

В мануале я рассмотрю 3-и способа клонирования сайтов. Первый способ повествует о простом сохранении сайта из браузера и почему данный способ нас в конечном счете не устроил.

Второй способ повествует о сохранении сайта с помощью httrack, увидим что программа достаточная мощная, но что есть на свете третья программа wget (третий способ), которая является еще более мощной, но в тоже время хорошо и понятно документированной.

Давайте рассмотрим все три этих способа. Я постараюсь быть краток, не лить воду, так как главное идея, инструктаж реализации, а не количество символов в мануале.

  1. Сохранение страницы из браузера. Если я бы ничего не представлял о способах, как клонировать сайты, наверное, в голову мне пришел один только способ с сохранением страницы сайта из браузера. Да, этот способ возможно поможет вам для клонирования простого одностраничника. Порой этого достаточно, а что если нам нужно скопировать сайт из 5-ти страниц. Ну вы скажите, пять раз сохраним. А если на сайте 155 страниц, 583 страницы или 1423 страницы? Понятно, что для таких сайтов, способ клонирования из окна браузера не подойдет.

Выше это все слова давайте перейдем к практике. Подопытными кроликами для эксперимента для копирования из браузера будет сайт: http://energytrip.club/

Когда мы на сайте мы нажимаем Ctrl+S — то есть хотим сохранить страницу, либо нажимаем правую кнопку мыши и выбираем пункт «Сохранить как». Сохраняем. Смотрим.

ОРИГИНАЛ

КОПИЯ

На первый взгляд неплохо получилось для сайта http://pimpyoureyes.ru/, сначала подумал, что один в один, но посмотрев чуть получше — у меня съехал фон влево и получилось не так красиво. Эксперимент для этого сайта удачный, так как открыв консоль и поняв что именно не достает можно с легкостью поправить, чтобы работало все на 100%. Если бы я не знал другие способы — я был бы более чем доволен результатом. Как отлаживать, сейчас не буду говорить, об этом речь пойдет позже.
Но для сайта http://energytrip.club/ результат уже далеко не такой радужный, здесь количество ошибок во много раз больше, хотя оба сайта были одностраничниками. Результат очень плохой, некуда негодный!
Почему второй сайт дал такой плохой результат? Ответ: не сохранились локально фоновые рисунки! А разве существуют такие программы, которые смогут скачать сразу картинки из CSS свойств, например, распарсить строку со свойством background-image: url-to-image и сохранить картинку в нужном месте? Ответ: читайте мануал дальше.

Я думаю, с примером копирования сайта с помощью браузера можно закончить. Этот способ умеет сохранять файлы, которые принадлежат тому же домену, но не сохраняет например картинки из свойства бекграунд и не сохраняет файлы, которые принадлежат другому домену. Вывод: данный способ подойдет только для очень простых задач.