Archivarix.com - Восстановление контента из web.archive.org
- Скачивание контента и обработка происходит на нашем сервере, вы не тратите время и траффик, а только получаете готовый архив с сайтом. - Восстановленные файлы с текстом (html, css, js) находятся в отдельной папке, чтобы было удобнее делать поиск и замену. Перелинковка сайта воссоздается с помошью mod_rewrite в .htaccess - Вы получаете готовый работоспособный сайт не содержаший 404 страниц, битых картинок, внешних ссылок, не работающих скриптов и прочего мусора. Все битые файлы заменяются заглушками которые вы можете редактировать, а баннеры, счетчики и прочие внешние скрипты удаляются используя базу данных AdBlock. - А главное, наш сервис оптимизирует восстанавливаемый сайт в соответствии с рекомендациями Google Developers. Пережимаются файлы изображений и выкидывается из них все EXIF, удаляются из html комментарии, оптимизируются css и js и еще много чего другого. Так что восстановленный сайт может оказаться с точки зрения google лучше изначального. 200 файлов можно восстановить бесплатно, эта цена не зависит от количества восстанавливаемых сайтов - вы можете скачать сколько угодно архивов содержащих менее 200 файлов по цене $0. Если вы захотите скачать сайт большего размера то цена будет $5 за каждые 1000 файлов. Пожалуйста, после восстановления сайта у нас оставьте отзыв тут, на форуме, или напишите в ответе на е-мейл который приходит на почту вместе с архивом восстановленного сайта. Мы будем рады любым замечаниям а особенно рекомендациям как лучше и удобнее для вебмастера сделать наш сервис. |
Мы сделали короткие видео с объяснением как работает система на русском -
и на английском языке - |
Мы сделали новый лоадер контента, теперь восстановленный сайт может совместно рабоать с любой CMS - например Wordpress, Joomla и так далее. Лоадер использует PHP + SQLite но так же мы оставили возможность использовать старую версию которая работает без php используя только .htaccess. Вообще в лоадер можно интегрировать любой свой скрипт такой как система распределения трафика или ссылки sape. Так же сделана возможность посмотреть состав архива сайта перед восстановлением, сколько и каких файлов там содержится. Сколько картинок, текста, скриптов и так далее.
Все так же цена за восстановление 200 файлов равна нулю. Далее восстановление тысячи файлов стоит $5, а затем каждаю последующая тысяча файлов стоит всего $0.5. Подробнее инструкции тут - А тут короткрое видео с инструкцией как все работает - |
Мы разработали алгоритм игнорирующий "скрытость" архивных файлов и позволяющий восстанавливать даже сайты на которых в robots.txt было прописано закрытие от индексации. То есть теперь можно скачать контент с любого имеющегося в archive.org сайта, даже если владельцами его был закрыт вход для ботов параметром Disallow: На сколько я знаю таких возможностей пока не предоставляет ни одна другая программа или сервис по восстановлению из Веб архива. |
Мы выпустили новую версию нашего сервиса. Кроме всего что было раньше - восстановление полностью работоспособного сайта без 404 страниц, баннеров, внешних ссылок, неработающих скриптов и негрузящихся картинок мы сделали работу с восстановленным контентом гораздо удобнее.
Теперь у нас есть своя CMS - |
Мы рады представить вам только что открывшуюся партнерскую программу нашего онлайн парсера -
Ссылка на регистрацию - |
Недавно мы обновили нашу систему и теперь у нас появились две новых опции.
Теперь с помощью системы скачивания существующих сайтов можно скачать даркнетовские .onion сайты. Просто введите адрес .onion сайта в поле "домен" А ещё Archivarix может не только скачивать существующие сайты или восстанавливать их из Веб Архива, но и вытаскивать из них контент. Для этого тут После завершения скачивания сайта вместе с полным архивом всего сайта формируется архив статей в формате xml, csv, wxr и json. При формировании архива статей наш парсер учитывает только значащий контент исключая дубли статей, управляющие элементы и служебные страницы. |
Мы выпустили свой плагин для Wordpress - Archivarix External Images Importer
Еще мы запустили Archivarix Blog - |
Система Архиварикс
Недавно мы выпустили обновление нашей CMS, в котором появились: - Новый дэшборд для просмотра статистики, настроек сервера и обновления системы. - Возможность создавать шаблоны и удобным образом добавлять новые страницы на сайт. - Интеграция с Wordpress и Joomla в один клик. - Теперь в Поиске-Замене дополнительная фильтрация сделана в виде конструктора, где можно добавить любое количество правил. - Фильтровать результаты теперь можно и по домену/поддоменам, дате-времени, размеру файлов. - Новый инструмент сброса кэша в Cloudlfare или включения/отключения Dev Mode. - Новый инструмент удаления версионности у урлов, к примеру, "?ver=1.2.3" у css или js. Позволяет чинить даже те страницы, которые криво выглядели в ВебАрхиве из-за отсутствия стилей с разными версиями. - У инструмента robots.txt добавлена возможность сразу включать и добавлять Sitemap карту. - Автоматическое и ручное создание точек откатов у изменений. - Импорт умеет импортировать шаблоны. - Сохранение/Импорт настроек лоадера содержит в себе созданные кастомные файлы. - У всех действий, которые могут длиться больше таймаута, отображается прогресс-бар. - Инструмент добавления метатега viewport во все страницы сайта. - У инструментов удаления битых ссылок и изображений возможность учитывать файлы на сервере. - Новый инструмент исправления неправильных urlencode ссылок в html коде. Редко, но может пригодиться. - Улучшен инструмент отсутствующих урлов. Вместе с новым лоадером, теперь ведётся подсчёт обращений к несуществующим урлам. - Подсказки по регулярным выражениями в Поиске & Замене. - Улучшена проверка недостающих расширений php. - Обновлены все используемые js инструменты на последние версии. |
Текущее время: 01:57. Часовой пояс GMT +4. |
Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Техническая поддержка — DevArt.PRO. Перевод: zCarot.