![]() |
| Быстрый переход |
|
|||||||
| Реклама Рекламируйте в данном разделе Ваши товары и услуги соответствующие тематике форума совершенно бесплатно. |
![]() |
|
|
Опции темы |
|
|
|
![]() |
|
|
#1 | |||
|
Реноме:
44
|
Archivarix.com - Восстановление контента из web.archive.org
это сервис позволяющий восстанавливать контент из Веб Архива ( web.archive.org ).
- Скачивание контента и обработка происходит на нашем сервере, вы не тратите время и траффик, а только получаете готовый архив с сайтом. - Восстановленные файлы с текстом (html, css, js) находятся в отдельной папке, чтобы было удобнее делать поиск и замену. Перелинковка сайта воссоздается с помошью mod_rewrite в .htaccess - Вы получаете готовый работоспособный сайт не содержаший 404 страниц, битых картинок, внешних ссылок, не работающих скриптов и прочего мусора. Все битые файлы заменяются заглушками которые вы можете редактировать, а баннеры, счетчики и прочие внешние скрипты удаляются используя базу данных AdBlock. - А главное, наш сервис оптимизирует восстанавливаемый сайт в соответствии с рекомендациями Google Developers. Пережимаются файлы изображений и выкидывается из них все EXIF, удаляются из html комментарии, оптимизируются css и js и еще много чего другого. Так что восстановленный сайт может оказаться с точки зрения google лучше изначального. 200 файлов можно восстановить бесплатно, эта цена не зависит от количества восстанавливаемых сайтов - вы можете скачать сколько угодно архивов содержащих менее 200 файлов по цене $0. Если вы захотите скачать сайт большего размера то цена будет $5 за каждые 1000 файлов. Пожалуйста, после восстановления сайта у нас оставьте отзыв тут, на форуме, или напишите в ответе на е-мейл который приходит на почту вместе с архивом восстановленного сайта. Мы будем рады любым замечаниям а особенно рекомендациям как лучше и удобнее для вебмастера сделать наш сервис. |
|||
|
|
|
|
|
#3 | |||
|
Реноме:
44
|
Мы сделали новый лоадер контента, теперь восстановленный сайт может совместно рабоать с любой CMS - например Wordpress, Joomla и так далее. Лоадер использует PHP + SQLite но так же мы оставили возможность использовать старую версию которая работает без php используя только .htaccess. Вообще в лоадер можно интегрировать любой свой скрипт такой как система распределения трафика или ссылки sape. Так же сделана возможность посмотреть состав архива сайта перед восстановлением, сколько и каких файлов там содержится. Сколько картинок, текста, скриптов и так далее.
Все так же цена за восстановление 200 файлов равна нулю. Далее восстановление тысячи файлов стоит $5, а затем каждаю последующая тысяча файлов стоит всего $0.5. Подробнее инструкции тут - А тут короткрое видео с инструкцией как все работает - |
|||
|
|
|
|
|
#4 | |||
|
Реноме:
44
|
стала еще лучше, мы научились обходить при скачивании сайтов инструкции robots.txt. Известно что archive.org учитывает параметр Disallow: но он не удаляет этот контент а просто "скрывает" доступ, открыть его можно разрешив индексацию спайдеру архива в файле robots.txt купив домен и загрузив туда этот файл.
Мы разработали алгоритм игнорирующий "скрытость" архивных файлов и позволяющий восстанавливать даже сайты на которых в robots.txt было прописано закрытие от индексации. То есть теперь можно скачать контент с любого имеющегося в archive.org сайта, даже если владельцами его был закрыт вход для ботов параметром Disallow: На сколько я знаю таких возможностей пока не предоставляет ни одна другая программа или сервис по восстановлению из Веб архива. |
|||
|
|
|
|
|
#5 | |||
|
Реноме:
44
|
Мы выпустили новую версию нашего сервиса. Кроме всего что было раньше - восстановление полностью работоспособного сайта без 404 страниц, баннеров, внешних ссылок, неработающих скриптов и негрузящихся картинок мы сделали работу с восстановленным контентом гораздо удобнее.
Теперь у нас есть своя CMS - которая идет с каждым восстановленным сайтом. В ней вы можете редактировать код в простом текстовом или WYSIWYG редакторе, вставлять или удалять страницы, проводить поиск и замену в коде по регулярным выражениям и многое другое. Наша CMS может работать совместно с дургой, например с Wordpress или Drupal. Теперь ваши восстановленные сайты стало гораздо легче редактировать и использовать для создания TDS дополняя или убирая контент, вставляя на них собственные скрипты и рекламу. |
|||
|
|
|
|
|
#6 | |||
|
Реноме:
44
|
Мы рады представить вам только что открывшуюся партнерскую программу нашего онлайн парсера - . Теперь у нас можно не только скачивать контент и восстанавливать сайты из Веб Архива, но еще и зарабатывать на этом. Наши правила очень простые: 15% комиссии пожизненно со всех платежей в системе. Минимальная выплата $20. Куки живут 30 дней с момента первого захода по реф. ссылке. Вывод на электронные кошельки Webmoney, Paypal, Yandex.Money и на внутренний баланс системы. Холд 14 дней.
Ссылка на регистрацию - |
|||
|
|
|
|
|
#7 | |||
|
Реноме:
44
|
Недавно мы обновили нашу систему и теперь у нас появились две новых опции.
Теперь с помощью системы скачивания существующих сайтов можно скачать даркнетовские .onion сайты. Просто введите адрес .onion сайта в поле "домен" и сайт будет качаться из сети Tor так же как и обычный. А ещё Archivarix может не только скачивать существующие сайты или восстанавливать их из Веб Архива, но и вытаскивать из них контент. Для этого тут в "продвинутых параметрах" надо выбрать "Извлечь структурированный контент". После завершения скачивания сайта вместе с полным архивом всего сайта формируется архив статей в формате xml, csv, wxr и json. При формировании архива статей наш парсер учитывает только значащий контент исключая дубли статей, управляющие элементы и служебные страницы. Последний раз редактировалось archivarix; 02.10.2019 в 14:13. |
|||
|
|
|
|
|
#8 | |||
|
Реноме:
44
|
Мы выпустили свой плагин для Wordpress - Archivarix External Images Importer . Он импортирует изображения со сторонних сайтов, ссылки на которые находятся в постах и страницах, в галерею WordPress. Если картинка в данный момент не доступна или удалена, то плагин скачивает её копию из Веб Архива. Плагин предназначен для работы с нашим экстрактором структурированного контента. Если при запуске восстановления сайта отметить "Извлечь структурированный контент" во вкладке "Продвинутые параметры", то после завершения скачивания вместе с полным архивом всего сайта формируется архивы статей со ссылками на медиаконтент в формате xml, cvs, wxr и json. При формировании архива статей наш парсер учитывает только значащий контент исключая дубли статей, управляющие элементы и служебные страницы, оставляя только готовые к импорту на ваш сайт статьи с сохранённым форматированием.
Еще мы запустили Archivarix Blog - Там мы будем выкладывать статьи о том, как работать с нашей системой, с Веб Архивом и другие полезные вещи о восстановлении контента и создании PBN. |
|||
|
|
|
|
|
#9 | |||
|
Реноме:
44
|
Система Архиварикс предназначена для скачивания и восстановления сайтов - как уже не работающих из Интернет Архива archive.org, так и живых, находящихся в данный момент онлайн. Задача системы восстановить сайт в таком виде, в котором его можно будет использовать в дальнейшем на своем сервере как источник ссылок и трафика. Вместе с восстановленным сайтом идет бесплатная CMS, что делает Archivarix отличным инструментом для как для построения сетей PBN так и для «оживления» сайтов с целью последующей их продажи.
Недавно мы выпустили обновление нашей CMS, в котором появились: - Новый дэшборд для просмотра статистики, настроек сервера и обновления системы. - Возможность создавать шаблоны и удобным образом добавлять новые страницы на сайт. - Интеграция с Wordpress и Joomla в один клик. - Теперь в Поиске-Замене дополнительная фильтрация сделана в виде конструктора, где можно добавить любое количество правил. - Фильтровать результаты теперь можно и по домену/поддоменам, дате-времени, размеру файлов. - Новый инструмент сброса кэша в Cloudlfare или включения/отключения Dev Mode. - Новый инструмент удаления версионности у урлов, к примеру, "?ver=1.2.3" у css или js. Позволяет чинить даже те страницы, которые криво выглядели в ВебАрхиве из-за отсутствия стилей с разными версиями. - У инструмента robots.txt добавлена возможность сразу включать и добавлять Sitemap карту. - Автоматическое и ручное создание точек откатов у изменений. - Импорт умеет импортировать шаблоны. - Сохранение/Импорт настроек лоадера содержит в себе созданные кастомные файлы. - У всех действий, которые могут длиться больше таймаута, отображается прогресс-бар. - Инструмент добавления метатега viewport во все страницы сайта. - У инструментов удаления битых ссылок и изображений возможность учитывать файлы на сервере. - Новый инструмент исправления неправильных urlencode ссылок в html коде. Редко, но может пригодиться. - Улучшен инструмент отсутствующих урлов. Вместе с новым лоадером, теперь ведётся подсчёт обращений к несуществующим урлам. - Подсказки по регулярным выражениями в Поиске & Замене. - Улучшена проверка недостающих расширений php. - Обновлены все используемые js инструменты на последние версии. |
|||
|
|
|
![]() |
|
|
|
|
| Здесь присутствуют: 1 (пользователей: 0 , гостей: 1) | |
|
|