Свежие обсуждения
О форуме

Чувствую, "отзаходился" я на форум.

1 3 4

Сергей К: Но все же лучше использовать специальный менеджер закачек
Какой?Интересно.

 

AVT: Какой?Интересно
Точное название не помню, но их много Они позволяют закачивать целеком весь сайт или его часть. Сам не пользовался (т.к. с моей скоростью у меня даже и мысль не возникала ), но достаточно часто слышал от других. Поищите Ян/Гуглом
Да стандартный, встроенный в винду синхронизатор позволяет закачивать сайты "на глубину хх ссылок", правда там ограничение глубины - 3... но для сохраности данных это не удобно.

 

AVT: Какой?Интересно.
WinHTTrack
http://www.httrack.com
Рулит. Free. Русифицирован. Интуитивно понятен
Вроде даже под линь есть
Только, имхо, бесполезно форумы качать оффлайн-эксплорерами.

 

Сергей К: Закачать весь сайт можно с помощью менеджера закачки, например FlashGet.

У меня не получается. Полная ерунда выходит. Теряются связи между ссылками. Единственно, что он делает хорошо, так это позволяет выбрать сразу кучу нужных файлов, и качать их пока не скачает... Не боиться, даже, пропадания напряжения в сети - у него "все хода записаны"...

Поностью сайты качаю WebStripper-ом. Этот создаёт полную копию, и в режиме Off-Line можно просматривать так, буд-то в сети сидишь.
Но, он платный... Не зарегистрированная версия всё делает, но только без возможности прерваться, и с какими то ограничениями, которые всплывают уже при просмотре скачанного - то страницы нет, то картинку "забыл" сохранить...
Таблетка помогает, но, как то, не на долго и с сохранением глюкавости...
Пробовал других пару подобных прог, не понравилось - как то, всё сложно... прописана какая то опция, а я и не знаю что это значит - слова знакомые, а смысла не вижу... И настройка - как в известной картинке "Секс-настройка женщины"...
А в WebStripper-е, же можно, просто, тупо нажимать "Ok" в нескольких окнах, и поехали... По аналогии с той же картинкой - "Секс-настройка мужчины" - один тумблер...
Причём, если открыть прогу при уже открытой странице сайта, то адрес автоматом копируется в прогу. Да и опции, не смотря, что на английском, понимаются легко, и их, наверно, всего с десяток...

По началу я этой прогой качал часто и много... Например, сайт CHIPINFO... за пару дней под 300 метров накачал, потом "прикрыли", да так, что не мог по своим логину и паролю зайти... Но через месяц, "простили" и пустили...

Другие же - без проблем.
Полохо только то, что когда прога работает, на машине лучше не работать - тормозит всё. Правда, интернет-машина у меня слабая - пень 233, да и то, разогнаный...

Если требуется сохранить страницу, то прямо в броузере ( у меня "MyIE2"), в меню "Файл" и выбираю режим "Веб-архив один файл" (*.mht). Получается один файл, но полная страница со всеми каритнками, текстом, оформлением и сохранением исходных ссылок. То есть, открыв такую сохранённую страницу, читаешь всё как буд то в инесе сидишь. А кликнув на ссылку на странице, сразу идёш по ссылке (если сеть подключена).
Но вот с этим сайтом такая штука не проходит, почему то. По этому, страницы из pro-radio сохраняю в отдельных какталогах-темах по файлу на странице в режиме "Веб-страница полностью (*.htm, *.html). Картини качаю отдельно и ложу в этот же каталог...

Хотелось бы автоматизировать процесс - зайдя на первую страницу темы, кликаешь по кнопке, типа "создать архив", и вся тема пошла копироваться на винт со всеми картинками... Можно ли придумать такой сервис на самом сайте?

 

SiNil: Только, имхо, бесполезно форумы качать оффлайн-эксплорерами.

Почему?

 

Да не, подумал, вроде полезно. По крайней мере для этого форума. Тока, блин, для меня не актуально - дайлап
На других форумах - очень много перекрестных ссылок (как это сказать?.. Страницы генерируются из одних и тех же сообщений, а эти сообщения могут входить в различные страницы, которые могут иметь разные адреса... Может я не прав...)
Сохраняю иногда WinHTTrack'ом разделы сайтов - удобная штука. Таблеток не надо. Настроек туева хуча, понятные. Клево.
С gaw.ru много статей сохранил, причем при закачке разделов сайта не качаются "верхние" уровни, в рез-те - ничего лишнего.

 

SiNil: На других форумах - очень много перекрестных ссылок...

В WebStripper-е можно указать "глубину" скачивания по ссылкам. Я, обычно, ограничиваю уровнем одного сайта. То есть, все внутренние ссылки будут работать и потом, а если есть ссылка на другой сайт, то потребуется инет.
Другой сайт - другой ресурс, иногда, с другой тематикой. По этому, потом, при необходимости, можно будет поставить на докачку (обновление) уже скачанное, или скачать другой сайт отдельно.

SiNil, я скачал WinHTTrack, собираюсь ставить. Там есть какие то "подводные камни", особенности и т.д., на которые нужно обязательно обратить внимание?

 

DWD: Там есть какие то "подводные камни", особенности и т.д., на которые нужно обязательно обратить внимание?
Не замечал
Я просто когда был совсем ламером, пытался скачать форум siemens-club'а (тогда он в домене ru был) :D, Через какое-то время я закачку остановил, но страницы не просматривались Но тогда я какой то фигней качал, даже не помню какой. Может сейчас бы и получилось бы...

 

SiNil: Через какое-то время я закачку остановил, но страницы не просматривались

В WebStripper-е то же...
Дело в том, что он, когда скачивает файлы, присваивает им дополнительное расширение. Получается, что файл выглядит, например, так: "index.html.temp". И только после полной закачки он начинает все файлы переименовывать, удаляя дополнительное расширение. Естественно, что если остановить скачку раньше времени, то ни чего посмотреть не получается. Посмотреть можно только в самой проге WebStripper - она, в этом случае, выступает в роли броузера и всё видит.
Отсюда большой недостаток - если сайт имеет большой размер, то переименование занимает очень много времени и сильно тормозит машину. Покрайней мере, мою, слабую...
Я ещё делал так: останавливаю закачку, и стандартными средствами тоталкомандэра переименовываю все файлы, имеющие двойное расширение. Процесс идёт если не мгновенно, то явно быстрее и с тем же результатом - на винте лежит сайт.

 

В WHTTR я останавливал закачку, и те страницы, которые загрузились, просматриваются. Причем в самой проге нет просматровщика - через "просмотр сайтов", выбираемый через меню, запускается браузер. Он, по ходу, сразу в хтмл сохраняет...
В нем тоже можно указывать глубину, фильтр на части URL'ов, типы файлов. Можно например, не грузить все gif'ы на странице, а только из определенного каталога сайта.

ЗЫ Но форумы все таки им не качал, поэтому не ручаюсь