Есть ссылки в Html файлах, сохраненные на жесткий диск офлайн браузером, такого вида:

Выделить код

Код:

file:///J:/k/www.111.ru/index.html

То есть есть жесткий диск с буквой J и на нем папки с файлами.
Он выводит окно:
Firefox не может определить как открыть данный адрес, так как протокол (j) не связан ни с
одним приложением.
Код страницы выглядит так:

Выделить код

Код:

<a title="посмотреть рецепт Пирог &quot;Лесное чудо&quot; поближе" href="J:%5Ck%5Cwww.povarenok.ru%5Crecipes%5Cshow%5C53898%5Cindex.html">Пирог "Лесное чудо"</a>

При этом ссылки работают в IE8, но мне не удобно им пользоваться, так как привык к Firefox.
Как заставить Фирефокс понимать ссылки?

У вас ссылка написана с ошибкой =\
Вы же сами написали как должно выглядеть:

supmener пишет

file:///J:/k/www.111.ru/index.html

Выделить код

Код:

j:%5Ck%5Cwww.povarenok.ru%5Crecipes%5Cshow%5C53898%5Cindex.html

Вот так она выглядет при копировании в буфер.
А так при наведении мыши.
dfd9e5ea43eet.jpg

supmener пишет

file:///J:/k/www.111.ru/index.html

Даже если файла нет, то должно писать "Firefox не может найти файл". Попробуйте запустить Firefox в безопасном режиме запуска Firefox (Пуск — Все программы…). Если поможет, то проблема в расширениях, а если не поможет, то попробуйте на новом профиле.

В коде страницы в ссылке пропишите вместо

supmener пишет

j:%5Ck%5Cwww.povarenok.ru%5Crecipes%5Cshow%5C53898%5Cindex.html

вот так:

Выделить код

Код:

file:///*путь до файла*

В вашей ссылке отсутствует file:///, поэтому он и принимает J:/ за протокол.

Благодарю за ответ. Подожду пока, может кто посоветует методом настройки браузера или через плагин какой нибудь.
Кстати вот такой код от другой офлайн качалки получается (ей не могу качать, так как она не закачала успешно):

Выделить код

Код:

href="recipes/show/53592/index.html">

Такой код распознается разными браузерами.

supmener пишет

Благодарю за ответ. Подожду пока, может кто посоветует методом настройки браузера или через плагин какой нибудь.

Тоесть вы хотите писать корявый код и ждать когда разработчики станут подстраиваться под ваши стандарты, вместо того чтобы за пол дня научиться писать нормально в соответствии со стандартами?
Мне вас жаль.

Тема перенесена из форума «Поддержка пользователей» в форум «Разработка».

Да Вы меня не поняли. Не пишу сижу эти страницы. А скачиваю на жесткий диск для офлайн просмотра через Webreaper http://www.webreaper.net/.
Разработчику программы написал, но то, что сейчас качается, надо будет смотреть ранее, чем он отреагирует. Это где то 3 гигабайта на медленном интернете. Качать потом по новой не хочется.
Как вариант возможна мультизамена по всем файлам, однако рассмотриваю разные способы.

supmener пишет

Такой код распознается разными браузерами.

скрытый текст
Условный путь.
Попробуйте.. IE3.*, если сможете запустить. Он по моему мог обрабатывать ссылка на файлы, начиная с текущего каталога. Далее, IE4 по моему пофиксили якобы баг, и при теге file с явным указанием пути, но не верной ссылкой, браузер стал выдавать ошибку открытия. Имхо. На вскидку что то такое вспомнилось. В фф как подкорьектировать пока не могу сказать.

Как вариант, попробовать смотреть контент в каком то сайт портировщике. Возможно в нем будет возможность менять переменные для тегов.

Проблема в том, что сохраняете сайт целиком и потом не можете посмотреть в браузере, верно?
Не пробовали в таких случаях другие сохраняльщики?

Пробую понять, как настраивать Wget для виндовс для закачки сложных сайтов, где ограничения на автоматическую закачку и чтобы он не ложил весь канал, а оставлял место для серфинга. Не могу пока сообразить, голова не понимает.

А Free Download Manager с ограничением скорости и кол-ва соединений не помогает?

Его качал на днях, на вкладке для закачки сайтов не увидел настроек, подумал, что это программа с ограниченными возможностями и не стал использовать.

supmener
Там настройки при добавлении закачки появляются.
А вообще, если уж у FDM ограниченные возможности, то я даже не знаю, что тогда нормальный качальщик -__-

А у него есть такая настройка, чтобы страницы не дублировались,  а все автоматически контролировалось бы на отсутствие дублей? То есть если ссылки ведут на одну и ту же страницу, то страницы бы сохранялись не несколько раз, а один раз, чтобы дублей не было?

Офлайн Эксплорер - нормальный офлайнбраузер.

Пользуюсь только бесплатными

Вроде бы была какая-то старая версия у него, которую бесплатно отдавали. Но давно интересовался, не уверен.

По теме о Wget наше GUI, в котором можно разобраться, посидев над ним некоторое время: WGet_Daemon_1.0r_russian
Ссылка по теме бесплатных качалок сайтов: http://trustmeher.net/freeware/offlinebrowsers.htm