Стоит задача ускорить работу с большим количеством закладок в браузере. Возможно ли прикрутить другую СУБД, например, mysql  к firefox? Решит ли это мою проблему?

exvion пишет

Возможно ли прикрутить другую СУБД, например, mysql  к firefox?

Нет.

А большое количество закладок — это сколько?

Возможно ли прикрутить другую СУБД, например, mysql  к firefox?.

Исходный код [firefox] открыт, так что можно. Вы хотите держать MySQL запущенным все время работы [firefox]? Очевидно, у Вас много ресурсов простаивает :).

Решит ли это мою проблему?

Обычно, в замедлении работы виновны скрипты и плагины (например Flash), так, что не решит. Вашу проблему решит браузер Opera.

Sid пишет

А большое количество закладок — это сколько?

10 тысяч. Плюс хотелось бы иметь локальную копию каждой веб-страницы, на которую ссылается закладка. В идеале - возможность хранить копии всех страниц, которые я когда-либо посещал.

Нашел в интернете вопрос единомышленника http://forum.ixbt.com/topic.cgi?id=24:38598

Друзья, подскажите, пожалуйста, как решать такую задачу: хочу иметь на жестком диске полную копию всех просмотренных web-страниц. Традиционные history и cache в броузерах не устраивают, т.к. обладают следующими недостатками:

1. Они хранят лишь последнюю копию. Т.е. если я читал на cnn.com классную новость, а через неделю хочу к ней вернуться - history мне не помощник, она хранит лишь последнюю, т.е. сегодняшнюю версию cnn.com (а я хочу, чтобы было 100 версий за 100 последних дней - чтобы хотя бы вручную можно было просмотреть все версии сайта, если уж ключевые слова не помню).

2. Через какое-то время даже и последняя версия "протухает" (при отключенном интернете или неработающем сайте даже и последняя виденная версия не хранится локально). Не знаю, почему, видимо, страница может быть как-то помечена сервером как "актуальная в течение 3 дней". Хочу, чтобы можно было все эти настройки overwrite и указать собственные параметры (например, хранить все страницы, пока 200Mb не заполнится, а потом стирать старые по мере надобности).

3. Чуть страница стала посложней - вообще в cache не попадает. Например, https, или страница с результатами поиска, или страница, где пароль вводить надо было, или фоновое аудио на странице - не кэшируются вообще. Выдаются какие-то надписи о неправильных cookies или других ошибках (а при демонстрации страницы в первый раз ошибок не было).

Что необходимо сделать, чтобы добавить в Firefox этот функционал?

Тема перенесена из форума «Firefox» в форум «Разработка».

exvion пишет

Решит ли это мою проблему?

Как сказать... теоретически в в итоге (если он будет) - может, и решит. Для получения итога вам потребуется:
1. Реализовать свои собственный бинарный компонент доступа к выбранной БД (почему mysql, кстати? я бы уж сразу взял что-нибудь типа oracle enterprise edition :) )
2. Переписать всю существующую places subsystem. Например, вот эти модули: resource://gre/modules/PlacesUtils.jsm (~3,5 тыс. строк кода), resource://gre/modules/PlacesUIUtils.jsm (~ 1,5 тыс. строк кода), resource://gre/modules/PlacesDBUtils.jsm (~ 1 тыс. строк кода). Плюс переписать код, взаимодействующий с places - а его очень много, и он не сосредоточен в каком-либо одном модуле (например, встроенная библиотека, встроенные функциональности по работе с закладкими, историей, и проч.).
3. Places - это не только закладки, но еще история, сервис фавиконок, сервис тэгов, сервис аннотаций. Это тоже всё переписывать вам. Учтите, что в этих сервисах многое реализуется вшитыми в ядро браузера XPCOM-компонентами.
4. Ну, и вам придется распрощаться со всеми расширениями, так или иначе работающими с places.
Не проще ли сразу написать свой браузер?

У sqlite открыты исходники и вроде бы все хорошо документировано. Вполне вероятно можно выжать из нее гораздо больше, если понять, где в данном случае узкое место и закешировать, сделав свою прозрачную надстройку над  sqlite.
Ну и естественно от компа много зависит. Может просто places.sqlite очень большой и фрагментированный.

"копии всех страниц, которые я когда-либо посещал"
Тут например можно поискать какой-нибудь кеширующий прокси с такой функцией. Но надо понимать, что это будет много места и ресурсов жрать, нужно или записывать все подряд или каждый раз проверять есть уже эти конкретные данные или нет.
Тем более сложно, если в этой куче еще искать что-то надо будет.