The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Использование apt-p2p для ускорения обновления Ubuntu
Приближается выход релиза Ubuntu 9.04, в день которого из-за перегрузки зеркал
могут наблюдаться проблемы со скоростью загрузки обновлений.
Для оптимизиации процесса предлагается задействовать apt-прокси, организующий
загрузку данных по принципу P2P сетей.

Устанавливаем apt-p2p:

   sudo apt-get install apt-p2p

Правим /etc/apt/sources.list (добавляем "localhost:9977" после "http://"):

   deb http://localhost:9977/archive.canonical.com/ubuntu hardy partner
   deb-src http://localhost:9977/archive.canonical.com/ubuntu hardy partner
   deb http://localhost:9977/*mirror-address*/ubuntu/ hardy main universe restricted multiverse
   deb-src http://localhost:9977/*mirror-address*/ubuntu/ hardy main universe restricted multiverse

Обновляем список пакетов:

   sudo apt-get update

Запускаем процесс обновления Ubuntu 8.10 до версии 9.04

   sudo update-manager -d

Открываем в браузере  http://localhost:9977 и смотрим информацию о скорости
загрузки и другую статистику
 
13.04.2009 , Источник: http://blog.chenhow.net/os/linux/ub...
Ключи: apt, ubuntu, p2p, install, upgrade / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Linux специфика / Установка и работа с пакетами программ в Linux

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.3, Сергей (??), 09:36, 13/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Интересно. Только пару дней назад ставил apt-cacher-ng для своей офисной локалки, чтобы пакеты кэшируясь тянулись централизованно и только по требованию. Эта штука сможет его заменить?
     
  • 1.4, mofer (?), 10:51, 13/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Что то я не помню версии которая нормально обновилась. Постоянно наблюдались глюки :(
    Думаю по-пакетно нет смысла обновляться в день релиза. Проще скачать cd/dvd через тот же торрент и прикрутить его в sources.list deb file://<loop-mount>
     
     
  • 2.5, BartMan (?), 15:09, 13/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    Это у вас личное.
     
  • 2.8, User294 (??), 19:38, 13/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    > торрент и прикрутить его в sources.list

    Ага, все круто кроме одного момента: в хучшем случае тормозить будет еще несколько дней (пока все не накачаются).А в результате скачать обновления в эти периоды будет проблематично.Наверное в свете этого p2p принцип распостранения не только исох но и самих пакетов - не такой уж маразм.При условии надежной проверки подписей пакетов :)

     
     
  • 3.9, . (?), 21:38, 13/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >p2p принцип распостранения не только исох но и самих пакетов

    отличный метод. ещё бы дельта обновления прикрутить

     

  • 1.6, Аноним (-), 16:52, 13/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Скрипт debmirror используйте, вот и всё. Вставьте команду загрузки последнего репозитария в текстовый документ, 500 раз вставьте, и выполните: sh script. Оставьте комп на 3 дня.
     
     
  • 2.7, Аноним (-), 19:02, 13/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    Далеко не все могут позволить себе качать 20GB зеркала. А учитывая скорость, с которой обновляется репозиторий, некоторые на "тонких" каналах (а таких - большинство) просто не успеют даже с зеркал, которые делают срезы раз в неделю.

    А про "500 раз вставьте" - да... Это явно не unix-way...

     
  • 2.13, User294 (??), 14:45, 14/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >Скрипт debmirror используйте, вот и всё.

    Что - все?Мне предлагается замиррорить локально вообще все пакеты по принципу "может быть когда-то они понадобятся"?

    >текстовый документ, 500 раз вставьте, и выполните: sh script. Оставьте комп
    >на 3 дня.

    Это что, такой самопальный вариант вместо пинков по крону? И это ... а три дня что делать? "И пусть весь мир подождет"?

    В случае с P2P метод пойдет и для сугубо домашнего использования например.Ваш метод имеет смысл только в конторах и т.п. где есть много машин с дебианом и гемор с выгрузкой репов оправдается экономией траффа и т.п..И, кстати, сколько вы их не выгружайте а когда убунту начнут качать миллионы юзвергов - грабли с синхронизежкой с зеркалами убунты у вас могут и начаться.Какая в конце концов разница, качать файлы с зеркал апдейтером или debmirror-ом?

    А то что у вас устаревшие пакеты есть в зеркале - это конечно, круто, но АПДЕЙТЫ то как получить в моменты когда там миллионы качателей и обновляющихся?В случае P2P то как раз чем больше качателей, тем оно крепчает.А в случае обычных серверов - ровно наоборот.Если на сервак придет 10 000 юзвергов, доступный бандвиз поделится на всех.И если сервак был на гигабите, один юзверг может рассчитывать аж на "целые" 100 Кбит бандвиза.Итого скорость скачки с сервака в этих условиях будет лишь чуть больше диалапа.Учтя количество юзеров убунты, 10 000 - это наверное еще весьма мягко сказано :)

     

  • 1.11, VecH (ok), 05:28, 14/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Для локалки (Debian, Ubuntu разных версий) использую apt-proxy
     
  • 1.12, Вячеслав (??), 13:25, 14/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Оригинал статьи тут:
    http://www.ubuntugeek.com/how-to-use-apt-p2p-for-faster-upgrades-from-ubuntu-
     
     
  • 2.14, Аноним (-), 16:35, 14/04/2009 [^] [^^] [^^^] [ответить]  
  • +/
    >Оригинал статьи тут:
    >http://www.ubuntugeek.com/how-to-use-apt-p2p-for-faster-upgrades-from-ubuntu-

    На ubuntugeek.com не оригинал, а копипаст, там дата 13 апреля, а в ссылке на  blog.chenhow.net к данной заметке - 3 апреля.

     
     
  • 3.15, Вячеслав (??), 17:35, 14/04/2009 [^] [^^] [^^^] [ответить]  
  • +/

    >На ubuntugeek.com не оригинал, а копипаст, там дата 13 апреля, а в
    >ссылке на  blog.chenhow.net к данной заметке - 3 апреля.

    Нет такого - blog.chenhow.net:
    "This Account Has Been Suspended
    Please contact the billing/support department as soon as possible. "

    Или с ссылкой чтото не так?

     

  • 1.16, XoRe (ok), 11:25, 15/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    В качестве дополнительного средства могу посоветовать http-replicator.
    Работает как прокси, плюс сохраняет все файлы в папку.
    При запросе файла, который уже ранее был закачан, отдает его из папки.
    На рабочих компах просто прописывается строчка:
    Acquire::http::Proxy "http://192.168.1.1:9999";
    в файл /etc/apt/apt.conf.

    И работает, не жужжит.
    Позволяет не дублировать загрузки.
    Имеет опцию ограничения скорости загрузки.
    Можно не прописывать ничего эдакого в sources.list, только прописать /etc/apt/apt.conf.

    Единственное, что заметил - в портежах/репозиториях может быть старая и глючноватая версия.
    Лучше ставить последнюю отсюда:
    http://sourceforge.net/projects/http-replicator

     
  • 1.17, andy (??), 18:17, 23/04/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    одно плохо - как apt proxy оно работает через одно место. Хотя, возможно, я что-то сделал не так.
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру