<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Настройка Debian (сервер под скачку Веб Сайтов в большом количестве)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/81995.html</link>
    <description>Установил сервак для этого, но начал замечать, что при большой нагрузке, странички перестают скачиватся(т.е. из 1000 страниц 100 выпадает  )&lt;br&gt;&lt;br&gt;Скачиваю библиотекой Curl (есть модуль на с++, есть и на python)&lt;br&gt;&lt;br&gt;Использовал по всякому и тредово, и используя встроенный в Curl MultiSelect, все ровно одно и тоже, то все 1000 скачиватся за секунды, то 800 скачивается, остальные нет.&lt;br&gt;&lt;br&gt;Я понимаю, что зависит много от доступа к сайтам - не спорю, но я бы хотел спросить у общественности, может где в дебиане можно что-то тонко настроить для оптимальной работы иммено по паралельно-скачиваемости ?&lt;br&gt;&lt;br&gt;т.е. основная задача как можно быстрее скачать наибольшее количество страниц.&lt;br&gt;&lt;br&gt;&lt;br&gt;Моя система:&lt;br&gt;Linux ) 2.6.18-5-amd64 #1 SMP Sat Dec 22 20:43:59 UTC 2007 x86_64 GNU/Linux&lt;br&gt;&lt;br&gt;&lt;br&gt;за умные советы даже заплачу ) &lt;br&gt;</description>

<item>
    <title>при чём тут Debian? (AlienZzzz)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/81995.html#4</link>
    <pubDate>Tue, 16 Sep 2008 05:45:28 GMT</pubDate>
    <description>&amp;gt;&amp;gt;ровно одно и тоже, то все 1000 скачиватся за секунды, то &lt;br&gt;&amp;gt;&amp;gt;800 скачивается, остальные нет. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Если ты качаешь &quot;все 1000&quot; файлов &quot;за секунды&quot; -- может повезти нарваться &lt;br&gt;&amp;gt;на ограничение числа соединений на сервере (или его хостинге). Защита от &lt;br&gt;&amp;gt;DoS-а или просто ограничение ресурсов. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Докачка не работает? Может wget лучше будет? &lt;br&gt;&amp;gt;Паузы &quot;между файлами&quot; вставить?.. &lt;br&gt;&lt;br&gt;Разные сайты, разные Ип.&lt;br&gt;&lt;br&gt;есть список 1000 урлов, нужно скачать их.&lt;br&gt;&lt;br&gt;Есть 100 ип.&lt;br&gt;&lt;br&gt;в одном случае скачка за 10 сек, ждем 1 мин. еще раз пробуем - скорость 100 сек, 100 сайтов из 1000 не скачались(отвалились по таймауту), я решил это путем докачки еще раз этой 100.&lt;br&gt;&lt;br&gt;провайдер божится, что он мне ничего не запирает( в принципе я ему верю), у меня выделенный сервер.&lt;br&gt;</description>
</item>

<item>
    <title>при чём тут Debian? (Andrey Mitrofanov)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/81995.html#3</link>
    <pubDate>Tue, 16 Sep 2008 05:32:21 GMT</pubDate>
    <description>&amp;gt;ровно одно и тоже, то все 1000 скачиватся за секунды, то &lt;br&gt;&amp;gt;800 скачивается, остальные нет. &lt;br&gt;&lt;br&gt;Если ты качаешь &quot;все 1000&quot; файлов &quot;за секунды&quot; -- может повезти нарваться на ограничение числа соединений на сервере (или его хостинге). Защита от DoS-а или просто ограничение ресурсов.&lt;br&gt;&lt;br&gt;Докачка не работает? Может wget лучше будет?&lt;br&gt;Паузы &quot;между файлами&quot; вставить?..&lt;br&gt;</description>
</item>

<item>
    <title>Настройка Debian (сервер под скачку Веб Сайтов в большом кол... (AlienZzzz)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/81995.html#2</link>
    <pubDate>Tue, 16 Sep 2008 05:23:11 GMT</pubDate>
    <description>&amp;gt;провайдера настроий и его каналы =) &lt;br&gt;&lt;br&gt;как доказать провайдеру, что канал рветься ?, вот вопрос.&lt;br&gt;&lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Настройка Debian (сервер под скачку Веб Сайтов в большом кол... (Vaso_Petrovich)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/81995.html#1</link>
    <pubDate>Tue, 16 Sep 2008 02:54:06 GMT</pubDate>
    <description>провайдера настроий и его каналы =)&lt;br&gt;</description>
</item>

</channel>
</rss>
