|
1.1, Аноним (-), 10:50, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +1 +/– |
Я хочу зайти на rutracker (и он установил себе CachP2P). Допустим, у меня сайт заблокирован, но у Васи есть VPN - он его себе открыл и закэшировал. Как я теперь найду Васю?
|  | |
|
|
|
|
5.30, Аноним (-), 21:29, 24/10/2016 [^] [ответить] [к модератору]
| +2 +/– |
Новость не читаем, сразу отвечаем?
>хэш SHA1 для верификации прокэшированных вариантов страниц |  | |
|
|
|
2.20, Аноним (-), 14:59, 24/10/2016 [^] [ответить] [к модератору]
| +2 +/– |
Не надо искать этого Васю, потому что серьёзные люди найдут его раньше тебя, и все, кто ищет Васю, попадут на них.
|  | |
|
|
|
3.33, Аноним (-), 03:10, 25/10/2016 [^] [ответить] [к модератору]
| +/– |
А js-ipfs уже работоспособен? Ну, в любом случае, IPFS — штука гораздо более универсальная, так что соотношение размеров неудивительно.
|  | |
|
|
1.6, Аноним (-), 11:21, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +10 +/– |
т.е. я могу данные из кеша других пользователей запрашивать? зашибись, чо... а можно список сайтов, на которых эта либа установлена? чтобы случайно на них не зайти...
|  | |
1.8, Аноним84701 (?), 11:34, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +8 +/– |
http://www.cachep2p.com/documentation.html
> Security hashes allow you to define the only content that is valid and that is in sync with the latest content of your website.
> Step 4
> Add the three files to the <footer> of all the pages:
[CODE]
<script src="cachep2p.min.js"></script>
<script src="cachep2p.security.js"></script>
<script src="init.js"></script>[/CODE]
> It's important to have them in the correct order.
Я правильно понимаю, что при некотором "везении" и расположении рук клепателя сайта (причем, даже не главного, а какого нибудь очередного "оптимизатора", котороый слышал звон и решил осчастливить всех подряд) чуть поближе к седалищу, будет кэшироваться и отдаваться посторонним и то, что для взора этих самых посторонних совсем не предназначено (типа "site/pm/1/read")?
|  | |
1.9, QuAzI (ok), 11:34, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +/– |
Очень нужен инструмент, который даже не то что обходить будет цензуру, а позволит достучаться к заведомо утерянной информации. Регулярно умирают сайты, закрываются интересующие статьи на хабре, пропадает контент за давностью времени - это всё очень сильно бесит.
Как в этой штуке реализована поддержка динамики?
Как убедиться, что содержимое страницы актуально, а не тухляк недельной давности?
Как убедиться, что нет посторонних вставок?
|  | |
|
2.11, freehck (ok), 11:57, 24/10/2016 [^] [ответить] [к модератору]
| +3 +/– |
> Как в этой штуке реализована поддержка динамики?
Никак, вестимо. Пока есть люди, у которых открыт/в кэше нужный тебе контент - контент есть. Как только интерес пропадает, контента уже нету. Недельной давности контент не выживет.
> Как убедиться, что содержимое страницы актуально, а не тухляк недельной давности?
Кэш браузера учитывает http-заголовки expire, так что можно дать определённые гарантии, что не тухляк.
> Как убедиться, что нет посторонних вставок?
Контент ведь ищется по контрольным суммам, как в DHT. Суммы берутся от содержимого страницы.
|  | |
|
3.12, QuAzI (ok), 12:02, 24/10/2016 [^] [ответить] [к модератору]
| +1 +/– |
>> Контент ведь ищется по контрольным суммам, как в DHT. Суммы берутся от содержимого страницы.
Контрольные суммы нужно откуда-то получить. Если я и так делаю запрос к основному сайту чтобы получить данные, то мне уже поздно опрашивать пиров, проще и надёжнее сразу получить готовые данные. Если конечно речь всё ещё про веб, а не тупо файлопомойку с варезом.
Вообще по хорошему хотелось бы иметь что-то типа набора метатегов с указанием зеркал, где можно найти эту же страницу в случае смерти основного сайта. Плюс поддержка таких "множественных" ссылок браузерами при добавлении страницы в закладки. Что-то похожее есть в металинке - если основная ссылка не работает - есть альтернативные, ну или можно форснуть нужный источник. В том числе torrent, как один из источников. Конечно с динамикой в этом плане беда, но хотя бы базовое со статическим содержимым (статьи, документация и т.п.) будет гораздо живее, чем сейчас.
|  | |
|
|
5.22, QuAzI (ok), 15:27, 24/10/2016 [^] [ответить] [к модератору]
| +/– |
> Новостные сайты идут лесом, эт технология больше подойдёт сайтам вроде википедии. Хотя
> эта же технология есть банальный CDN
Опишите кейс, когда банальный CDN в долгосрочной перспективе (т.е. автора сбил автобус и он больше не платит за CDN) решит вопрос с доступностью контента в случае выпадания основного сайта?
|  | |
|
6.31, Sw00p aka Jerom (?), 21:54, 24/10/2016 [^] [ответить] [к модератору]
| +/– |
В случае если вас беспокоит понятие высокой доступности, то необходимо применить один из методов обеспечения высокой доступности - резервирование (избыточность). (в данном конкретном случае (человеческий фактор) - завести второго админа, соучредителя, фин менеджера и тд)
Пс: в случае с браузерным п2п кешированием лучше использовать MRU.
|  | |
|
|
4.23, freehck (ok), 15:27, 24/10/2016 [^] [ответить] [к модератору]
| +2 +/– |
>>> Контент ведь ищется по контрольным суммам, как в DHT. Суммы берутся от содержимого страницы.
> Контрольные суммы нужно откуда-то получить. Если я и так делаю запрос к
> основному сайту чтобы получить данные, то мне уже поздно опрашивать пиров,
> проще и надёжнее сразу получить готовые данные. Если конечно речь всё
> ещё про веб, а не тупо файлопомойку с варезом.
Проще - да. Но вот с надёжностью есть сомнения. Если ресурс массовый, то возможно будет иметь смысл отправить каркас с хэш-суммами, а загрузку данных по этим хэшам оставить на откуп браузеру пользователя. Это может выйти:
а) быстрее для пользователя
б) менее накладно для опрашиваемого ресурса.
> Конечно с динамикой
> в этом плане беда, но хотя бы базовое со статическим содержимым
> (статьи, документация и т.п.) будет гораздо живее, чем сейчас.
А вот это кстати интересный вопрос. Если будет возможность такие вот magnet-ссылки формировать для веб-содержимого, это было бы весьма неплохо.
|  | |
|
|
2.19, FSA (??), 14:43, 24/10/2016 [^] [ответить] [к модератору]
| +2 +/– |
> позволит достучаться к заведомо утерянной информации
archive.org, не? Правда его самого надо открывать через обход блокировки. Уроды те, кто это сделал!
|  | |
|
3.21, QuAzI (ok), 15:09, 24/10/2016 [^] [ответить] [к модератору]
| +2 +/– |
>> позволит достучаться к заведомо утерянной информации
> archive.org, не? Правда его самого надо открывать через обход блокировки. Уроды те,
> кто это сделал!
1) Он архивирует далеко не всё, что народ читает
2) На нём тоже есть случаи когда не весь контент заархивирован
3) Он тоже может умереть/заблокироваться и т.п.
т.е. пиром больше, пиром меньше - в данном случае разница не шибко велика.
|  | |
|
4.34, FSA (??), 05:50, 25/10/2016 [^] [ответить] [к модератору]
| +/– |
>>> позволит достучаться к заведомо утерянной информации
>> archive.org, не? Правда его самого надо открывать через обход блокировки. Уроды те,
>> кто это сделал!
> 1) Он архивирует далеко не всё, что народ читает
> 2) На нём тоже есть случаи когда не весь контент заархивирован
> 3) Он тоже может умереть/заблокироваться и т.п.
> т.е. пиром больше, пиром меньше - в данном случае разница не шибко
> велика.
Я не сравниваю с сабжем, я просто предлгаю другой инструмент человеку.
|  | |
|
|
2.29, Balancer (ok), 19:24, 24/10/2016 [^] [ответить] [к модератору]
| +/– |
>Регулярно умирают сайты, закрываются интересующие статьи на хабре, пропадает контент за давностью времени - это всё очень сильно бесит.
Вот тут особенно хорош ZeroNet. Пока копия сайта есть хоть у одного пользователя, он доступен всем.
|  | |
2.32, Ergil (ok), 22:38, 24/10/2016 [^] [ответить] [к модератору]
| –1 +/– |
> закрываются интересующие статьи на хабре,
sohabr.net и расширение «Всегдабр» тебе в помощь. И ничего пропадать не будет.
|  | |
|
1.13, Kroz (ok), 13:45, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| –1 +/– |
Идея классная. Я бы даже сказал, что это Internet Next Generation.
Но пока что возникает много вопросов:
- сохранение контента: как/кто будет решать что хранится на моем компе? Говорили про "хорошие сайты, которые исчезают": а если сайт хороший, но я на него зашел один раз и просто добавил в букмарки на будущее: как долго он просуществует на моем компе?
- privacy 1: как/кто будет решать кому отдавать. Если раздавать всем, то по сути каждый может узнать, хранится ли на твоем компе определенный контент или нет.
- privacy 2: как будет решаться проблема "персонализированного" контента?
- performance: какое будет время от момента ввода URL до момента начала загрузки?
Думаю, многое можно взять у прокси-серверов (а ведь де факто это распределенный прокси-сервер), но не всё.
В любом случае, технология интересна.
|  | |
|
2.15, QuAzI (ok), 14:07, 24/10/2016 [^] [ответить] [к модератору]
| +/– |
>> просто добавил в букмарки на будущее: как долго он просуществует на моем компе?
Да, это самый бедовый вопрос. Некоторый контент сохраняю через ScrapBook X, но он во первых не синхронизируется никак даже между только моими ПК/смартфоном/планшетом (что уже само по себе не удобно), во вторых никак не учитывает динамику. Страница запоминается "как есть", с таким же успехом можно в PDF пулять и на DropBox, только большинство PDF-илок не дают выделить из страницы нужное и сохраняют всё тупо как картинку (весит как не в себя).
|  | |
|
3.24, Michael Shigorin (ok), 15:45, 24/10/2016 [^] [ответить] [к модератору]
| +1 +/– |
> Страница запоминается "как есть", с таким же успехом можно
> в PDF пулять и на DropBox, только большинство PDF-илок не дают
> выделить из страницы нужное и сохраняют всё тупо как картинку
> (весит как не в себя).
Продайте козу, бишь не пуляйте в PDF? :)
|  | |
|
|
1.14, Аноним (-), 13:59, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +3 +/– |
Мне интересно как теперь пользователи из Европы и США, с их автоматическими системами обнаружения скачивания торрентов, будут доказывать, что просто зашли на сайт
|  | |
1.27, AlexAT (ok), 17:04, 24/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +/– |
SHA1 для верификации? Надёжненько
А вообще идея мне нравится, можно снизить нагрузку на доставку определённых частей контента. Не для маленьких HTML/JS, конечно, нет - задержки на поиск с вероятностью 99% окажутся неприемлемы.
|  | |
1.35, Нет (?), 08:10, 25/10/2016 [ответить] [показать ветку] [···] [к модератору]
| +/– |
Я не хочу участвовать в отдаче своего кэша всем подряд. Но я зашел на сайт, к которому Вася прикрутил этот скрипт. Будет ли меня браузер уведомлять, что теперь я раздаю свой кэш? Нет.
Будет ли хоть одна нормальная контора доверять раздачу контента от своего имени посторонним людям (да, я прочитал про sha-1)? Нет.
Как технология - красиво, интересно.
Как применение - пока не увидел ничего более достойного, чем распространение вирусов. Лендинги с ними и так долго не живут, а растащить свой дерьмо-контент по всему интернету, чтобы труднее было прибить - милое дело.
|  | |
|
|