The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]




Версия для распечатки Пред. тема | След. тема
Новые ответы [ Отслеживать ]
SQUID для Unlimited - необходимые фильтры, !*! OYY, 02-Апр-05, 20:38  [смотреть все]
У меня спутниковый канал Unlimited и для всех пользователей в сети тоже анлим. В связи с этим мне не требуется считать трафик но нужно справедливо разделить канал вне зависимости от жадности юзеров. Борьба как вы понимаете прежде всего с менеджерами закачек. Необходимо ограничить количество соединений на один и тот же URL. Пусть себе качают но по одному соединению ... Как это сделать? Желательно по маске ...
  • SQUID для Unlimited - необходимые фильтры, !*! ipmanyak, 06:33 , 04-Апр-05 (1)
    >У меня спутниковый канал Unlimited и для всех пользователей в сети тоже
    >анлим. В связи с этим мне не требуется считать трафик но
    >нужно справедливо разделить канал вне зависимости от жадности юзеров. Борьба как
    >вы понимаете прежде всего с менеджерами закачек. Необходимо ограничить количество соединений
    >на один и тот же URL. Пусть себе качают но по
    >одному соединению ... Как это сделать? Желательно по маске ...
    ограничивать по 1 соедниению не получится, тогда и в браузере будет только 1 соединение, второе окно уже не откроешь !  лучше загаси скорость на закачку до 1кб в сек или даже 500 байт  (delay pool) и  число соединений поставь хотя бы 5  или установи 1 струю конкретно на закачку по типам файлов :
    acl 1conn maxconn 1
    acl download urlpath_regex -i \.exe$ \.zip$ \.rar$ и т.д.
    http_access deny 1conn localnet download


    • SQUID для Unlimited - необходимые фильтры, !*! OYY, 10:15 , 04-Апр-05 (2)
      Нет браузер одну страничку грузит по нескольким соединениям и у каждого свой полный URL (картинки там всякие и т.д.) меня интересует именно много соединений на одни и тот же полный URL (многопоточные закачки например). Ограничивать скорость не хочу - пусть все доступное используется но не в ущерб другим ... Вот как это сделать?
      • SQUID для Unlimited - необходимые фильтры, !*! cimmerman, 11:17 , 04-Апр-05 (3)
        >Нет браузер одну страничку грузит по нескольким соединениям и у каждого свой
        >полный URL (картинки там всякие и т.д.) меня интересует именно много
        >соединений на одни и тот же полный URL (многопоточные закачки например).
        >Ограничивать скорость не хочу - пусть все доступное используется но не
        >в ущерб другим ... Вот как это сделать?


        Через хидеры  можеш попробовать
        блокировать range запросы  
        Требуется поддерка acl req_header rep_header
        А блокировать нужно что-то типа
        Accept-Ranges: bytes
        Content-Range: bytes 9999-99999/99999
        Естествено возможность докачки теряется ;o(
        незнаю как это будет работать с фтп

        не кто не момешает тянуть файлы "пачками" одним потоком каждый

        Имхо проще зарезать скорость на закачки

    • SQUID для Unlimited - необходимые фильтры, !*! OYY, 15:31 , 04-Апр-05 (4)
      >или установи 1 струю конкретно на закачку по типам файлов
      >:
      >acl 1conn maxconn 1
      >acl download urlpath_regex -i \.exe$ \.zip$ \.rar$ и т.д.
      >http_access deny 1conn localnet download


      хорошая идея ... сделал ... но не работает :-( чего-то не хватает ... а чего?




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2025 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру