The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Релиз Proxmox VE 4.0, дистрибутива для организации работы виртуальных серверов

06.10.2015 22:37

Состоялся релиз Proxmox Virtual Environment 4.0, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа 678 Мб. Начиная с выпуска 3.1 по умолчанию предлагается платный репозиторий Enterprise, возможность использовать бесплатный репозиторий сохранена и он является достаточно стабильным, но создатели дистрибутива не гарантируют качество его работы не рекомендуют к промышленному использованию.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Пакетная база синхронизирована с Debian Jessie 8.2 (прошлый выпуск был основан на Debian Wheezy). Ядро Linux обновлено до версии 4.2. QEMU обновлён до версии 2.4.
  • Добавлен менеджер кластеров высокой доступности (HA), позволяющий развернуть готовый кластер в несколько кликов в графическом интерфейсе. После создания кластера виртуальные машины зеркалируются одновременно на несколько серверов и в случае выхода из строя одного сервера, выполняемые на нём виртуальные машины автоматически запускаются на другом узле кластера.
  • Полная поддержка IPv6.
  • Для управления изолированными контейнерами вместо OpenVZ задействован инструментарий LXC. Конвертация OpenVZ в LXC поддерживается через процедуру резервного копирования с последующим восстановлением.
  • Добавлено распределенное реплицируемое блочное устройство DRBD9 с drbdmanage;
  • Множество исправлений и обновлений пакетов.

Ветка Proxmox VE 3.x будет поддерживаться до конца поддержки Debian Wheezy (прекращение выпуска обновлений безопасности ожидается в мае 2018 г.).

  1. Главная ссылка к новости (http://forum.proxmox.com/threa...)
  2. OpenNews: Релиз дистрибутива для создания виртуальных серверов Proxmox VE 3.4
Автор новости: tonys
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/43101-proxmox
Ключевые слова: proxmox
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (75) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, grec (?), 23:12, 06/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >  вместо OpenVZ задействован инструментарий LXC.

    Опенвз таки скатился.  

     
     
  • 2.24, Аноним (-), 13:00, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Не факт. И еще сильнее я сомневаюсь в том, что LXC уже закатился.
     

  • 1.2, Аноним (-), 01:41, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Кто нибудь сравнивал с oVirt?
     
     
  • 2.3, leap42 (ok), 04:00, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –2 +/
    тестил обе две. сложилось впечатление, что они из разных весовых: ovirt можно поставить на одну ноду весь, но лучше этого не делать (минимальная поддерживаемая установка предполагает три ноды), да и RH серьёзная фирма. PVE как-то не впечатлил, но многие пользуются (что лично меня удивляет - сейчас бесплатна виртуализация на любой вкус: vmware для ретроградов, hyper-v для тех у кого много виндов, xenserver для всех)
     
     
  • 3.4, daemontux (?), 04:56, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +7 +/
    > тестил обе две. сложилось впечатление, что они из разных весовых: ovirt можно
    > поставить на одну ноду весь, но лучше этого не делать (минимальная
    > поддерживаемая установка предполагает три ноды), да и RH серьёзная фирма. PVE
    > как-то не впечатлил, но многие пользуются (что лично меня удивляет -
    > сейчас бесплатна виртуализация на любой вкус: vmware для ретроградов, hyper-v для
    > тех у кого много виндов, xenserver для всех)

    У proxmox удобный web инитерфейс , + под копотом обычный дебиан, единственное отличие ведро от красношляпа. У меня он стоит на одной ноде, мне больше и не нужно.
    Для руления vmware (esxi) нужна винда и есть проблемы если ставите на обычное десктопное железо (soft raid не поддерживает). Предлагать hyper-v вообще не прелично на данном ресурсе.
    А xen мне не интересен ибо мне больше нравится kvm.

    Вобщем мое мнение для  случаев где не нужно много нод и нужен простой веб интерфейс. самое оно.

     
     
  • 4.12, Аноним (-), 10:14, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > прелично

    Зато прилично, видимо, писать с ошибками.

    Hyper-V, кроме что рулить им нужно с винды, а скриптование вызывает головуную боль своими некороткими названиями команд, вообще вполне себе решение - повеселее иных гипервизоров. И, что интересно, развивается очень серьезно.

    А PVE очень многим хватает, и работает он неплохо, весьма. Тем более что из коробки уже есть zfs - очень приятно, сегодня ОЗУ купить порой быстрее и дешевле, чем аппаратный RAID, тем более что аппаратный RAID еще и менее надежный, по факту (scrube сделать на них - ой какая проблема порой).

     
     
  • 5.21, Аноним (-), 12:01, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Зато прилично, видимо, писать с ошибками.
    > scrube

    scrub

     
  • 5.32, . (?), 16:41, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Hyper-V в ТОПКУ! Это я вам как практикующий админ этого ... решения говорю. Причём железа - уссытесь от зависти! И всё одно - пурген ...
     
     
  • 6.42, Аноним (-), 07:59, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    опишите свои проблемы с hyper-v, а я, как практикующий админ практикующему админу помогу с их решением (у меня 20 гостей на 3 хостах и ни одного нарекания за все три года). с proxmox были проблемы при отключении света ( четыре раза подряд на выходных - внутри гостей фс превратилась в какаху )
     
     
  • 7.51, Птолемейсхордойнаперевес (?), 22:22, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Эм... При проблемах с питанием фича "превратить в какаху" фс гостей (а так же другие фичи из опции "destroy them all") поставляется в комплекте к любой системе виртуализации.
    Не с того конца проблемы решаете.


     
     
  • 8.52, Аноним (-), 07:38, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    на hyper-v 2008 который даже не vhdx, никаких проблем не было... текст свёрнут, показать
     
     
  • 9.64, Птолемейсхордойнаперевес (?), 02:33, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    По ходу с репрезентативностью тоже проблемы ... текст свёрнут, показать
     
     
  • 10.66, Аноним (-), 04:24, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    сформулирую корректнее захотелось мне kvm с человеческим лицом - поставил я pro... текст свёрнут, показать
     
     
  • 11.74, billybons2006 (ok), 21:57, 29/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Вставлю свои пять копеек За полтора года работы Hyper-V ни разу не подвел Равн... текст свёрнут, показать
     
  • 7.70, Аноним (-), 18:10, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > опишите свои проблемы с hyper-v, а я, как практикующий админ практикующему админу
    > помогу с их решением (у меня 20 гостей на 3 хостах
    > и ни одного нарекания за все три года). с proxmox были
    > проблемы при отключении света ( четыре раза подряд на выходных -
    > внутри гостей фс превратилась в какаху )

    Продумывать резервное питание ни кто не отменял... У меня ~450 гостей под pve (все kvm), особых нареканий за 2,5 года нет.

     
  • 4.14, Anonymous7 (?), 10:54, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Для руления vmware (esxi) нужна винда

    Не правда, уже давно рулить можно через веб клиент на любой платформе.

     
     
  • 5.49, ryoken (?), 21:33, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Не правда, уже давно рулить можно через веб клиент на любой платформе.

    Без богомерзкого флэша?

     
  • 5.57, fuzzi (ok), 11:23, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    да? наверное, я что-то не умею...

    6-я вСфера:

    "To view this page ensure that Adobe Flash Player version 11.5.0 or greater is installed."

    "Your browser-OS combination is not supported. Some features might not work correctly.
    A minimum of IE10, Firefox 30 or Chrome 35 are required on Windows.
    A minimum of Firefox 30 or Chrome 35 are required on Mac OS X.
    Read the vSphere Web Client help for details."

    как видите, про Linux - вообще на звука.

     
     
  • 6.62, Anonymous7 (?), 20:07, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Ну речь шла о том, что рулить можно только из винды, а это не правда, как минимум mac os поддерживается, да и на linux, при наличии, конечно, богомерзкого adobe flash вполне можно рулить, некоторые функции правда будут не доступны. А еще, если извратиться немного то можно запустить vsphere client под wine.  
     
     
  • 7.65, Птолемейсхордойнаперевес (?), 02:44, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну речь шла о том, что рулить можно только из винды, а
    > это не правда, как минимум mac os поддерживается, да и на
    > linux, при наличии, конечно, богомерзкого adobe flash вполне можно рулить, некоторые
    > функции правда будут не доступны. А еще, если извратиться немного то
    > можно запустить vsphere client под wine.

    Шурупы с прямым щлицом, тоже можно ножницами закручивать.
    И вообще, у vmware, все виды управляющих консолей тормозные с отвратительным юзабилити.
    В этом отношении, web-морда и cli proxmox уделывают vmware.

     
     
  • 8.67, Celcion (ok), 07:14, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Не все Классический толстый vSphere client - вполне нормальный по скорости Что... текст свёрнут, показать
     
  • 4.15, Guest (??), 10:57, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Внесу корректировочку в 4.0 теперь ядро от Ubuntu в том числе из-за LXC
     
     
  • 5.35, daemontux (?), 17:22, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Внесу корректировочку в 4.0 теперь ядро от Ubuntu в том числе из-за
    > LXC

    СПС за инфу. на днях пощупаю )

     
  • 5.36, Andrey Mitrofanov (?), 17:39, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Внесу корректировочку в 4.0 теперь ядро от Ubuntu в том числе из-за
    > LXC

    Кто сказал, что прямо-таки именно из убунту?


    Сравниваем:

    Там "ввирху":

    "Релиз Proxmox VE 4.0  [...]
    [...]  Ядро Linux обновлено до версии 4.2"


    https://packages.debian.org/search?keywords=linux&searchon=sourcenames&suite=a
    Source Package linux
    [...]
        jessie (kernel): 3.16.7-ckt11-1+deb8u4 [security]
        sid (kernel): [B]4.2[/B].3-1
        experimental (kernel): 4.3~rc3-1~exp1


    http://packages.ubuntu.com/search?searchon=sourcenames&keywords=linux
    Пакет исходного кода linux
    [...]
        vivid-updates (devel): 3.19.0-30.34
        wily (devel): [B]4.2[/B].0-14.16

     
     
  • 6.39, Guest (??), 19:54, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +3 +/
    http://forum.proxmox.com/threads/22533-Proxmox-VE-4-0-beta1-released!?p=113623#post113623
     
  • 3.9, Celcion (ok), 09:39, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > сейчас *бесплатна* виртуализация на любой вкус: vmware для ретроградов, hyper-v для тех у кого много виндов

    "Бесплатность" и того и другого варианта - весьма условна. В первом вообще лишь совсем недавно сняли ограничения для бесплатной версии по памяти и процам. И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.

     
     
  • 4.11, Anonimous (?), 10:10, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.

    В hyperv есть кластеризация и в бесплатном варианте.

     
     
  • 5.18, Celcion (ok), 11:25, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >>И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.
    > В hyperv есть кластеризация и в бесплатном варианте.

    Возможность существования такого кластера без домена AD появилась совсем недавно (в 2012), но и она - прямо скажем, далека от идеала. А если делать по-нормальному с доменом - оно уже слегка небесплатно.

     
     
  • 6.43, Аноним (-), 08:22, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    и сколько нынче за samba4 берут? я просто не в курсе, бесплатно скачал и AD развернул...
     
     
  • 7.47, Celcion (ok), 17:40, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > и сколько нынче за samba4 берут? я просто не в курсе, бесплатно
    > скачал и AD развернул...

    Хорошая шутка, Евгений Ваганович!

     
     
  • 8.53, Аноним (-), 07:57, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    а по делу есть что сказать или вы думаете что ваша некомпентность распространяе... текст свёрнут, показать
     
     
  • 9.54, Celcion (ok), 09:26, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Высказавшийся не по делу человек хочет, чтобы я высказался по делу Хм Вас ... текст свёрнут, показать
     
     
  • 10.55, Аноним (-), 10:40, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    ок, специально для вас сформулирую проще существует бесплатная реализация АД, к... текст свёрнут, показать
     
     
  • 11.56, Celcion (ok), 10:50, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Формулирую специально для вас - работа кластеров MS CS на доменах Samba не подде... текст свёрнут, показать
     
     
  • 12.58, Аноним (-), 11:55, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    ок, постараюсь еще проще дискуссия была о платности это о деньгах, если что ... большой текст свёрнут, показать
     
     
  • 13.60, Celcion (ok), 18:56, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Нет, дискуссия была слегка не об этом Но мы же видим то, что нам удобнее Где ... текст свёрнут, показать
     
  • 4.33, . (?), 16:46, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >> сейчас *бесплатна* виртуализация на любой вкус: vmware для ретроградов, hyper-v
    > "Бесплатность" и того и другого варианта - весьма условна. В первом вообще
    > лишь совсем недавно сняли ограничения для бесплатной версии по памяти и
    > процам. И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.

    Это - да :-( Но при этом хайпер - *О*НО на любом железе!

    А ESXi 5.5 у меня на HP DL 360 G5/ 32GB (max limit для бесплатки да :) отпахал 3 года хостя всяких линуксов\фрях на edge ...
    ____ВООБЩЕ____ без единой проблемы! После такого опыта всё остальное воспринимаешь как пластмассовые совочки забытые в песочнице :)

     
     
  • 5.34, Celcion (ok), 17:04, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > А ESXi 5.5 ... отпахал 3 года

    Хм... Вообще-то, первый GA 5.5 вышел два года тому назад.

    > ____ВООБЩЕ____ без единой проблемы! После такого опыта всё остальное воспринимаешь как
    > пластмассовые совочки забытые в песочнице :)

    Ну, потому там такие конские бабки за лицензии и хотят. VMware - одна из немногих компаний, которая за многаденег дает относительно беспроблемные решения, которые почти не требуют к себе какого-либо внимания. Вопрос лишь в том - многие ли хотят зарывать тонны нефти в CAPEX, покупая варь, или проще/выгоднее спустить в OPEX на зарплаты кул-одминов oVirt на Федоре, или чего-то подобного.
    И я далек от того, чтобы утверждать какой из вариантов "правильный" - каждому свое. :-)

     
  • 5.59, xv (??), 16:57, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    А уже на DL180 G6 тот же ESXi 5.5 любит показывать сиреневые экраны, такие дела.
     
     
  • 6.63, Celcion (ok), 20:17, 09/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > А уже на DL180 G6 тот же ESXi 5.5 любит показывать сиреневые
    > экраны, такие дела.

    А у нас в квартире газ, а у вас? :-)

     
  • 5.72, Ps (?), 09:11, 16/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    >[оверквотинг удален]
    >> "Бесплатность" и того и другого варианта - весьма условна. В первом вообще
    >> лишь совсем недавно сняли ограничения для бесплатной версии по памяти и
    >> процам. И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.
    > Это - да :-( Но при этом хайпер - *О*НО на любом
    > железе!
    > А ESXi 5.5 у меня на HP DL 360 G5/ 32GB (max
    > limit для бесплатки да :) отпахал 3 года хостя всяких линуксов\фрях
    > на edge ...
    > ____ВООБЩЕ____ без единой проблемы! После такого опыта всё остальное воспринимаешь как
    > пластмассовые совочки забытые в песочнице :)

    Пост ни о чем.

    Десяток proxmox-ов (начинаю с версии 1.7) разбросанные по всему миру, юзаю ококо 5 лет, самые разные задачи, от обычного железа до HP DL360,DELL PowerEdge R730, гостей более 2-х сотен, ни единой проблемы. Своевременные бекапы, работали из коробки, ни разу не пригодились. Рестор использую для развертывания готовых образов.

    Попробовал поставить ESXi 5, программного raid нет, бекапов нет.

     
     
  • 6.73, Celcion (ok), 15:05, 16/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Попробовал поставить ESXi 5, программного raid нет, бекапов нет.

    ESXi - "голый" гипервизор, он почти ничего не умеет делать сам. Он больше подходит на системах, где, хотя бы, DAS нормальный есть, а лучше ферма серверов с общим стораджем, именно там раскрываются все его возможности.
    В качестве стендэлона с локальным стораджем на обычных винтах и без аппаратного RAID - он объективно ничем не лучше proxmox, скорее даже хуже.

     
  • 2.5, daemontux (?), 05:00, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +4 +/
    > Кто нибудь сравнивал с oVirt?

    Ставил год назад. По мне так оно для больших кластеров. Если нужно 1 - 3 ноды  то луше proxmox.

    Веб интерфейс жрет кучу ресурсов (ели мне не изменяет память там tomcat под копотом) и сильно перегружен. Вобщем ovirt и proxmox для разных задач.

     
     
  • 3.22, Аноним (-), 12:04, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Для мелких контор: Если речь идёт об 1 хосте с аппаратным рейдом - то проще php-virtualbox.
    Звучит подобно стёбу, но это слишком просто.
     
     
  • 4.37, daemontux (?), 18:01, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Для мелких контор: Если речь идёт об 1 хосте с аппаратным рейдом
    > - то проще php-virtualbox.
    > Звучит подобно стёбу, но это слишком просто.

    У виртуального ящика проблемы с производительностью

     
     
  • 5.40, Аноним (-), 21:50, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    И не только. Я имел в виду, что навращать его на 1 машине проще, даже чем поставить прохмох.

    Если о себе, то на 1 ноде хватит прохмоха или даже просто virsh, а на чём-то большем - только опенстек

     
  • 2.16, Watcher (??), 11:01, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Пробовал оба.

    Задача была получить HA кластер для виртуалок.
    oVirt - более сложен в развертывании, конфигуровании, но ничего непреодолимого в нем нет.
    Вообще оставил достаточно положительное впечатление.

    Proxmox - в продакшене больше года. На нем и остановились. Кластеры по три ноды в каждом (больше нам не надо). Виртуалки мигрируются, перезапускаются на другом ноде если один валится, в общем работает все как надо.

    Выбор в пользу Proxmox был сделан по простой причине: у Proxmox есть резервное копирование виртуалок прямо из коробки, а у oVirt - нет вообще. Все что пытались найти для продакшена не годится, у Proxmox-а же все бекапится и восстанавливается как должно быть.

    Кроме того, у Proxmoxа есть еще и снепшоты виртуалок.


    По интерфейсу же - у обоих WEB-gui, но для тонкой настройки в Proxmox-е надо лазить в консоль.

    Собсна.

     
  • 2.31, Legba (?), 15:30, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    oVirt поможет понять идеологию корпоративной платформы виртуализации - Датацентры, Кластеры, СХД.
    HA на oVirt хорошо работает и на 2-х нодах.
    PVE можно сравнить с ESXi - дешево, сердито и понятно.
    oVirt = мануалы|форумы + вдумчивое чтение  
     
  • 2.69, Magvegva (?), 13:45, 10/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Эту версию не тестил.
    Предыдущая (3.5, еслти не ошибся) - очень нестабильно себя вела при попытке создания бекапов и попытках восстановления с них.
    Это первое, что я проверяю.
    p.s. До сих пор ищу нормальный бесплатный гипервизор, который VMWare диски бы "понимал". Пока таки юзаю ESXi .
     

  • 1.6, nur (ok), 07:45, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    >> Добавлен менеджер кластеров высокой доступности (HA), позволяющий развернуть готовый кластер в несколько кликов в графическом интерфейсе. После создания кластера виртуальные машины зеркалируются одновременно на несколько серверов и в случае выхода из строя одного сервера, выполняемые на нём виртуальные машины автоматически запускаются на другом узле кластера.

    надо понимать - наконец то нормальный полноценный кластер?

    >> Для управления изолированными контейнерами _вместо_ OpenVZ задействован инструментарий LXC. Конвертация OpenVZ в LXC поддерживается через процедуру резервного копирования с последующим восстановлением.

    прямо так - вместо? опенвз больше не будет работать?
    напомните пожалста, чем лхц так плох?
    а то например опенвз как то глючно работает с железными сетевухами, не всегда их видит (конкретный случай - Intel I350 из 4 портов у меня видело только один) а уж на тему как в опенвз добиться работы iptables nat, mangle - вообще мануалов куча, из серии шаманства

     
     
  • 2.7, Аноним (-), 08:54, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ты новость читал? Да, вместо.
    Openvz не имеет отношения к драйверам сетевой карты, большой привет ядру линукса, драйверам от производителя сетевушки и прокладке между первым и вторым.
     
  • 2.25, Аноним (-), 13:24, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/

    > опенвз добиться работы iptables nat, mangle - вообще мануалов куча, из
    > серии шаманства

    no problem
    или надо iptables внутри контейнера?

     
     
  • 3.29, nur (ok), 15:04, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > или надо iptables внутри контейнера?

    именно, в чем смысл на ноде делать файрвол если там чаще всего локальный приватный адрес?


     

  • 1.8, dkg (?), 09:30, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +5 +/
    The best. Vmware отдыхает.
     
     
  • 2.10, Celcion (ok), 09:49, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • –7 +/
    > The best. Vmware отдыхает.

    Для небольших компаний - однозначно. Для более-менее крупного бузинеса - слишком овощное решение.

     
     
  • 3.23, Аноним (-), 12:06, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    В крупном и среднем бузинесе уже давно опенстек.
     
     
  • 4.28, Celcion (ok), 14:53, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > В крупном и среднем бузинесе уже давно опенстек.

    Смотря где. Для частных облаков с виндовыми виртуалками - варь пока еще впереди. Но как будет дальше - непонятно, потому что рынок активно меняется.

     
     
  • 5.38, Аноним (-), 18:03, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    >  Для частных облаков с виндовыми виртуалками

    здесь и опенстек, и хипстер-в, и vmare. Но сейчас даже самые закостенелые и махровые проприерасты потихоньку осваивают опенстек, даже в банках, а это даже меня удивляет.

     

  • 1.13, Аноним (-), 10:46, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    С учетом перехода openvz -> lxc думаю, что раньше 4.1 трогать не стоит. Кстати, в эту версию они вкорячили ядро от убунты 15.10.
     
  • 1.17, Аноним (-), 11:15, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Кто-то обновлялся уже? На сколько страшно происходит процесс обновления кластера и как часто он при этом разваливается? Даунтайм виртуалок какой прогнозировать на кластер из пяти нод и ~пол сотни виртуалок?
     
     
  • 2.19, nur (ok), 11:29, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    в нашей работе всегда надо прогнозировать самый худший вариант - так легче и безболезннее будет приступить к неизбежным исправлениям

    а учитывая мое сообщение выше - мне почему то кажется что это вообще другой вид кластера и оно вообще несовместимо

     
     
  • 3.20, Аноним (-), 11:39, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Да вот меня тоже всё чаще посещает мысль, что проще рядом ещё один кластер собрать, раскатать виртуалки на нём, а старый потушить и сделать реинсталл и присоединить к свежему кластеру, но тут остро сказывается дефицит железа.
     
     
  • 4.26, Аноним (-), 13:26, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Да вот меня тоже всё чаще посещает мысль, что проще рядом ещё
    > один кластер собрать, раскатать виртуалки на нём, а старый потушить и
    > сделать реинсталл и присоединить к свежему кластеру, но тут остро сказывается
    > дефицит железа.

    В шапке что-то было про миграцию через бекапы. За сутки наверно можно все перенести

     
     
  • 5.27, Аноним (-), 14:06, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Сутки я только CEPH буду обновлять (это в лучшем случае).
     
  • 4.30, nur (ok), 15:06, 07/10/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Да вот меня тоже всё чаще посещает мысль, что проще рядом ещё
    > один кластер собрать, раскатать виртуалки на нём, а старый потушить и
    > сделать реинсталл и присоединить к свежему кластеру, но тут остро сказывается
    > дефицит железа.

    зачем тушить весь кластер? надо его размонтировать, одну машину вывести из кластера, на ней установить новый прохмох, и по одному гостю перекидывать туда
    потом следущий комп итд

    5 нод - никак нельзя назвать "дефицитом железа"

    указаная тобой цель как я понял - нулевой даунтайм виртуалок, про то, сколько времени у тебя уйдет на весь процесс - ты не говорил выше )


     
  • 2.46, Аноним (-), 13:17, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Обновил в виртуалке, так как nested kvm я не настраивал, то там был openvz. Соотвественно, без даунтайма никак, кластер при обновлении тоже развалится. Основная претензия - отказ от venet и необходимость настраивать бриджи, а также танцы с бубном при необходимости иметь на одном контейнере и внешний, и внутренний адреса. А, теперь ещё для задания лимитов контейнера надо создавать образ диска, так что с хоста внутрь без шаманства не влезешь.
    Так что подожду и подумаю, может, в итоге проще будет на Virtuozzo перейти.
     
     
  • 3.48, nur (ok), 19:41, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    в опенвз как раз все просто залезть внутрь до того как оно запустится - по умолчанию всё находится в /var/lib/vz/private
     

  • 1.41, InventoR (??), 23:16, 07/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ура товарищи, вот как раз собираюсь строить новый кластер, предыдущий исчерпал себя. 15 нод кластера в продакте, 2.5 года, аптайм уже от пол года до года на нодах, главное условие не используйте LVM, только ceph.
     
     
  • 2.44, Аноним (-), 08:39, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    почему не надо использовать LVM?
     
     
  • 3.45, leap42 (ok), 10:04, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    потому, что "эксперты по PVE" не читали best practices по kvm
     
     
  • 4.50, Птолемейсхородойнаперевес (?), 22:21, 08/10/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Подробнее пожалуйста, что конкретно не так?
     
  • 3.71, InventoR (??), 14:16, 14/10/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    В какой-то момент прилетает lock на одном из томов LVM, в итоге весь rgmanager ставится раком на кластере, fence не отрабатывает так как не видит проблем, clustat рапортует что все гуд, group_tool ls тоже самое, а lvm стоит раком, потом начинается зловещий поиск какая нода заблокировала том.
    Также посмотрите внимательно pvestatd, он раз в 10 секунд дергает всю инфу о машинах с lvm томов и так на каждой ноде, в итоге пока у тебя мало нод все работает сносно, как только количество нод вырастает начинается такие чудеса что LVM стоит раком.
    Под LVM для кластера подразумевается clvm кто еще не понял, штука очень редкая как оказалось и глючная, к тому же не дает достаточно информации чтобы понять какая именно нода дала сбой в работе.

     

  • 1.61, Аноним (61), 19:55, 09/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    у меня LVM на 6 нодах, около 200 виртуалок, полет нормальный
     
  • 1.68, Аноним (-), 12:00, 10/10/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Использую pve 3.3 с одной нодой как тестеровочную среду для серверного продукта. Железо десктопное, 4 ядра, 16 гигов. Мало, но KSM решает вопрос. Виртуалки в основном виндовые с ms sql (да-да, таймер оттюнил первым делом)), но есть и контейнеры для hg репозитория, мемкеша, фейк-емейл сервера, хранилища общих образов, бекапов баз данных. Постоянно работаю со снепшотами. В целом хотелось бы большей производительности qcow2. Образы вм лежат на xfs в raid 0. Пробовал сначала ext4 - производительность хуже, перешел на xfs. Бекапы очень удобны, но есть большой минус конкретно для меня: архивируется только актуальное состояние вм, снепшоты не сохраняются. В целом доволен, хорошая штука.
     
  • 1.75, василий (??), 10:09, 24/11/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Обновление ProxmoxVE 3.4 до 4.
    http://vasilisc.com/upgrade-proxmox-3-4-to-4
     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру