The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

В ядро Linux 3.20 войдут важные исправления для видеокарт AMD семейства Hawaii

14.02.2015 21:05

Некоторое время назад при проведении тестов производительности открытых драйверов были замечены странные результаты - видеокарты AMD семейства Hawaii (R9 290 и R9 290X) показывали аномально плохую производительность, как будто забыв переключить частоты на максимальные. Более дотошные обладатели данных видеокарт смогли при помощи разработчиков разобраться в сути проблемы. Как оказалось, в драйвере на уровне ядра была допущена ошибка, из-за которой некоторые видеокарты R9 290 и R9 290X меняли только частоту памяти ("mclk"), но не поднимали частоту вычислительного ядра ("sclk").

В итоге ошибка была исправлена, что было подтверждено одним из пользователей, затронутых этой проблемой. Исправления войдут в состав ядра Linux 3.20. Пользователям R9 290/R9 290X, предпочитающим открытые драйверы, рекомендуется обновить ядро до 3.20, после того как оно будет выпущено.

  1. Главная ссылка к новости (http://www.phoronix.com/scan.p...)
Автор новости: Аноним
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/41672-driver
Ключевые слова: driver
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (37) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.4, J.L.unregistred (?), 23:03, 14/02/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    есть ли знатоки ноутов со встроенной+дискретной графикой ?
    дискретка R9 m290X

    под ubuntu 14.10+oibaf/graphics-drivers на DRI_PRIME=1 glxgears получаю чёрное окно вместо шестерёнок, и так похже со всеми программами с опенгл

    есть подзрение что я чего-то не доустановил или не настроил

    xrandr --listproviders
    Providers: number : 3
    Provider 0: id: 0x7e cap: 0x9, Source Output, Sink Offload crtcs: 4 outputs: 4 associated providers: 2 name:radeon
    Provider 1: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6 outputs: 1 associated providers: 2 name:radeon
    Provider 2: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6 outputs: 1 associated providers: 2 name:radeon

    randr --setprovideroffloadsink 0x46 0x7e
    (без неё так же чёрное окно)

    есть ли мануальчик с перечислением всего что нужно чтоб дискретка работала со встроенной ?

     
     
  • 2.5, commiethebeastie (ok), 23:53, 14/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    А в glxinfo что?
     
     
  • 3.8, J.L.unregistred (?), 01:00, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > А в glxinfo что?

    DRI_PRIME=0 glxinfo |grep -i "renderer string"
    OpenGL renderer string: Gallium 0.4 on AMD ARUBA

    DRI_PRIME=1 glxinfo |grep -i "renderer string"
    OpenGL renderer string: Gallium 0.4 on AMD PITCAIRN

    ошибок нет, версии выглядят нормально
    glxgears точно так-же не выдаёт ошибок, просто внутри самого окна чёрное (игрушки на дх через вайн - тоже чёрные)

     
     
  • 4.10, J.L.unregistred (?), 01:16, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    у меня радеон/радеон

    00:01.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Richland [Radeon HD 8650G] [1002:990b]
    r600
    01:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Neptune XT [Radeon HD 8970M] [1002:6801] (rev ff)
    radeonsi

     
  • 2.6, MPEG LA (ok), 00:36, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    1. LIBGL_DRI3_DISABLE=1
    2. попробуй без компиза, он паскудит иногда
    3. на крайняк radeon.runpm=0 ядру. ноут шумит от этого

    у меня на HD8730M c 3.18.5-031805-lowlatency (от vivid'а) только последнее и помогает

     
     
  • 3.9, J.L.unregistred (?), 01:13, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    у меня голый openbox было dri2 было black window с дровами deb http ppa launch... большой текст свёрнут, показать
     
     
  • 4.14, Аноним (-), 03:11, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > [radeon]] *ERROR* radeon: ring 0 test failed (scratch(0x850C)=0xCAFEDEAD)
    > kern  :err   : [Sun Feb 15 00:57:21 2015] [drm:si_resume
    > [radeon]] *ERROR* si startup failed on resume

    GPU не заработал. Это достаточно серьезные грабли - "ring N test failed" гарантирует что будут проблемы, как правило достаточно фатальные. И недавно что-то связанное с этим чинили в свежих ядрах. Попробуйте 3.19 релизный, если с ним аналогично то амдшникам баг про это стоит написать.

     
     
  • 5.18, J.L.unregistred (?), 10:00, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    кому и как написать в ядро зы это грабли с невозможностью повторно включить... большой текст свёрнут, показать
     
     
  • 6.35, Аноним (-), 14:29, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > кому и как написать ? в ядро ?

    По логике вещей - да, ядру. Насколько я понимаю, не удалась инициализация GPU после выхода из спячки и это проблема так или иначе со стороны ядра. При том где-то в 3.19-3.20 что-то по части мобильных GPU как раз чинили, но я не очень следил, за отсутствием у меня таковых.

    В принципе можно и на фридесктоп, там разработчики приывкшие к тому что половина репортов по части ядра. Т.к. далеко не всегда понятно что за ... . А конкретно в этом случае - не получилась инициализация GPU поле спячки, насколько я понимаю. Крэш юзермодового софта - потому что GPU в этот момент не работает и попытки с ним поработать обречены на провал. Такая реакция на ошибки тоже в принципе баг...

    > зы: это грабли с невозможностью повторно включить до ребута, в инете один
    > парень предполагает что из-за ошибки в таблицах acpi ноута msi gx70/gx60

    Вот чего не знаю того не знаю. По логу вижу что GPU не заработал как надо, завалился тест ring - после этого работать нормально не будет. Даже если это баг конкретной железки, со стороны амдшников будет логично как минимум попытаться его заворкэраундить. Кто-то где-то должен quirk влепить значит.

    > r600 продолжает работать работать и работать, несмотря на надпись [drm:r600_ring_test
    > [radeon]] *ERROR*....

    На самом деле если ring test не прошел, есть шанс получить если не полный отвал графики то как минимум весьма некорректную работу и кучу глюков. Сам факт наличия таких логов - индикатор больших граблей на низком уровне. После чего странно ожидать какую либо корректную работу. Отвал теста ring'ов - считается чем-то типа фатального сбоя инициализации. Таких сообщений по любому быть не должно, с ними странно на глюки жаловаться, т.к. это достаточно фатальные грабли.

     
  • 4.17, MPEG LA (ok), 07:48, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • –3 +/
    я-то думал у меня проблемы с графическим стеком...
    вот поэтому надо брать оборудование с линуксом из коробки - хоть проблемы и будут, но они решаемы, по крайней мере
     
     
  • 5.19, J.L.unregistred (?), 10:03, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > я-то думал у меня проблемы с графическим стеком...
    > вот поэтому надо брать оборудование с линуксом из коробки - хоть проблемы
    > и будут, но они решаемы, по крайней мере

    поэтому 1) брались видео амд 2) судя по инету сама такая видеокарта у людей работает уже полгода 3) эти грабли похоже грабли определённой модели ноута, тут да, не смог выбрать лучший и чтоб вместо доса давали линукс из коробки

     
     
  • 6.21, ананим.orig (?), 12:49, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Не факт что таже видюха будет работать на конкретной модели ноута, даже если дрова на 100%.
    Даже с блобами и невидией. Куча примеров.
    Мало что там ваш вендор накрутил.
    Модель ноута представьте. (Утилита dmidecode вам в помощь. Если нет, доустановите. В репах всех дистров есть)
    Второе. У всех дистров есть хавтухи в вики (что работает, что нет) практически на любую модель. Если в вашем дистре нет, то и от другого дистра вики подойдёт (хорошие хавту у генты, арча).
    Например для моей модели MacBook pro 11,3 отлично помогла https://wiki.archlinux.org/index.php/MacBookPro11,x
     
     
  • 7.22, ананим.orig (?), 12:51, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Зыж
    Не зря у вас на аспи стоко матюгов в логе. Точно вендор что-то накрутил.
     
  • 2.20, anonymous (??), 11:10, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    >[оверквотинг удален]
    > Provider 0: id: 0x7e cap: 0x9, Source Output, Sink Offload crtcs: 4
    > outputs: 4 associated providers: 2 name:radeon
    > Provider 1: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6
    > outputs: 1 associated providers: 2 name:radeon
    > Provider 2: id: 0x46 cap: 0x6, Sink Output, Source Offload crtcs: 6
    > outputs: 1 associated providers: 2 name:radeon
    > randr --setprovideroffloadsink 0x46 0x7e
    > (без неё так же чёрное окно)
    > есть ли мануальчик с перечислением всего что нужно чтоб дискретка работала со
    > встроенной ?

    Попробуйте собрать последний 3.20-rc, с последней фирмварью, вкомпиленной в ядро. И сам radeonsi тоже вкомпиленный в ядро. Шаманства в userspace тут вряд ли помогут, надо читать dmesg.

     
  • 2.24, nrndda (ok), 14:04, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    Знамая проблема. Нужно врубить композиттинг либо использовать что-то типа xcompmgr. Вот тут эта проблема упомянута: https://wiki.archlinux.org/index.php/PRIME
    Ещё radeon не держит dri3. Отсюда идёт проседание производительности и глюки, так как всё работает через прослойку к dri2.
     
     
  • 3.41, Аноним (-), 16:16, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Знамая проблема. Нужно врубить композиттинг либо использовать что-то типа xcompmgr.

    Не поможет все это при ring test failed при выходе из спячки. Угадайте почему.

     

  • 1.23, sorrymak (ok), 13:16, 15/02/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    3.20? Разве не 4.0?
     
  • 1.25, iZEN (ok), 16:14, 15/02/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • –7 +/
    Вот и славно. Поздравляю User294. Теперь должно быть всё хорошо с его RadeonSI на R9 270, и она будет быстрее GeForce GTX 750 не на 20%, а на все 146%! А то обидно, должно быть: карточка за 12 штук, а показывает результат такой же, как карта за 8 штук (GTX 750 Ti) и при этом греется в три раза больше.
     
     
  • 2.26, Аноним (-), 17:17, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    точно? А с fglrx?
     
  • 2.27, Аноним (-), 17:26, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    750Ti вообще-то 5 тысяч стоит. Стоила.
     
     
  • 3.33, Аноним (-), 00:11, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > 750Ti вообще-то 5 тысяч стоит. Стоила.

    Ну а R9 270 стоил 6 тыс. Но - именно стоил. Сейчас ясен пень уже десятку.

     
  • 2.28, Crazy Alex (ok), 17:28, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Я, конечно, понимаю, что тебе лишь бы AMD и открытые драйверы лишний раз обругать, но какой хрен разницы как оно греется в десктопе? Даже по энергопотреблению некритично если, конечно, круглые сутки в игры не играть.

    Впрочем, греется ли - это вообще отдельный вопрос, но это уже к 294-му.

     
     
  • 3.32, Аноним (-), 00:10, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Впрочем, греется ли - это вообще отдельный вопрос, но это уже к 294-му.

    Да, блин, греется. При 25С за бортом, GPU при показе десктопа прогревается аж до 31C. При том вентили совсем на минимуме и их не слышно. А на максимуме числодробилка довольно убедительная. ИМХО АМД не зря красовались своим управлением питанием. Хорошо работает.

    Нет, бывают случаи с кривыми таблицами в vbios и катаГлист за годы и годы оброс quirks и воркэраундами на все вкусы. Вот тут вот случай неработы реклока с некоторыми видеокартами. А бывали случаи дурного дефолтного профайла вентиля в VBIOS, когда тот воет даже если видяха холодная.

     
  • 2.30, Аноним (-), 23:57, 15/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Вот и славно. Поздравляю User294. Теперь должно быть всё хорошо с его
    > RadeonSI на R9 270,

    Эх, изя, даже в поздравлении у тебя лажа. Это про R9 290(X). Которые конечно крутые вундервафли, но дорогие и прожорливые. Это топовые видяхи от амд и у меня их нет :)

    Хинт: 270 != 290 :). У 290 даже в тестах фороникса были замечены странности, когда они почему-то проигрывали менее мощным картам на ровном месте. Как обычно нашлись парочка дотошныю юзерей которые раскопали в чем грабли.

    Собственно, разработчикам иногда требуется "помощь зала". OEMов и вариантов конфиг - много, все варианты того что сделали OEM предусмотреть не так то просто. Catalyst то за годы уже прокостылили, но т.к. никто никогда не документировал всякие quirks и воркэраунды - ну ты понял! Вам в фряхе все это еще предстоит узнать.

    > и она будет быстрее GeForce GTX 750 не на 20%, а на все 146%!

    А я так смотрю изену запомнилось что открытый драйвер таки обштопал блобик :). Хоть и на несколько более дорогой видяхе.

    > А то обидно, должно быть: карточка за 12 штук,

    Как я уже сказал, мне она обошлась в 6К, потому что вовремя подсуетился. Да и вотпрямща я их за десятку вижу.

    > карта за 8 штук (GTX 750 Ti) и при этом греется
    > в три раза больше.

    В общем случае это не так.

     
     
  • 3.36, iZEN (ok), 15:25, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > В общем случае это не так.

    Ну а как ещё ей рассеять 150 Вт выделяемого? В астрал?
    http://market.yandex.ru/product/10583571/spec?hid=91031&track=char

    Референсная NVIDIA GTX 750 Ti потребляет максимум 60 Вт (от шины PCI Express, дополнительного коннектора питания нет).
    http://www.nvidia.ru/object/geforce-gtx-750-ti-ru.html#pdpContent=2

    На закуску: http://www.overclockers.ru/lab/60151_5/Testirovanie_videokart_NVIDIA_GeForce_

     
     
  • 4.39, Аноним (-), 16:10, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Ну а как ещё ей рассеять 150 Вт выделяемого? В астрал?

    Понимаешь, Изя, чтобы он реально выдувал эти 150 ваттов - это надо ну разве что майнить или хэши крякать круглосуточно. При подобных затеях производительность обычно приоритетнее, а нвижия в таких развлечениях вообще более-менее в пролете, архитектурно. Ну ок, если постараться - можно в жаркую погоду догнать до +70 (что далеко от критической температуры чипа) и услышать призвук системы охлаждения.

    При показе десктопа оно кушает кардинально меньше и теплее окружающей среды градусов на пять. А в играх - очень зависит от сцен. У сцен, понимаешь ли, переменная сложность. И если кадр уже посчитан - GPU нет причин всегда лезть на максимум, т.к. и так уже успели посчитать.

    > Референсная NVIDIA GTX 750 Ti потребляет максимум 60 Вт (от шины PCI
    > Express, дополнительного коннектора питания нет).

    Ну, круто, и чего? С инженерной точки зрения мысль пропихать лишние 5А тока через мамку и и без того нагруженный ATX-24 разъем совсем не кажется мне достижением инженерной мысли. А судя по плате (где место под разъем таки угадывается) это называется "мы тут немного сэкономили". А если необдуманно воткнуть парочку таких - ATX разъем может вообще стечь в сапоги. Тем паче что оно все-равно двухслотовая штука с приличной турбиной. Конечно 60 ваттов не 150, но это уже довольно убедительная мощща, что ни говори.

    > На закуску: http://www.overclockers.ru/lab/60151_5
    > /Testirovanie_videokart_NVIDIA_GeForce_GTX_750_Ti_i_GeForce_GTX_750_v_igrah.html

    Ну, понимаешь, во первых меня наполовниу интересуют вычисления. А во вторых - нафиг мне ссылка на какие-то виндовозные игры? Можно подумать что я собираюсь ставить себе винду и играть в все это...

     
  • 3.37, Аноним (-), 15:37, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Он просто бесится что под его фрибздю нет драйверов кроме высера от nvidia. Молодой видимо, концентраты и добавки в этом высере плохо перевариваются организмом что влечет вот такую реакцию на слова amd radeon.
     
     
  • 4.38, iZEN (ok), 15:43, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Он просто бесится что под его фрибздю нет драйверов кроме высера от
    > nvidia. Молодой видимо, концентраты и добавки в этом высере плохо перевариваются
    > организмом что влечет вот такую реакцию на слова amd radeon.

    Разуй глазки: http://www.freshports.org/x11-drivers/xf86-video-ati/


     
     
  • 5.40, Аноним (-), 16:12, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Разуй глазки: http://www.freshports.org/x11-drivers/xf86-video-ati/

    Изя крут - послать человека смотреть на DDX драйвер. Наименее интересный кусок драйвера. И да, что-то GCN'ы у вас в состоянии нестояния. Согласно вашей же вике, если что. А ничего кроме GCN уже в общем то и не продается как правило.

     
     
  • 6.42, count0krsk (ok), 13:48, 17/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Ааа, у бздунов не стоит )) Почему я не удивлён )
     

  • 1.29, Аноним (-), 22:54, 15/02/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    >как будто забыв переключить частоты на максимальные.

    Мде, сколько лет прошло, а воз и нынче там. В поганой винде я могу ограничить частоты и питание видеокарты, отключить вентелятор (почему то ограничение 20% совсем ее отключает, сраный каталист) и спокойно без какого-либо нагрева видеокарты пользоваться восьмерочкой, браузером открывая тяжелые сайты и играть в какую-нибудь darkest dungeon.

    Когда такое станет доступно в линуксах? Запуск firefox с аппаратным ускорением в каком-нибудь гномощеле илм кде = максимальные частоты и обороты вентелятора видеокарты. Это была последняя капля когда я свалил в поганые вантуза с линуксами в виртуалках.

     
     
  • 2.31, Аноним (-), 00:05, 16/02/2015 [^] [^^] [^^^] [ответить]  
  • +2 +/
    >  Мде, сколько лет прошло, а воз и нынче там. В поганой
    > винде я могу ограничить частоты и питание видеокарты,

    Как ни странно, это можно и в линухе. Как минимум кантоваться между минимальными профайлами и максимальными с открытым драйвером вручную можно.

    Но пойнт этого малопонятен: у АМД крутейшая схема реклока, частота поднимается только если обсчет сцены этого реально требует. Поэтому нынче видяшки холодные при небольшой нагрузке, а если нагрузка требует - они превращаются в эпичные числодробилки. И вручную дрюкаться с управлением частотой - каменный век, чтоли.

    > отключить вентелятор (почему то ограничение 20% совсем ее отключает,
    > срaный каталист) и спокойно без какого-либо нагрева видеокарты
    > пользоваться восьмерочкой, браузером открывая тяжелые
    > сайты и играть в какую-нибудь darkest dungeon.

    Да вообще-то нынче так и в линухе. С ядра 3.13 примерно (кроме случаев когда случился какой-то баг). А теперь вот и управление вентилем в 3.20 для GCNов сделали.

    > в каком-нибудь гномощеле илм кде = максимальные частоты и обороты вентелятора
    > видеокарты.

    Скорее всего дурной профиль в VBIOS. КатаГлист оверрайдит управление вентилем и сам им рулит, потому что вендорье как оказалось пишет в VBIOS черти-что. Открытый драйвер для новых GPU тоже так уже научили.

    > Это была последняя капля когда я свалил в поганые вантуза
    > с линуксами в виртуалках.

    Не очень понятно кому от этого будет хуже кроме вас.

     
  • 2.43, count0krsk (ok), 13:52, 17/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Дрюк, поставть диоды в разрез питания вентилятора, и будет он медленнее во столько раз, сколько надо.
    Не знаешь как это сделать - купи регулятор оборотов за 300р и выпотроши.
    Если десктоп - так вообще всё просто. +12, +7, +5 - выбирай не хочу напряжения.
    Линукс для рукастых чуваков, которые если надо и с паяльником подлезут, и биос отредактированный прошьют в видюху.
     
     
  • 3.45, Аноним (-), 17:09, 23/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > Дрюк, поставть диоды в разрез питания вентилятора, и будет он медленнее во
    > столько раз, сколько надо.

    Учитывая что на типичном кремниевом диоде садится 0.6V, гирлянда диодов обещает быть большой. К тому же куда ее в видеокарте девать?

    > Линукс для рукастых чуваков, которые если надо и с паяльником подлезут,

    Вообще-то цель - поддерживать все фичи железа. И это более-менее получается. А кто хочет на более старых видеокартах - идем вот сюда: https://bugs.freedesktop.org/show_bug.cgi?id=87457 и учимся трассировать IO карты и каталиста. Ну и трассируем управление вентилем и городим патч. Ну или ждем пока это сделают другие.

    Caveat: у сильно старых видях управление может заметно отличаться.

     

  • 1.34, Аноним (-), 00:19, 16/02/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Наконец-то поиграю в Far Cry 4 на Линуксе.
     
     
  • 2.44, count0krsk (ok), 13:57, 17/02/2015 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Наконец-то поиграю в Far Cry 4 на Линуксе.

    Я в 3й-то ещё не играл )) Надоело тупо стрелять во всё, что движется давно. Та же MDK 2 гораздо интереснее.
    Эх, где взять хорошие игрушки с сюжетом, как Арканум, PlaneScape, и прочий Baldur's Gate...
    Героев 3х решил попроходить, как-то пропустил их в своё время.

     
     
  • 3.46, Аноним (-), 17:09, 23/02/2015 [^] [^^] [^^^] [ответить]  
  • +/
    > что движется давно. Та же MDK 2 гораздо интереснее.

    В линуксе есть более интересная игрушка - MDK3 называется. Codename "пи...ц соседской вафле!"

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру