>> Я думал брать R9 280X.
> А вы решили не мелочиться, я так смотрю :). Правда, как оно
> работает с RadeonSI - хз, смотреть надо. Есть конечно проприетарный драйвер,
> но я как-то предпочитаю открытые драйвера.Была следующая мысль: основная система у меня gentoo, поставить виртуалку с убунтой в qemu, пробросить туда эту видеокарту, поставить проприетарный драйвер. Монитор подключить и к интегрированной в материнку (radeon 4290), и к дискретной. При необходимости - переключаться между выходами, в основной системе драйвер свободный.
>> Жаль, его в новости нет (оригинал еще не смотрел).
> В оригинале его тоже нет. Ларабел ругался что АМД неохотно предоставляет образцы
> на тесты и поэтому половину AMDшных GPU он купил сам за
> свой счет. Подозреваю что он не миллиардер и поэтому покупать весь
> 280-й выводок за свой счет желанием не горит.
Да вроде разница около 3-4 тысяч между r9 270x и r9 280x, в зависимости от вендора...
>> Там вроде шина 384 бита + частота выше. С запасом под 2560х1440 монитор, так сказать.
> Могу сказать за R9 270 - он вполне справляется с обсчетом того
> же Xonotic с настройками high в 2560х1440. Да, с RadeonSI. Хоть
> RadeonSI и сырой, не оптимизированный и все такое. Справляется - в
> том плане что FPS не падает менее чем 60, т.е. рефреша
> монитора.
А в Legend of Grimrock не смотрели, как фпс на открытом драйвере?
> На самом деле у меня раньше утык был в том что в
> 5770 было только 512Mb RAM. Более-менее сложная сцена в FullHD -
> как раз едва втискивается, и то не всегда. Xonotic со скрипом
> умещается, какой-нибудь Unigine Heaven уже целиком не втиснется. Ну а если
> сцена не влезла в VRAM - начинается пересылка из системной оперативки.
> Что роняет производительность в разы. Так что попытка использовать в xonotic
> не fullHD а нативное разрешение монитора сажало скорость не в 1.7
> раза как было бы логично, а раз в пять.
Та же проблема на 5670, которая у меня уже который год.