1.1, ixrws (ok), 18:58, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +2 +/– |
Остаётся только надеяться что работа fermi в качестве cpu будет хотя бы на уровне arm cortex-8 600-800 мгц. Тогда у nvidia появится шанс сделать ion(n) без участия центрального процессора и продавать дешёвые неттопы с линуксом, конкурируя с intel и amd.
Только вот ещё одна архитектура, это всё же времени потребует для того чтобы ядро, драйвера и юзерспейс в полном объёме подтянулись.
| |
|
2.2, ixrws (ok), 19:00, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
А вообще, это ожидаемо вполне, что они будут свой gpu выдавать за cpu и tegra одновременно пропихивать. Ведь интель последнее время сильно им на мозги капает с лицензиями. Тут ещё ati выпустили удачную линейку. Того и гляди если не слив, то утечку придётся засчитывать. А тут есть шанс на новом фланге поднаср*, то есть повоевать:)
| |
|
3.41, нео (?), 07:27, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Вы видели последние тренды текучки кадров? Из ATI в nVidia, но не наоборот!
| |
|
4.55, ixrws (ok), 11:32, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Видеть то можно, но nvidia обломали за чипсеты для новых процессоров от intel. А amd заявила, что новые процессоры их также будут только со своими чипсетами. Так что какие бы ни были кадры, с рынка интегрированной графики их выдавливают, возможно останется только ion. Также нынешняя линейка от ati выпущена раньше и если новоиспечённая линейка от nvidia будет хуже, то им также не помогут кадры, так как деньги имеют свойство заканчиваться. Вполне правильный момент для них, чтобы искать альтернативы.
| |
|
5.67, Filosof (ok), 18:32, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
> А amd заявила, что новые процессоры их также будут только со своими чипсетами.
Ну пока это касалось только серверного сегмента.
Надеюсь до десктопа это не дойдёт...
| |
|
6.70, ixrws (ok), 18:45, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Ну вы же понимаете, что через год-два у интеля и amd процессоры будут со встроенным графическим ядром. Логично будет для amd запретить делать чипы для этих процессоров. И что тогда останется nvidia ? hi-end встройка только, если хотя бы её оставят:) Тенденция на лицо, nvidia давят конкуренты используя своё положение.
Есть ещё конечно шанс, что nvidia и via пойдут объединённым фронтом, всё таки nano неплохой проц. Если отказаться от via чипсетов в пользу ion, будет вполне себе альтернатива atomу.
| |
|
7.83, Filosof (ok), 00:58, 15/10/2009 [^] [^^] [^^^] [ответить] | +/– | Нелогично А вот нвидии престать делать свои чипсеты - логично Однако тут есть ... большой текст свёрнут, показать | |
|
|
|
|
|
2.51, Rewire (?), 10:21, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
У этого GT300 аццкое потребление энергии, не каждый бп потянет комп с GT300. Да и цена соответствующая. GT300 может сильно ускорить выполнение некоторых операций, при наличии соответствующего софта. Это штука скорее для учёных, ну или для хардкорных геймеров в будущем. Дешевые неттопы тут вообще ни при чём :)
| |
|
3.56, ixrws (ok), 11:34, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>У этого GT300 аццкое потребление энергии, не каждый бп потянет комп с
>GT300. Да и цена соответствующая. GT300 может сильно ускорить выполнение некоторых
>операций, при наличии соответствующего софта. Это штука скорее для учёных, ну
>или для хардкорных геймеров в будущем. Дешевые неттопы тут вообще ни
>при чём :)
Ну как бы чип и архитектура - это немного разные вещи. То что топовые чипы монстры - это одно. А то что одна и та же архитектура может применяться как в топовых чипах, так и в дешёвых и холодных изделиях - это не новость. Небольшие изменения в архитектуре и уменьшения количества блоков и вуаля - вот вам и новая tegra.
| |
|
|
|
|
3.15, Йух (??), 19:40, 13/10/2009 [^] [^^] [^^^] [ответить]
| +2 +/– |
Тем что начинаешь зависеть от нвидии и ждать того когда они соизволят выпустить версию совместимую с текущей версией ядра или исправить ошибки или добавить некоторые фичи. Обладатели нвидия карт меня поймут, я думаю. )
| |
|
4.36, володя (?), 05:01, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
никогда никаких проблем с их драйверами у меня не было. три карты сменил, начиная с MX440.
а вот с АМД и интелом натрахался вдоволь
| |
|
5.37, аноним (?), 06:45, 14/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>никогда никаких проблем с их драйверами у меня не было
либо лукавишь (что распространено в вашей тусовке), либо тебе фартит.
совсем недавно на форумах вопили о бинарной несовместимости nvidia c новыми иксами
предлагалось делать откат на старые иксы
>а вот с АМД и интелом натрахался вдоволь
какая у вас увлекательная половая жизнь!
| |
|
6.38, mma (?), 07:04, 14/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>совсем недавно на форумах вопили о бинарной несовместимости nvidia c новыми иксами
Вот честно, не зачемал такого. Кто вопил? почему вопил? может в дистрибутиве была старая версия, но это забота дистростроителей, забота нвидии выкладывать рабочие блобы
| |
|
7.43, аноним (?), 07:56, 14/10/2009 [^] [^^] [^^^] [ответить]
| –1 +/– |
>Кто вопил?
в основном, англоязычные пользователи.
>почему вопил?
юзать хотелось.
>может в дистрибутиве была старая версия, но это забота дистростроителей,
>забота нвидии выкладывать рабочие блобы
так ведь не было рабочих блобов!
| |
|
8.48, i (??), 09:13, 14/10/2009 [^] [^^] [^^^] [ответить] | +2 +/– | карты nvidia всегда прекрасно работали в линукс, что за мифические проблемы не п... текст свёрнут, показать | |
|
|
6.45, Андрей (??), 09:03, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
2аноним>> о бинарной несовместимости nvidia c новыми иксами
хм... неделя как xorg-server-1.7+nvidia-drivers-190.36+ядро-2.6.31-r2 (дада, генту :) ) - полет нормальный. да и скорость резко подросла. карточка по сегодняшним меркам на "троечку" - GF6600 (не GT и не Ultra, а просто 6600)
| |
|
7.78, pavlinux (ok), 21:11, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>2аноним>> о бинарной несовместимости nvidia c новыми иксами
>хм... неделя как xorg-server-1.7+nvidia-drivers-190.36+ядро-2.6.31-r2 (дада, генту :) ) - полет нормальный. да
>и скорость резко подросла. карточка по сегодняшним меркам на "троечку" -
>GF6600 (не GT и не Ultra, а просто 6600)
На троечку это 8400-8800GT, на 4 - 9600 - 240, 5 - 285-295,
7200 - 7900 это параша, следовательно 6600 в глубокой ж...е.
| |
|
6.97, Djam (?), 16:16, 20/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Видимо лукавит. Готов подписаться. Несовместимы их драйвера с новыми X. Более того они сами об этом писали на своем сайте, насколько мне позволил мой англицкий.
| |
|
|
4.42, нео (?), 07:29, 14/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
Подтверждаю, с nvidia количество проблем около нуля.
С ATI - все таки больше, в частности висяк по мультидисплейному P'n'P для вывода видео на телек.
| |
|
3.16, аноним (?), 19:48, 13/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Всем. Вы что, мало натрахались с блобами? То-то в плюсы Debian/kFreeBSD пишут наличие NDIS, видимо у линуксоедов это в крови - при первой возможности какую-нибудь проприетарную поделку в систему воткнуть. Конкретно nVidia мне мешает тем, что они не успевают выпустить дрова под новые иксы, и хреновой/никакой подержкой других систем которые я использую, в частности *BSD.
| |
|
|
Часть нити удалена модератором |
5.34, Аноним (-), 02:20, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
А я добавлю - из-за того что они меняют libGL, отлаживать невозможно. Поэтому блобы это не более чем полумера. Я например, как только моя карточка заработает под nouveau, перейду сразу. Не важно, если не будет 3D, будет тормозить и глючить - это все равно будет много лучше, чем использовать блоб.
| |
|
6.39, mma (?), 07:07, 14/10/2009 [^] [^^] [^^^] [ответить]
| –2 +/– |
переходите на vesa, а еще лучше в консоль текстовую - это будет намного лучше чем ублюдский X-драйвер... ну вы меня поняли.
| |
|
|
|
5.65, аноним (?), 17:14, 14/10/2009 [^] [^^] [^^^] [ответить] | +/– | Ключевая фраза лично мной Да, через полгода выходит новая убунта, где все раб... большой текст свёрнут, показать | |
|
|
3.69, Filosof (ok), 18:39, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>Чем тебе работающий блоб мешает?
Тем, что в нём прописываются политические функции. Типа "отрубить функционал если есть другие карты или неверные чипсеты". Они именно так защищают свои SLI & PhysX
| |
|
2.6, ixrws (ok), 19:06, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>Хм, и что, дрова будут опять только в виде блобов?
А что, одно другому мешает? Очевидно что в случае запуска ядра поверх их gpu, часть архитектуры gpu будет выставлено на всеобщее обозрение. Но реализацию графики и прочее вполне можно будет оставить полностью закрытыми от посторонних глаз. Хотя можно предпринять и ещё более жопный шаг, запустив linux из-под небольшого бинарноблобнутого гипервизора, так чтобы linux kernel думало что запущено под каким-нибудь arm процессором. То есть поверх fermi своять закрытую виртуальную машину, а уже в эту виртуалку пустить linux.
| |
|
3.12, Dmitryx86 (ok), 19:32, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
Да здравствуют костыли! Видимо, такты GPU настолько выросли, что их некуда девать?
| |
|
4.13, ixrws (ok), 19:38, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>Да здравствуют костыли! Видимо, такты GPU настолько выросли, что их некуда девать?
>
Почему сразу костыли? Ведь главный вопрос как это будет реализовано. Конечно если всё это будет включать гипервизор и невозможность полностью отказаться от cpu, то это котыльный говн. Однако может и нет.
Не знаю чем костыльно отказаться от разделения на cpu и gpu, когда шейдерные юниты уже давно могут больше чем просто обрабатывать графику. Если функционал gpu приближается к cpu, то логично уже использовать единую архитектуру для всех вычислений. Потребителю это грозит упрощением девайсов, уменьшением размеров и , может быть, удешевлением.
| |
|
5.29, Dmitryx86 (ok), 23:12, 13/10/2009 [^] [^^] [^^^] [ответить] | +1 +/– | Вот с этим полностью соглашусь По поводу удешевления - скорее всего точно, без ... большой текст свёрнут, показать | |
|
6.31, Карбофос (ok), 23:53, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>Хорошо бы еще звук в процессор интегрировали, а не печатали отдельным контроллером на мат.плате.
ага. да и, желательно, с усилком.
какой лучше? долби или THX? сколько каналов? или на моно остановим свой выбор? не подскажешь, что делать с шумами?
| |
|
7.32, DeadLoco (ok), 00:39, 14/10/2009 [^] [^^] [^^^] [ответить]
| +10 +/– |
>>Хорошо бы еще звук в процессор интегрировали, а не печатали отдельным контроллером на мат.плате.
>
>ага. да и, желательно, с усилком.
>какой лучше? долби или THX? сколько каналов? или на моно остановим свой
>выбор? не подскажешь, что делать с шумами?
А какая разница - сколько каналов? Сколько ЦПУ успеет обработать - столько и будет. 7.1 или 19.5. Может быть даже на 96кГц. А уж на выходе с ЦАПов ставить экранированные каскады усилителей с отдельными фазами питания.
А вообще - должно быть 1024 ядра, которые будут динамически распределяться между задачами, предположим, в игре. Скажем, шесть ядер считают звук, 128 ядер считают геометрию сцены, еще 64 ядра считают шейдеры, 32 ядра считают физику, 128 ядер считают АИ зомбей, и еще одно интерактится с игроком. А, да, еще два ядра под систему. Остальные динамически подключаются туда, где не хватает ресурса.
| |
|
8.40, DFX (?), 07:12, 14/10/2009 [^] [^^] [^^^] [ответить] | +1 +/– | чорт - минусанул случайно, а ведь мысль золотая давно о таком мечтаю но всё та... текст свёрнут, показать | |
|
9.44, аноним (?), 07:59, 14/10/2009 [^] [^^] [^^^] [ответить] | +1 +/– | вывод не заниматься и не провоцировать кармадрочерство сейчас делятся кванты в... текст свёрнут, показать | |
|
|
|
|
11.76, Yuriy (??), 20:19, 14/10/2009 [^] [^^] [^^^] [ответить] | +1 +/– | Microsoft Silverlight cannot be used in browsers running in 64 bit mode Флеша 6... текст свёрнут, показать | |
|
|
13.87, аноним (?), 08:51, 15/10/2009 [^] [^^] [^^^] [ответить] | +1 +/– | разумеется точность и скорость выполнения арифметических операций, а также взаи... текст свёрнут, показать | |
|
|
|
|
|
|
|
|
|
|
|
|
1.4, Анонимный (?), 19:03, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +1 +/– |
Я чего то не понял или правда они хотят запускать ОС на видеокарте?
Зачем это надо?
| |
|
2.7, ixrws (ok), 19:09, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>Я чего то не понял или правда они хотят запускать ОС на
>видеокарте?
>Зачем это надо?
Ну вообще-то, потенциально это даёт возможность nvidia в будующем повоевать с друх сторон.
-выйти на рынок десктопов без cpu, а значит будет дешевле. Допустим какой-нибудь ion3, но уже без atom, neo, nano. А сам, один и дешевле, но с линуксом. Это избавляет их от гемороя с лицензиями с intel и amd.
-выйти на рынок высокопроизводительных серверов и кластеров. Там допустим несколько tesla будут выполнять роль десятков процессоров. Опять же, прибыльный рынок, и если их решения смогут потягаться в производительности и цене - то почему бы и нет?
| |
|
3.9, Cobold (??), 19:27, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
как думаете, на embedded рынок полезут? В мобильных девайсах нужно ещё и уметь питание экономить, сомневаюсь что они это смогут. Всётаки скорее они сопроцессор для числодробилок делают.
| |
|
4.11, ixrws (ok), 19:32, 13/10/2009 [^] [^^] [^^^] [ответить]
| +2 +/– |
Ну как бы они уже туда лезут с tegra:). Может быть конечно это несколько не самый бедный embedded, но на топовые смарты и девайсы похожие на нетбуки вполне хватает(и там их gpu и армовый cpu). Тут скорее вопрос будут ли они и дальше эксплуатировать arm или полностью сосредоточатся на своей cgpu архитектуре. Пока ничего не ясно, ведь кроме расплывчатых слов о том что на их fermi заведётся линукс - не сказано ничего конкретного.
| |
|
|
|
1.8, Аноним (-), 19:19, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +4 +/– |
Уже вижу видюху со встроенной флешкой с минилинухом медиаплейером аськой и фаерфоксом.
| |
1.17, croster (ok), 19:52, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Linux на видеокарте - это что-то новенькое. Пугает только следующее:
"if you would make a heavily optimised Linux it could potentially run on Fermi".
Видимо, сильно придется пилить ядро и остальные вещи...
А еще радует, что видеокарты начинают использоваться для серьезных вещей. Например, Jedox собирается в 2010 году представить новую версию OLAP-сервера Palo, использующую возможности видеокарт NVIDIA, при этом обещается ускорение операций как минимум в 20 (!) раз. Подробнее здесь:
_http://www.paloinsider.com/jedox/finance-people-will-demand-gaming-cards-in-t
| |
|
2.18, Dmitryx86 (ok), 19:56, 13/10/2009 [^] [^^] [^^^] [ответить]
| +1 +/– |
>Linux на видеокарте - это что-то новенькое.
Вирусы на видеокарте - это тоже что-то новенькое. Как и ускорение видеокартой антивирусов :)
Такая интересная тенденция - интел и амд толкают видеоядра в свои процессоры, а нвидия и амд делают из своих видеокарточек процессоры :)
амд\амд
интел\нвидия
хм..да.
| |
2.72, Filosof (ok), 18:53, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>Linux на видеокарте - это что-то новенькое. Пугает только следующее:
>"if you would make a heavily optimised Linux it could potentially run
>on Fermi".
>Видимо, сильно придется пилить ядро и остальные вещи...
>
>А еще радует, что видеокарты начинают использоваться для серьезных вещей. Например, Jedox
>собирается в 2010 году представить новую версию OLAP-сервера Palo, использующую возможности
>видеокарт NVIDIA, при этом обещается ускорение операций как минимум в 20
>(!) раз. Подробнее здесь:
>_http://www.paloinsider.com/jedox/finance-people-will-demand-gaming-cards-in-t
Они давно свою Тесловость пиарят. Даже есть готовые и рабочие железяки. Просто пока софт под них мало кто пишет. А самой Нвидии - как-то не с руки.
Ахитектура то закрытая. Вот когда OpenCL адекватно поддержат - вот тогда может пойдёт...
| |
|
1.19, Аноним (-), 20:18, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| –5 +/– |
Какая нафиг видюха. Это дело не пойдёт в массы по той же самой причине, что и ARM, PowerPC и проч (включая Itanium). Intel обеспечивает реальную совместимость на уровне бинарников между своими процессорами. Остальные требуют что-то постоянно компилировать (причём и это дело далеко не всегда проходит гладко). Конечно когда Линукс захватит 99% рынка десктопов всё изменится, но пока во времена царстовавания Windows интелы не подвинутся ни на сантиметр в своей доле. Скорее наоборот, изобретут что-нибудь типа Nettop+Vista_7_capable+i386_compatiable, в общем очередной более мощный атом.
| |
|
2.20, ixrws (ok), 20:45, 13/10/2009 [^] [^^] [^^^] [ответить]
| +2 +/– |
Вы наверное в танке, но всё же. Arm, powerpc, mips давно ушли в массы. Если вы и имете ввиду какие-то массы, то это фикаль*, простите, десктопные массы.
Как раз таки nvidia с таким успехом может затесаться на рынок серверов и кластеров. А при желании и на рынок смартфонов. Ну а десктоп, он ведь ждал, ждёт - но терпение это не вечно. Уже и arm прямо объявили о своём наступлении, и mips в общем-то туда же метит. Да и tegra у nvidia разрабатывалась явно не для бюджетных телефонов, а для топовых смартфонов и дешёвых ПС.
Кроме того, nvidia вынуждены теперь так действовать. Intel добились от них почти грошёвой поддержки sli без чипсетов nvidia и в то же время запрещают делать чипы для новых архитектур. Amd также объявили что для своих процессоров они будут вскоре делать чипы только сами. Это означает что у nvidia 2а варианта - оставить себе лиш рынок видеокарт, на котором его с разных фронтов могут intel и amd разорвать в будующем. Либо же оставить рынок видеокарт и развивать новые направления, не стеснённые кросслицензированием.
| |
|
3.21, Аноним (-), 20:51, 13/10/2009 [^] [^^] [^^^] [ответить]
| –1 +/– |
Вы верно шутите? Когда я говорю про массы я имею в виду рынок десктопов и (отчасти) серверов. Да, железку для управления танками в количестве 100 штук я бы наверное тоже сделал на ARM. Возможно для изготовления мега-крутого-кластера для вычисления чего-то-мега-специфического я бы тоже взял что-то особенное. Но реальность же говорит обратное. Люди покупают интеловские чипы и майкрософтские операционки и знают что все их наспех написанные закрытые но жутко дорогие программки скорее всего заработают. Nvidia - это специфика, которая вряд ли вообще когда найдёт применение за пределами хардкорного гейминга.
| |
|
4.25, Michael Shigorin (ok), 22:07, 13/10/2009 [^] [^^] [^^^] [ответить]
| +3 +/– |
> Вы верно шутите?
Что-то ещё одним дублем Thorn запахло...
Массы _встроенных_ PPC, ARM, MIPS ездят по дорогам, стирают и звонят, если не дошло. И их _намного_ больше, чем того, о чём Вы только и знаете, похоже.
> Nvidia - это специфика, которая вряд ли вообще
> когда найдёт применение за пределами хардкорного гейминга.
То-то у нас на кластерах сегменты, ориентированные на GPU-расчёты, позаводились.
| |
|
5.47, Андрей (??), 09:12, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>> Вы верно шутите?
>Массы _встроенных_ PPC, ARM, MIPS ездят по дорогам, стирают и звонят, если
>не дошло. И их _намного_ больше, чем того, о чём
представляю - дома кластер из смартфонов, стиральных машин, микроволновок, "денди" и машины в гараже. :D утром папа на работу уехал и сынуля уровень пройти не смог, ибо без проца на папиной машине (авто), мощности не хватает :D
| |
|
|
|
|
1.22, Аноним (-), 20:58, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +1 +/– |
Откуда у людей столько ненависти к интел, доказавшей всем дружественность к линуксу и СПО и такая страстная преданность Нвидия, которая не собирается открывать даже захудалой доки на карты прошлого века? Если вам нравится, что видюха работает из коробки с проприетарными дровами, пожалуйста, но нафиг тогда нужен линукс?
| |
|
2.23, ixrws (ok), 21:10, 13/10/2009 [^] [^^] [^^^] [ответить]
| +2 +/– |
>Откуда у людей столько ненависти к интел, доказавшей всем дружественность к линуксу
>и СПО и такая страстная преданность Нвидия, которая не собирается открывать
>даже захудалой доки на карты прошлого века? Если вам нравится, что
>видюха работает из коробки с проприетарными дровами, пожалуйста, но нафиг тогда
>нужен линукс?
Наверное людям важнее развитие отрасли, пусть даже будет чуточку бинарных блобов, а не застой? Добрый и пушистый intel, если бы не было nvidia и amd, продавал бы нам и по сей день пентиум, да по цене 1000$ за штуку. А 3d акселерация была бы только на профессиональных станциях, и только за 10000$ за штуку.
Интель так действует потому, что им выгодно. Потому что они сами не хотят быть заложниками ms и прочих.
Любить же народ будет тех, кто будет делать лучше других, а не тех кто более "дружественен".
| |
2.96, Yuriy (??), 20:50, 16/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>Откуда у людей столько ненависти к интел, доказавшей всем дружественность к линуксу
>и СПО и такая страстная преданность Нвидия, которая не собирается открывать
>даже захудалой доки на карты прошлого века? Если вам нравится, что
>видюха работает из коробки с проприетарными дровами, пожалуйста, но нафиг тогда
>нужен линукс?
Особая дружественность интел к линуксу выражается фразой вида "Poulsbo's graphics core GMA 500 is currently not well supported by Intel for the Linux platform"
| |
|
1.24, Хоменко (ok), 21:53, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +7 +/– |
Linux-2.6.50-NVIDIA .config
Devices -> Peripheral Devices -> Extra Devices
-> Optional Devices -> x86 CPU (EXPERIMENTAL) <M>
| |
|
2.73, Filosof (ok), 18:58, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>Linux-2.6.50-NVIDIA .config
>
>Devices -> Peripheral Devices -> Extra Devices
> -> Optional Devices -> x86 CPU (EXPERIMENTAL) <M>
>
только не x86.
Я подозреваю, что они на свою видуху АРМ прикрутят -:). Супер-Тегра!!!
| |
|
1.30, _Vitaly_ (ok), 23:18, 13/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Млин, на днях был недоопенсорсный роутер, теперь линукс на ферми. Маркетоиды осваивают новые термины для втюхивания своих поделок. Заявления, что на тегре пойдет WinCE и закрытые блобы к видяхам так ничему особо доверчивых и не научили. Давайте каждый еще новость напишет, что у него опенсорсная веб-страничка, работающая на линуксе.
| |
|
2.61, чукча (?), 15:27, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
<dream mode>Просто будет еще одна сборка у популярных линукс дистрибутивов. И репы будут с софтом собранным под этот проц.</dream mode>
| |
2.74, Filosof (ok), 19:00, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>Млин, на днях был недоопенсорсный роутер, теперь линукс на ферми. Маркетоиды осваивают
>новые термины для втюхивания своих поделок. Заявления, что на тегре пойдет
>WinCE и закрытые блобы к видяхам так ничему особо доверчивых и
>не научили. Давайте каждый еще новость напишет, что у него опенсорсная
>веб-страничка, работающая на линуксе.
Да, есть реальный шанс, что они скорее "хорошенько модифицируют" WinCE с помощью MS чем будут линух толкать...
| |
|
3.75, ixrws (ok), 19:18, 14/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
Ну тогда они могут просто сильно обломиться. Потому как wince на высокопроизводительных системах никто использовать не будет, это просто не серьёзно. А на встройке их может арм+linux обломать. Всё таки wince принципально мало чем интересна. Софта нема, архитектура никакая. Хотеть они могут всё что угодно, но это было бы ошибкой, стратегической.
| |
|
|
1.85, id (?), 07:29, 15/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| –1 +/– |
проще иметь кластер из arm'ов чем кормить GPU GT300 это же гроза счетчика, испытания видели, саяно шушенская грэс чел решил поиграть на свяске двух GPU GT300, результат видели ))
| |
1.86, id (?), 07:44, 15/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
я за модульность компьютера прошу проследить за мыслью
материнская плата - кусок тексталита со слотами (штук 12 хватить должно) с питанием чтоб зажечь это все и ничего больше
1 модуль процессор (с портом для подключения к мосту с интерфейсами)
2 память
вероятно возможно первые 2 объединять
3 видеокарта (титанической силы если нет то интегрированное видео с проца сойдет)
4 Мост с интерфейсами начинаются всякие вкусности: 2xSATA,2xusb,lan но это тока базовые надо с ними определиться ещё кому мало портов ещё много пусть ставят сколько требуется
ведь ещё 8 слотов на материнской плате
чем не свобода вот и пусть потом воюют все во своих областях задач, а то идем к тому что скоро монолит будет с портами наружу и все
>>вывод таков для каждого индивидуального случая требуется своя железка и чем больше их на рынке тем лучше, а тенденция объединить все в одной железке конечно будет пользоваться успехом для масс кому не важна начинка, а важен результат деятельности, но не все таковы кто-то предпочитает запонки пуговицам | |
|
|
3.89, vi (?), 11:14, 15/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>[оверквотинг удален]
>>1 модуль процессор (с портом для подключения к мосту с интерфейсами)
>
>Вы уже придумали такой "модуль-процессор" и обдумали, насколько дороже станет его замена,
>если фактически он будет таскать с собой южный мост?
>
>>2 память
>
>Интересно, какая шина "на штук 12 слотов" даст достаточную пропускную способность и
>приемлемую латентность...
>
10Gbit Ethernet со свичем (именно со свичем, создающим физические каналы между парами работающими (в данный момент времени) между собой устройствами) + протокол UDP.
| |
|
4.93, Michael Shigorin (ok), 02:07, 16/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>>>2 память
>>Интересно, какая шина "на штук 12 слотов" даст достаточную пропускную способность и
>>приемлемую латентность...
>10Gbit Ethernet со свичем (именно со свичем, создающим физические каналы между парами
>работающими (в данный момент времени) между собой устройствами) + протокол UDP.
(сочувственно) Дружище, Вы что, какой эзернет. Десятка всё равно латентная до ужаса. И если поверх этого зачем-то ещё взгромоздить _IP_ для доступа к _памяти_ (часом не байтики так адресовать собираетесь, по IPv6?) -- то как раз где-нить к циферкам времён i386 и вернёмся.
Один модуль DDR3-1333 в пике может выдать более десяти гигабит/с, и в полосу PCIe 16X (1.0) тоже не влезет. Это не говоря о том, что ни эзернет, ни PCI (любой) особенно под низкую латентность не затачивались, а для канала CPU<->RAM это критично.
Нас на уроках физики вон в обычной ещё школе учили проверять размерности, чтоб не выходили землекоподжоули... ребята, откладывайте свои воображаемые волшебные палочки да садитесь за книжки, что ли.
| |
|
|
|
1.90, id (?), 13:27, 15/10/2009 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
все понимаю, а все образное должно было навеять
на нужные вывод что все что выше сказано вывод что должен появиться новый игрок в процессорной среде и все его думаю только поддержат так как конкуренция это очень хорошо
и ещё:
>1 модуль процессор (с портом для подключения к мосту с интерфейсами)
>Вы уже придумали такой "модуль-процессор" и обдумали, насколько дороже станет >его замена, если фактически он будет таскать с собой южный мост?
вы наверно даже не подозреваете таких вот штучках ASRock AM2CPU Board
или что-нибуть такое ASRock K8 Combo, обладающую гнёздами Socket 754 и Socket 939
>Интересно, какая шина "на штук 12 слотов" даст достаточную пропускную >способность и приемлемую латентность...
Изучите специфику тесла ведь могут же когда захотят
Двойное кабельное подключение PCI-Express 2.0 Увеличивает пропускную способность между главным процессором и процессорами Tesla до 12,8 ГБ/с (до 6,4 ГБ/с на каждое PCI Express подключение) и это не предел я думаю
вывод таков для каждого индивидуального случая требуется своя железка
Странный вывод.
>Стандартный вывод-это stdout ,а это факт так как нет такого железа которое подошло бы на все случаи жизни я понимаю талантливый человек должен быть талантлив во всем но в этом и суть он проявит талант но не будет гением в данном направлении
>И вообще-то рассеивать рядом с современными процессорами дополнительное тепло >ещё и источником питания не слишком хорошо, вентилировать такую конструкцию >будет скорее сложно.
все понимаю на счет охлаждения но нет ничего совершенного меня например не устраивает шум сервера/кластера из за интенсивности охлаждения но все же не адаптирую свой софт под более медлительное пассивное решение, так как меня это устраивает
И вообще я за подход как платформа Torrenza чтоб в одном PC можно было объеденить все плюсы от всех железок, в сервере blade amd и intel в одном совместили же думаю и остальное можно так же
| |
|
2.92, Michael Shigorin (ok), 01:47, 16/10/2009 [^] [^^] [^^^] [ответить]
| +/– |
>все образное должно было навеять
Оно и навеяло.
>>1 модуль процессор (с портом для подключения к мосту с интерфейсами)
>>Вы уже придумали такой "модуль-процессор" и обдумали, насколько дороже станет
>>его замена, если фактически он будет таскать с собой южный мост?
>вы наверно даже не подозреваете таких вот штучках ASRock AM2CPU Board
>или что-нибуть такое ASRock K8 Combo, обладающую гнёздами Socket 754 и
>Socket 939
Вы, наверное, даже не подозреваете, что асроковские и не такие гибриды видал. Но что с того, если к делу не относится?
>>Интересно, какая шина "на штук 12 слотов" даст достаточную пропускную
>>способность и приемлемую латентность...
>Изучите специфику тесла ведь могут же когда захотят
Стоп. _Вы_ предлагаете. _Вы_ можете или нет? "А вот мой двоюродный дядя" -- не считается.
>и это не предел я думаю
Думать полезно. Особенно когда получается обосновать предлагаемое.
>все понимаю на счет охлаждения но нет ничего совершенного
Я не про совершенство, а про банальную инженерную непрактичность. Говорю как человек с некоторым стажем электронщика и конструктора в том числе.
>меня например не устраивает шум сервера/кластера из за интенсивности охлаждения
>но все же не адаптирую свой софт под более медлительное пассивное решение,
>так как меня это устраивает
Ужас. Сесть подальше не пробовали? Около стоек не сдует -- так замёрзнешь, не оглохнешь -- так ушибёшься.
>И вообще я за
Ясно. А сделать что-нибудь руками не пробовали для разнообразия? :)
| |
|
3.94, id (?), 06:48, 16/10/2009 [^] [^^] [^^^] [ответить] | +/– | видеть не значит знать как работает, я тоже много чего видел но половина даже ст... большой текст свёрнут, показать | |
|
|
|