![]() |
Quadro и GTX в одном компьютере
В разговоре с одним приятелем всплыл факт что для 10-ти битных мониторов нужна проф. видеокарта. Гугл выдал интересную статью. Но после неё остаются вопросы.
1. Как я понял пара может быть любая, чипы не обязательно одинаковые и это не SLI? 2. C CUDA всё понятно, а как быть с играми? Нужно ли переключать кабель монитора в видеокарту в зависимости от деятельности, работаешь - втыкаешь в квадру, хочешь поиграть переключаешь в печ? 3. Имеет ли вообще это смысл? Например связка quadro k2200 + gtx 970, да за эту цену можно титан х взять, неужели у него нет поддержки 10-ти битных мониторов? Или то специально чтобы профи брали проф. карты? Не по этой ли причине в iMac 5k поставили радеон, т.к. он поддерживает 10-ти битные мониторы? |
Цитата:
|
Цитата:
|
slewnut, Ссылку киньте.
|
Цитата:
resolutions like 3840x2160 @ 60 Hz with 30-bit color», у GTX об этом молчат, стало быть там стандартные 8bit. Учитывая что тем по этому вопросу полно и везде вывод один - дальнейшее обсуждение считаю бессмысленным, разве что вы приведёте доказательство обратного, мне бы было интересно. И посмею все же напомнить, что здесь обсуждаются не 10bit, а работа Quadro и GTX в одном ящике. UPD. Вот на официальном ресурсе ответ. Еще UPD. Я умышленно молчу про AMD т.к. не пользуюсь этой продукцией. |
Цитата:
Цитата:
Но если и так - то в любом случае кабелем играться придется, или КВМ ставить К слову - у вас точно монитор 10 бит, а не, скажем, псевдо 10 бbт? |
Цитата:
|
Цитата:
|
Цитата:
|
Хм, глаза портятся от простого сидения за монитором, даже если бы этот сферический монитор был бы только из суперэкологически чистой бумаги, отображающей сто миллиардов цветов на один бит.
Жить вообще вредно, а монитор - совсем не самый большой источник опасности для программиста. Гораздо вреднее многочасовое неподвижное сидение за столом. |
Цитата:
|
slewnut, Начиная с 200 серии NVIDIA поддерживает 10 бит
|
Время: 15:25. |
Время: 15:25.
© OSzone.net 2001-