NVIDIA утверждает, что видеокарта важнее процессора
NVIDIA недавно публично заявила, что графические процессоры лучше и меньше центральных. Процессоры отмирают, NVIDIA утверждает, что для игр лучше иметь плохой процессор и хорошую видеокарту, чем 4-ядерный процессор и медленный графический ускоритель.
Трудно не согласиться с компанией. Однако, не стоит забывать и о важности центрального процессора в системе. Кстати, NVIDIA пока еще не настолько сильна, чтобы тягаться с Intel, которая всегда умела приструнить зарвавшихся конкурентов, а это заявление — прямой вызов. |
Сильно... конечно для игровой системы слова этой компании справедливы, а вот например для видеостудии все как раз да наоборот... Странно слышать такое резкое заявление от столь уважаемой мной компании...
|
Бывает! :read: Не подумали походу!
|
Цитата:
Нашел http://www.xakep.ru/magazine/xs/064/012/6.asp Цитата:
|
Утверждение их относительно! Игры опять же решают, что им лучше использовать... Конечно если играть на слабой видеокарте с разрешением 1600х1200 и сглаживанием 8х... то оно и понятно, какой проц не поставь - будет тормозить!
Есть такое понятие, как целесообразность, например есть люди, которые ставят на Селерон 1700 Радеон х1950й(отдельный случай даже видел на работе) и матерятся почему вдруг Сталкер даже на средних еле едет! Связка СРU - Видео должна быть балансированной, просто если мощь видяхи выпирает за мощь процессора, на большом мониторе всю простаивающую мощность видяхи можно уложить в разрешение и фильтрацию... Вывод таков- не более чем маркетинговый ход... Желание уничтожить бессметрный Intel... теперь же зависит от того, под кого настроятся разработчики игр... Под что будут писать игры, делать бОльший упор на мощность процессора или видяхи... Отсюда и можно будет судить, чего попытались добиться Nvidia... По мне тему, которую завела Nvidia, не более чем бредовые похождения... Как они понять не могут(или не хотят), что одно без другого жить не может! |
Цитата:
|
Для игр лучше иметь N-ядерный процессор, M-процессорную видеомаму, X-канальную память, Z-чипсетов и PS-шину. Но весь коллабс в том, что при этом, игры вместе с компьютером будут иметь тебя!
|
Я вот недавно собрал себе комп, конфиг можно посмотреть, так вот, приехали заказанные мною железки, все, без видеокарты (забыли отгрузить). Собрал я всё это, а видео временно поставил старую 7600ГТ. Запустил Сталкера, настройки графики оставил прежние, честно скажу я офигел, игра просто летала, совсем не то что было (старый комп АМД64 3700+ на nForce4, 2гига озу 400). Так что без ЦП никуда.
|
Sirko9, Stalker имеет немного "нечестный" движок - всё освещение и HDR в нём обрабатываются CPU - хотя это спокойно может выполнять на данный момент любая видеокарта. Поэтому он так и любит мощные CPU, особено про активизации HDR. NVidia имела ввиду то, что мощностей современных CPU достаточно для любых бытовых нужд рядового пользователя. И это положение установилось уже давно, а вот видеокарты мы, простые смертные, вынуждены покупать каждый год. Если конечно хотим во что-то поиграть. Видеокарты сейчас для домашних нужд гораздо приоритетнее и её замена в компьютерных играх даёт гораздо больших процентный прирост производительности, чем замена CPU. Так что nVidia права, но в сегменте компьютерных игр - что она и имела ввиду, учитывая, что это её рыночная вотчина
|
SanCho, вобщем прав, процессор реже нуждается в замене, чем видеокарта... В среднем на одну замену процессора, приходится 2-3 видеокарты... Я считаю все зависит опять же от игры самой... Как она использует баланс ЦП-Видео... на что больший упор делает... + умение грамотно настроить игру... не часто есть смысл задирать настройки до упора вверх, разница в графике между высокими и максимальными настройками визуально не видна, а вот по тормозам ощущается...
|
Intel полагает, что NVIDIA паникует
Совсем недавно мы сообщали, что NVIDIA выступила с заявлением, в котором сообщила о превосходстве видеочипов над процессорами. В ответ представитель Intel назвал состояние NVIDIA паническим. Создается впечатление, кто две компании идут на конфронтацию друг с другом. NVIDIA называет Larrabee обычным слайдом в презентации, в это же время Intel заявляет, что невыдача NVIDIA лицензии на SLI, говорит о панике, которая заставляет делать этот шаг для сохранения чипсетного бизнеса. Видимо, NVIDIA действительно наступает Intel на пятки, что совсем не радует последнюю. Конечно, будет небезынтересно посмотреть на битву титанов в виде этих двух компаний, однако не стоит забывать, что Intel является куда более мощной и могущественной со своими заводами и огромным потенциалом. NVIDIA более напоминает Моську из басни Крылова, решившую лаять на слона. Посмотрим. |
Цитата:
|
FRZ, ну это как кому. Имхо. По мне так радости не много. А если учесть идущий с ней геморой (ненужный)...
|
Цитата:
|
Diseased Head, конкуренция - это очень карашо для пользователей (снижение цен, разработка новых технологий).
|
zip000, всё сложнее.... Но в общем ты прав.
|
не знаю что из этого выйдет... но режима SLI на платах с чипсетом Intel.. не хватает :(
|
уже появлюятся программы которые используют ресурсы видеокарты для ускорения например подбора пароля..а вот если все игры будут использовать только проц и память карты а не ЦП, то действительно интел сядет на жопу, Т.к Для игр уже не будут нужны мощные ЦП
|
Master_x85, не загибай. Компьютер не Sony PS. На нём не только в игры гамают...
У GPU другие комманды (спецефичные) и полноценно заменить CPU он не может. А когда ты в игры гамаеш (например FarCry или CRYSIS) то эти здоровенные пространства хранятся в оперативе. И кто-ж их оттуда грузить будет ка не ЦП? Контроллер DMA или вторая видюха? Хмммм.... :glare: А кто AI обрабатывать будет? Третья видюха? А физика объектов, звук, обращение к диску, устройства ввода. Ещё ведюхи? ИМХО. Только кВатт/час лишние гонять и деньгу переплачивать.. Проги задают, в основном, алгоритм комманд ЦП. Так что большинство данных идёт именно через ЦП. Такова архитектура совместимых ПК. А что-бы перелопатить архитектуру нужны немалые усилия. Так что ЦП будет жить долго. Пусть даже он и "слабее" ГП... |
Intel начала маркетинговую войну против NVIDIA
Недавно мы писали о том, что NVIDIA практически объявила войну Intel, заявив, что для игр лучше иметь медленный и дешевый процессор и мощную видеокарту, чем наоборот. Недавно последовал ответ от Intel. Сайт Fudzilla опубликовал изображение из презентации корпорации, в которой последняя говорит о том, что для среднего пользователя новый процессор важнее, чем новая видеокарта. Упор Intel делает на то, что для повседневных вычислений, для работы с Vista Premium Aero, конвертирования музыки, фотографий и видео, визуализации и кодирования данных вполне достаточно встроенной видеокарты и хорошего процессора. Корпорация так же говорит, что для старых игр вроде Unreal Tournament 2004 встроенной видеокарты от Intel так же достаточно. С этим сложно согласиться по двум причинам: встроенные видеокарты от Intel самые медленные на рынке, кроме того, их драйверы не ушли слишком далеко. Безусловно, Intel осознает важнейшую роль мощной видеокарты в современных играх. Интересно будет наблюдать, как будут разворачиваться события. Можно лишь заметить, что для комфортной работы и игры нужно иметь и хорошую видеокарту, и быстрый процессор. Источник: Fudzilla |
|
Ну и что? Да ни чего. Из этой статьи явно видно что увеличение приизводительности от видеокарты наблюдается именно в приложениях работающих с графикой. А в других тестах увеличение даёт процессор.
Ну и что с того что современные видюхи можно использовать (спец прогами) для математических расчётов. Так это мог бы и любой другой процессор сделать. Если бы в звуковухах, сетевых адаптерах, платах обработки видео, дисковых контроллерах тоже стояли, мало-мальски развитые, процессоры, то их тоже можно было для этого использовать (просто таковых нет). Но это ни о чём не говорит, так как это не Центральные процессоры. ПК это не матричная ЭВМ. Вообще непонятен этот ажиотаж. N-vidia походу зажралась, вот и бесится с жиру. Я удивлён тока тому, что Intel обращяет на это внимание. |
имхо, "война" эта безперспективна, пока nVidia не выпускает CPU, или Intel - GPU.
И получается чтото типа: "что важнее курица или яйцо".. |
А если эту статейку рассмотерть, то в принципе там люди правы. Я сам проверял, Radeon HD2600XT c E2180 и E4500, разница составила +-1 кадр/сек да и то оч редко, в основном результаты совпадали. Тестилось на Call of Duty 4, NFS Pro Street. Так что если бы мне предлоржили 8500GT, HD2600XT, E2180, C2D 6750 на выбор для сборки компа, однозначно выбрал бы дуал-коре и 2600ХТ, ибо тупо вбухнуть деньги на быстрый двухъядерник Е6750, который не принесет мне много толка в играх, что то не оч хочется.
|
ну 2600XT карта не супер так сказать ей и 3.4 пня хватаит( вот было бы в твоём случае проц 6750 а не 2180 и видео 8800 или 8400 тогда было бы так слабый цп мощная видяха и наоборот, а у тебя не супер проц и не супер видяха)....вот у друга 3.2 пень 2 гига 800 ( просто мать сгорела новая пришлось сидеть со старенькой) и 8800GT 512 в Asassins Creed 19 фпс на низких
в общем одно без другого быть не может |
Помните стишок ходил
Если к жопе приспособить сопроцессор фирмы "Cray" Можно срать в два унитаза В сорок тысяч раз быстрей. Вот так и Nvidia со своими заявочками :) |
yurfed, :lol:
|
Цитата:
Другое дело, что многие не увидят фразу "для игр", но зато запомнят "лучше иметь медленный и дешевый процессор и мощную видеокарту, чем наоборот." Но в Интел тоже не дураки сидят. Цитата:
|
Да все эти заяваленния фирм производителей сплошной pr самих же себя. Сейчас в любом более-менее приличном компьтерном магазине подберут и укомплектуют конфигурацию, которая будет соответствовать возможностям проца и видео. Никто(имхо) не будет покупать Сeler 420 и 8800GT к примеру :)
|
а я утверждаю, что блок питания важнее чем процессор и видеокарта :delicious
|
вот было бы тут ещё про блок то милости прошу пиши, но так как его тут нет то и обсуждать его не надо
|
mryegor, Собственно, причем тут блок вообще?
Если "важнее" - есть или нет - все важно - без материнки, памяти или жесткого диска тоже много чего не сделаешь. А блок питания - купил один раз хороший и живи себе с ним. |
Цитата:
Цитата:
Цитата:
|
Цитата:
|
ну народ , ну в самом деле то ёмоё, не всем же катит текстовый режим, так говорите что тут каждый 2 не пользуется мощной видяхой
|
Цитата:
А из оставшейся половины, у каждого второго стоит две :) |
Не надо ещё забывать про Видеокарты для рабочих станций к скорости которых процу расти и расти, да и не зачем процу этим заниматься.
|
ну ладно фиг с ним с мощной, да хотя бы средняя как у тя , или ты будешь черезмерно рад интегрированному решению ? или текстовому режиму ?
да система на базе Tesla это просто зверь по всяким там флопсам,гига,мега,терра |
Цитата:
В Железе за март сего года сказано, что у GeForse 8800 GTX - 520 GigaFlops Так же указанны ресурсы для кодеров, которые хотят воспользоваться вычислительно мощью видео карт http://www.nvidia.com/object/cuda_get.html http://www.developer.nvidia.com/page/home.html http://www.gpgpu.org/ В другой статьи указанна про процессорозависимость FPS, где приходят к выводу, что увеличение уровня SLI потребует более серёзных процов, так что для nVidia проц всё же очень важен. По крайне мере для будущего её технологии SLI. |
Хм, в свете после последних тестов, Nvidia права, видеокарта важнее процессора. Почему? Потому что выгодней всего для получения производительности вкладывать деньги в мощную видеокарту. Ради интереса, кто может, поставьте например
1) Pentium Dual Core E2200 + 8800GT 2) Core 2 DUO E8400 + 8600GT По результатам тестов выиграет первая машинка, хоть и у второй стоит мощный процессор. А на первую потрачено меньше денежных средств и в играх она будет быстрее. Никто не спорит, что поставиви Е8400 + 8800GT она по тестам выиграет у первых двух машинок, но и денег будет затрачено гораздо больше. И тогда получается, что кто хочет среднюю машинку интересней покупать мощную видеокарту и "простенький" процессор? Уважаемые, как вы думаете, может это имела ввиду компания Nvidia? |
Вложений: 1
Права Nvidia. Для текстового режима и повседневных задач и того что есть за глаза достаточно. Для домашних пользователей определяющее есть игровые возможности, а они то и зависят от видяхи.+ ещё возможности видио к обработке видиофайлов.
Прав mryegor, для улучшения производительности нет смысла гнаться за дорогим процом если видяха стоит не более 200$. Как доказательство вот пример одного результата тестов видях и процов разных ценовых категорий одного из журналов посвящённых домашним ПК. Тестировали в разных игровых приложениях на (fps), например в Crysis nominal результат для Celeron 440- (24.7) и Core 2 Quad Q6600 -(25.1) при использовании одинаковой видиокарты GeForce 8600GTS Super [675/1008], и сравните стоимость этих процев. |
|
CUDA (compute unified device architecture) - эта технология в каждой видяхе 8ххх есть
это вроде как архитектура вычислений называется вычисления на унифицированной аппаратной архитектуре ведь для кодирования видео хватит 8400 её даже некоторые фирмы выпускали имено как видеокодировщик а не как видеокарту |
Цитата:
Пробывал на 1950 PRO конвертить, DVD фильм конвертирует в AVI с 2-х канальным звуком за 8 минут, при этом фильм занимает 1,5 гб. И у него нормальное качество, в то время как такое-же конвертирование но сдругой прогой, которая изпользует ресурсы проца, занимает 30 минут. Вот так. |
Цитата:
Цитата:
Ещё можно вспомнить про антивирусную проверку на GPU. Но кто-нибудь видел эту штуку в действии?;) |
вроде и для GeForce есть такая прога которая кодирует с помощью видюхи а не проца
Цитата:
|
Цитата:
|
mryegor, может ATI чёто там и придумала, они и звук в карты пихают...
Но я говорю о том что графический 3D акселератор не для этого предназначен. И вешать всё на одну карту ИМХО - дибилизм. Для де/кодирования видео должна использоватся специальная карта: TV-тюнер/захват и обработка видео. Для обработки звука - звуковая плата (а не интегрированный звук). Для дисков - SAS контроллер. Для улучшения вычислений специальная плата. |
Цитата:
На самом деле, они вполне могли и реализовать это в последних версиях драйвера. Я проверял на версии 7.1 вроде бы. А потом не качал с AVIVO-кодеком. И всё же сомневаюсь. |
Цитата:
|
А не написать им свою Виртуальную машину, которая могла бы эмулировать видео? А то для пользователей Виртуальных машин видеокарта совсем не актуальна, а вот проц ещё как актуален.
|
Цитата:
А вообще, вот введут они полную поддержку x86-инструкций в GPU, тогда и видно будет:) |
Конечно, так было бы не плохо. Так я ж и не спорю. :wink:
Но нету ж: ни одна современная виртуалка, насколько я знаю, не может задействовать ресурсы видеокарты. Даже всесильный Xen. И мне как пользователю в основ Виндовс, было очень не в прикол видеть то что под виртуалкой Virtual PC 5.2 Mandriva 2007 не может startx корректно отобразить из-за старой графической системы. Vistu мне тоже под ней не удалось установить, но уже из-за не поддержки биосом ACPI. Посмотрим, как дальше будут поступать основные игроки, а пока что для виртуалок проц важнее: простая проверка, проигрывание ДВД под ней – этот процесс полностью полагается на процессор и |
Цитата:
Но вообще, виртуализация не для игр/3D-примочек предназначается. Это инструмент для тестирования/отладки и разделения ресурсов. |
Coutty, далее по теме рассказали, так что разобрался.
Зато на этой виртуалки на Фряхе 5.4 удалось КДЕ запустить, но как оно тормозило, что назад в терминал вернулся; kUbuntu один из недавних тоже с лайва нормально ИкСы запустил и установился, видюха ему понравилась. QNX если выставить vesa адаптер тоже катит графику. Да как инструмент было бы неплохим решением тоже. Я раньше полагал, что профессиональные видео решения NVIDIA Quadro® Цитата:
|
Цитата:
Цитата:
|
да в принципе со мной тоже самое
я к примеру не хочу менять свой проц (хотя надо бы ) я буду брать 2 видяху |
Цитата:
|
Софта то нет ещё, что б такое творил. Или кто может назвать кодер, который за 8 минут, как уже приводилось, может перекодировать полтора часовый фильм, например сделать ДВДРип, используя мощности видеокарты?
Вы не забывайте: процы с видеокарты уже тягаются, а ещё есть рынок профессиональных карт нелинейного видеозахвата, которые в полной мере ещё и могут заниматься полноценным кодированием. Я что–то не слышал, что б Adobe, Mac, GrassValley Canopus или любая другая фирма, работающая в этом направлении заявила: "А что это мы тут развлекаем кодированием пользователя реальным время +/- 10%? Тут видяхи стали делать, которые не напрягаясь гоняют тоже самое за 8% реального времени." |
|
в тему
Суперкомпьютер на базе четырех плат NVIDIA GeForce 9800 GX2 Исследователи, работающие в университете Антверпена, создали суперкомпьютер на базе четырех видеоадаптеров NVIDIA GeForce 9800 GX2. Цена системы оказалась менее 4000 евро, но по производительности она сопоставима с кластером из сотен ПК. Суперкомпьютер использует исследовательская группа ASTRA, задачей которой является разработка вычислительных методов томографии. По оценке участников группы, восемь графических процессоров NVIDIA обеспечили боле высокую производительность, чем 300 процессоров Intel Core 2 Duo, работающих на частоте 2,4 ГГц. Новая система решает задачи быстрее, и потребляет энергии гораздо меньше, чем суперкомпьютерный кластер. Для построения системы, получившей обозначение FASTRA, была выбрана платформа AMD, поскольку ученые не смогли найти системную плату Intel, способную принять четыре карты GeForce 9800 GX2. Интересно, что технология SLI не используется, поскольку взаимодействие между GPU не требуется. Вместо этого, приложения используют программную модель NVIDIA CUDA, которая обеспечивает параллельную работу всех восьми GPU. Технические данные системы: * Системная плата — MSI K9A2 Platinum; * Процессор — AMD Phenom 9850; кулер —Scythe Infinity; * Память — 4x 2 ГБ Corsair Twinx DDR2 PC6400; * Видеокарты — 4x MSI 9800GX2; * Винчестер — Samsung Spinpoint F1, 750 ГБ; * Блок питания — ThermalTake Toughpower, 1500 Вт; * Корпус — Lian-Li PC-P80 Armorsuit. Работает суперкомпьютер под управлением 64-разрядной версии Windows XP. Наибольшей сложностью, с которой столкнулись создатели системы, оказалось охлаждение четырех графических карт. Чтобы понизить температуру GPU, пришлось снять боковую панель корпуса. В режиме простоя температура составляет 55°C, при полной нагрузке а возрастает до 86°C, а в случае повышения частоты шейдерного блока на 20% выше штатного значения — до 100°C. Оценить возможности FASTRA позволяет нижняя иллюстрация, на которой показано время, затрачиваемое на реконструкцию одного изображения по данным, полученным от томографа. Верхнее значение соответствует работе GPU на повышенной частоте, среднее — работе в штатном режиме, а нижнее — показатель суперкомпьютера CalcUA, состоящего из 256 узлов на процессорах AMD Opteron 250 (2,4 ГГц), покупка которого в марте 2005 года обошлась университету в 3,5 млн. евро. http://ipicture.ru/uploads/080606/P9TwJ4LbWF.gif http://ipicture.ru/uploads/080606/q5gOQw2lvF.jpg http://ipicture.ru/uploads/080606/MCJE6ITzn1.jpg |
тут я в принципе соглашусь с nVidia, но все-таки отстойный процессор не потянет хорошую видеокарту (живой пример - Pentium 4 не тянет Radeon 3850-3870/GF9600GT).
|
Мда.... Скоро флешка станет основной,и ком без неё работать несможет.Погорячились ребята с таким заявлением.
Я так считаю,что нужен баланс! |
просто для примера
вот будет у меня цп корка2дуба 2.4ггц а видяха 8500GT мне что предпочтительнее купить цп в 3.0ггц или видеоо на уровне 8800-9800 ? |
BLOOD RAPTOR, конечно видеокарту. процессор довольно мощный.
|
Был недавно на семинаре Intel, тоже задал сей неприятный вопрос их представителю. Ответ в принципе меня приструнил, что действительно ряд компаний отдает предпочтение 120 серверным процессорам 40 графическим ускорителям, НО пока это справедливо лишь для типовых задач, а не как для повседневной работы...
|
Цитата:
|
интересно когда выйдет долгожданный Larrebe интел заверяет что адаптер будет содержать 32 ядра х86 и из за этого такие вещи как CUDA и не помню что там у AMD станут просто интересными шагами и не более
ну так вот, будет ли заявлять интел то что лучше купить их видеокарту чем их процессор |
А я не уверен что выдяха нужнее, потому что сейчас сам сижу без видеокарти и нормально :happy: пачти, ну вы понимаете.
Интересно как бы было если я был без проца но с видяхой, и как бы я вообще загрузилса. Короче, NVIDIA заплужыла. |
Цитата:
Цитата:
|
Цитата:
|
Trix,
ОПК 2.3 Цитата:
|
Я читал эту статью. Интересно. Правда указали материнку другую: Sapphire PC-AM2RD790.
|
Цитата:
|
Цитата:
|
Цитата:
А вообще, отдаю предпочтению мощному процессору, чем видео, такой у меня приоритет. Но если подумать, то сейчас 4 ядра хватает с головой и выше, а вод видео, всегда будет мало. Правда я уже и не такой игрок, но если графика и геймплей стоит того, то поиграю с удовольствием. |
Время: 20:40. |
Время: 20:40.
© OSzone.net 2001-