Asus geforce gtx 280

Asus geforce gtx 280

‘> ✔1 Гб ✔PCI Express 2.0 16x ✔GDDR3 ✔2 выхода DVI-I, переходник на D-Sub в комплекте, выход S-Video, компонентный выход через переходник ✔GeForce® GTX 280 ✔512 бит
Артикул: #76524 Сравнить ® GTX 280 1 Гб GDDR3 (ENGTX280 / HTDP / 1G)"> Назад Вперед

Подобрать замену

Купить в магазине:

Заказать с доставкой:

Поступление в продажу не ожидается, как правило это состояние товара означает, что он снят с производства.

  • Характеристики
  • Видео
  • Опции и расходники
  • Примеры фотографий
  • Отзывы (нет)
  • Оставить отзыв
  • Тесты
  • Информация

Характеристики

Основные характеристики
Производитель ASUS
Модель ENGTX280/HTDP/1G найти похожую видеокарту
Тип оборудования Игровая видеокарта
Поддержка API DirectX 10, OpenGL 3.x
Длина 267 мм
Поддержка ОС Windows XP x64, Windows XP, Windows Vista, Linux
Видео
RAMDAC 400 МГц — 2 шт.
Максимальное разрешение экрана 2560 x 1600 при подключении к DVI монитору, 2048 x 1536 @ 85 Гц (при подключении к аналоговому монитору).
Макс. кол-во подключаемых мониторов 2
Конфигурация видеокарты
GPU GeForce® GTX 280
Частота GPU 602 МГц (измерено в НИКСе)
Кол-во шейдерных процессоров 240 (работают на удвоенной частоте: 1.296 ГГц)
Видеопамять 1 Гб
Тип видеопамяти GDDR3
Разрядность шины видеопамяти 512 бит
Частота видеопамяти 1107 МГц (измерено в НИКСе)
Кол-во пиксельных конвейеров 80, 32 блока выборки текстур
Конфигурация
Техпроцесс 65 нм
Интерфейс, разъемы и выходы
Интерфейс PCI Express 2.0 16x (совместим с PCI Express 1.х) с возможностью объединения карт при помощи SLI или Tri-SLI.
Поддержка HDCP Есть
Порты 2 выхода DVI-I, переходник на D-Sub в комплекте, выход S-V >порты
Прочие характеристики
Поддержка PhysX Есть
Охлаждение
Охлаждение видеокарты Активное (радиатор + вентилятор на лицевой стороне платы)
Управление скоростью вентилятора видеокарты Автоматическое (проверено в НИКСе)
Конструкция системы охлаждения Двухслотовая система охлаждения
Совместимость
Разъем питания 8 pin+6 pin подходящие переходники питания
Логистика
Размеры упаковки (измерено в НИКСе) 40.5 x 23.3 x 9 см
Вес брутто (измерено в НИКСе) 1.971 кг
Внешние источники информации
Горячая линия производителя (495) 231-19-99 — в Москве; 8-800-100-27-87 — бесплатный звонок из любого региона России. Пн — суб: с 10.00 до 18.00

Отзывы

Мы старались сделать описание как можно более хорошим, чтобы ваш выбор был безошибочным и осознанным, но т.к. мы, возможно, этот товар не эксплуатировали, а только со всех сторон пощупали, а вы его после того, как купите, испробуете в работе, ваш отзыв может сделать этот мир лучше, если ваш отзыв действительно будет полезным, то мы его опубликуем и дадим вам возможность следующую покупку у нас сделать по 2-й колонке.

Сравнение производительности и результаты тестов

Чтобы вы могли оценить производительность выбранного товара (пока еще не побывавшего в нашей тестовой лаборатории, но мы над этим работаем), на диаграмме приведены результаты тестов для 10 товаров, схожих по цене с выбранным. Показатели в процентах указывают на приближение к макcимальному из зарегистрированных результатов.

Для сравнений используются только товары, которые сейчас есть в наличии.

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» — конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Читайте также:  Arc вход на телевизоре

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты — неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

  • кодовое имя чипа GT200;
  • технология 65 нм;
  • 1,4 миллиарда (!) транзисторов;
  • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
  • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
  • частота ядра 602 МГц (GeForce GTX 280);
  • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
  • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
  • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
  • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
  • запись результатов до 8 буферов кадра одновременно (MRT);
  • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

  • частота ядра 602 МГц;
  • частота универсальных процессоров 1296 МГц;
  • количество универсальных процессоров 240;
  • количество текстурных блоков – 80, блоков блендинга — 32;
  • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
  • тип памяти GDDR3;
  • объем памяти 1024 МБ;
  • пропускная способность памяти 141,7 ГБ/с;
  • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
  • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
  • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • двойной SLI разъем;
  • шина PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (опционально);
  • энергопотребление до 236 Вт;
  • двухслотовое исполнение;
  • изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

  • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
  • В 2,5 раза увеличено число одновременно исполняемых потоков.
  • Вдвое увеличена максимальная длина сложного шейдерного кода.
  • Вдвое увеличена точность расчетов с плавающей запятой.
  • Намного быстрее исполняются геометрические расчеты.
  • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
  • Увеличена скорость доступа к буферу памяти.
  • Улучшены внутренние связи чипа между различными блоками.
  • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
  • Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) — вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах — в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Читайте также:  100 Км сколько часов ехать

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

  • режим простоя или 2D (около 25 ватт);
  • режим просмотра HD/DVD видео (около 35 ватт);
  • полноценный 3D режим (до 236 ватт);
  • режим Hybr >Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Get pulled deeper into the gaming experience and HD video than ever before with the NVIDIA® GeForce® GTX 280 GPU. With this GPU, both performance and immersion are absolute.

Experience high definition worlds, lifelike characters, and forces of nature so powerful that your palms sweat and your heart races with every frame. Beyond games, watch Blu-ray movies and transcode video up to 7X faster than traditional CPUs 1 .

GEFORCE GTX 200 GPUs GAMING BEYOND BEYOND GAMING
View Video Clip View Video Clip View Video Clip
Introducing NVIDIA GeForce GTX 280 and GeForce GTX 260

NVIDIA talks with developers about GeForce GTX 200 performance for their games

NVIDIA GeForce GTX 200 GPUs take gaming and effects beyond levels previously seen before

Medusa demo by NVIDIA and NVIDIA® PhysX™ Technology, and NaturalMotion.

More than just games — NVIDIA GeForce GTX 200 GPUs accelerate the latest consumer applications

Video transcoding from Elemental Technologies and the Stanford Folding@home project

Читайте также:  D link di 707p
Gaming that shakes you to the core
With more gaming horsepower than ever before and 1GB of memory, the GeForce GTX 280 GPU’s 240 processing cores make games such as Age of Conan: Hyborian Adventures and Bionic Commando ® feel like the real thing. Its powerful NVIDIA PhysX ™ technology creates rich, immersive physical effects with stunningly accurate realism. Experience absolute immersion and a 50% pure performance boost than prior generation GPUs with the GeForce GTX 280 GPU.
Age of Conan: Hyborian Adventures. © 2008 Funcom, All rights Reserved, © 2008 Conan Properties International LLC. CONAN®, CONAN THE BARBARIAN® and related logos, characters, names, and distinctive likenesses thereof are trademarks of Conan Properties International LLC unless otherwise noted.


PicLens. © 2008 Cooliris, Inc.
The power to take you beyond
Beyond the field of play, GeForce GTX 280 seamlessly shifts tasks from the CPU to the GPU, allowing you to dive into the latest Blu-ray movie, surf the web in 3D, or transcode video to a personal video player up to 7x faster than traditional CPUs 1 . Now you can work and play at full speed.

1 – Requires application support for CUDA technology.

  • 2nd Generation NVIDIA Unified Architecture: Second generation architecture delivers up to 50% more gaming performance over the first generation through 240 enhanced processing cores that provide incredible shading horsepower.
  • NVIDIA PhysX™-Ready 1 : GeForce GPU support for NVIDIA PhysX technology, enabling a totally new class of physical gaming interaction for a more dynamic and realistic experience with GeForce.
  • 3-way NVIDIA SLI® Technology 2 : Industry leading 3-way NVIDIA SLI technology offers amazing performance scaling by implementing 3-way AFR (Alternate Frame Rendering) for the world’s fastest gaming solution under Windows Vista with solid, state-of-the-art drivers.
  • NVIDIA CUDA™ Technology 3 : CUDA technology unlocks the power of the GPU’s processing cores to accelerate the most demanding system tasks – such as video encoding – delivering up to 7x performance over traditional CPUs.
  • NVIDIA PureVideo® HD Technology 4 The combination of high-definition video decode acceleration and post-processing that delivers unprecedented picture clarity, smooth video, accurate color, and precise image scaling for movies and video.
  • NVIDIA HybridPower™ Technology 5 Lets you switch from the GeForce GTX 280 graphics card to the motherboard GeForce GPU when running non graphically-intensive applications for a quiet, low power PC experience.

1 The GeForce GTX 280 GPU ships with hardware support for NVIDIA PhysX technology. NVIDIA PhysX drivers are required to experience in-game GPU PhysX acceleration. Refer to www.nvidia.com/PhysX for more information.
2 NVIDIA SLI-certified versions of GeForce PCI Express GPUs only. A GeForce GTX 280 GPU must be paired with another GeForce GTX 280 GPU (graphics card manufacturer can be different). SLI requires sufficient system cooling and a compatible power supply. Visit www.slizone.com for more information and a listing of SLI-Certified components.
3 Requires application support for CUDA technology.
4 Feature requires supported video software. Features may vary by product.
5 Requires NVIDIA HybridPower™-enabled motherboard.

Note: The below specifications represent this GPU as incorporated into NVIDIA’s reference graphics card design. Graphics card specifications may vary by Add-in-card manufacturer. Please refer to the Add-in-card manufacturers’ website for actual shipping specifications.

CUDA Cores 240
Graphics Clock (MHz) 602 MHz
Processor Clock (MHz) 1296 MHz
Texture Fill Rate (billion/sec) 48.2
Memory Clock (MHz) 1107
Standard Memory Config 1 GB
Memory Interface Width 512-bit
Memory Bandwidth (GB/sec) 141.7
NVIDIA SLI®-ready* 2-way/3-Way
NVIDIA 3D Vision Ready
NVIDIA PureVideo® Technology** HD
NVIDIA PhysX™-ready
NVIDIA CUDA™ Technology
HybridPower™ Technology
GeForce Boost
Microsoft DirectX 10
OpenGL 2.1
Certified for Windows 7
Maximum Digital Resolution 2560×1600
Maximum VGA Resolution 2048×1536
Standard Display Connectors HDTV
Dual Link DVI
Multi Monitor
HDCP
HDMI Via adapter
Audio Input for HDMI SPDIF
Height 4.376 inches (111 mm)
Length 10.5 inches (267 mm)
Width Dual-slot
Maximum GPU Temperature (in C) 105 C
Maximum Graphics Card Power (W) 236 W
Minimum Recommended System Power (W) 550 W
Supplementary Power Connectors 6-pin & 8-pin

— The number of processor cores may vary by model.
— Feature requires supported video software. Features may vary by product.
— Playback of HDCP-protected content requires other HDCP-compatible components.
— Certain GeForce GPUs ship with hardware support for NVIDIA PhysX technology. NVIDIA PhysX drivers are required to experience in-game GPU PhysX acceleration. Refer to www.nvidia.com/PhysX for more information.
— NVIDIA SLI certified versions of GeForce PCI Express GPUs only. A GeForce GPU must be paired with an identical GPU, regardless of graphics card manufacturer. SLI requires sufficient system cooling and a compatible power supply. Visit www.slizone.com for more information and a listing of SLI-Certified components.
— Requires external DisplayPort transmitter. 10-bit per component scanout requires future GeForce driver support.
— Memory interface width may vary by model.
— Requires NVIDIA HybridPower™- enabled motherboard.

GeForce GTX 200 Series — Detailed features list
(72.6 KB PDF)

Download the latest drivers here.

For technical brief information, click here. (1.36 MB PDF)

Medusa by NVIDIA®
The Medusa demo is a NVIDIA’s interpretation of the legendary snake-headed woman who’s venomous gaze turned her victims to stone. You’ll see we’ve taken a few liberties on this mythological tale.

Medusa was designed to showcase the power and performance of NVIDIA® GeForce® GTX 200 GPUs…Taking your gaming and effects beyond levels previously seen before.

Ссылка на основную публикацию
Adblock detector