1. Друзья, в это тяжёлое и непонятное для всех нас время мы просим вас воздержаться от любых упоминаний политики на форуме, - этим ситуации не поможешь, а только возникнут ненужные ссоры и обиды. Это касается также шуток и юмора на тему конфликта. Пусть войны будут только виртуальными, а политики решают разногласия дипломатическим путём. С уважением, администрация Old-Games.RU.

    Скрыть объявление
  2. Пожалуйста, внимательно прочитайте правила раздела.
  3. Если Вы видите это сообщение, значит, вы ещё не зарегистрировались на нашем форуме.

    Зарегистрируйтесь, если вы хотите принять участие в обсуждениях. Перед регистрацией примите к сведению:
    1. Не регистрируйтесь с никами типа asdfdadhgd, 354621 и тому подобными, не несущими смысловой нагрузки (ник должен быть читаемым!): такие пользователи будут сразу заблокированы!
    2. Не регистрируйте больше одной учётной записи. Если у вас возникли проблемы при регистрации, то вы можете воспользоваться формой обратной связи внизу страницы.
    3. Регистрируйтесь с реально существующими E-mail адресами, иначе вы не сможете завершить регистрацию.
    4. Обязательно ознакомьтесь с правилами поведения на нашем форуме, чтобы избежать дальнейших конфликтов и непонимания.
    С уважением, администрация форума Old-Games.RU
    Скрыть объявление

[Статья] Вперёд в п(р)ошлое. Geforce FX. The Dawn of War

Тема в разделе "Авторская колонка", создана пользователем Goblinit, 24 ноя 2016.

  1. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    Со дня своего основания в Microsoft умели две самые важные вещи в жизни: вовремя проанализировать что-то чужое и сделать на этом какие-то свои деньги. Во многом именно благодаря Microsoft как главному генератору самых максималистских идей вся IT-индустрия шла (и до сих пор идёт) выгодными прежде всего самому Microsoft путями развития. Результатом реализации множества таких идей стало не только банкротство многих гигантов IT-индустрии, но и стремительная всеобщая унификация. Все компоненты в PC от железа до софта становились всё более универсальными и похожими, теряя возможности выгодно отличаться. И вот, в 2002 году, когда Microsoft в очередной раз приложила свои шаловливые монополистические ручонки к 3D-индустрии, по производителям 3D-чипов громовой волной раскатилась спецификация DirectX9...

    И как все мы хорошо помним ) уже следующий 2003 год ознаменовал приход киношной графики на PC. Ну да, ведь так всё и было: WinXP, игры на DVD, требующие установить DirectX9, и... одинаковые видеокарты с какими-то там шейдерами. Условно можно сказать, что спецификация DX9 должна была положить конец различиям результатов рендеринга одного и того же изображения на картах разных производителей. Тем не менее, даже эта спецификация не смогла тогда окончательно обуздать NVIDIA. И правильно, иначе зачем NVIDIA было вкладывать во что-то перспективное деньги?

    И вот тут мы подходим к тому, что побудило меня в очередной раз ткнуть труп палкой и таки написать этот обзор.

    Возможно, вы тоже не знали:

    К моменту этого высказывания GeForce FX уже был знатным долгостроем и сильно опаздывал на рынок. Можно сказать, NVIDIA однажды удалось избежать того самого дня,

    Когда умолкнут все песни

    Краем глаза

    [​IMG]

    Действительно... Первое, что бросалось в край нашего глаза при виде легендарного дастбастера (GeForce FX 5800) - это габариты.

    ahabrastorage.org_getpro_geektimes_post_images_a38_756_40f_a3875640f735155347ac9485bf14fe6e.jpg

    Вот это двухслотовое чудовище рядом с Radeon 9800:

    ahabrastorage.org_getpro_geektimes_post_images_83f_93f_914_83f93f914cc8b34a4f71e4f39d5789af.jpg

    Чтобы понять причину столь неординарного решения нам придётся посмотреть поближе...


    Ближе к сердцу

    ahabrastorage.org_getpro_geektimes_post_images_b51_1c0_441_b511c04416a2f4e3738f969ef4019b25.png

    GeForce FX хоть и не был первым суперскалярным GPU в мире, но, без сомнения, был самым сложным суперскалярным GPU своего времени и (оставался таковым ещё долгое время). Настолько сложным, что точная информация о, казалось бы, простейших составляющих его внутренней архитектуры до сих пор отсутствует. Как следствие, его выход на рынок переносился... переносился... И вот, наконец, он явился, долгожданный.

    NV30: The Dawn of CineFX

    [​IMG]

    Если быть точным, эта самая сложная архитектурная часть NV30 называлась CineFX (1.0) Engine. Маркетологи NVIDIA тогда решили, что это будет звучать привлекательнее nfiniteFX III Engine. Спорно, но факт.

    CineFX (кто не понел: Cinematic Effects) - во многом заслуга инженеров 3dfx (вспомним нашумевший T-Buffer). Несёт в себе всё необходимое для рендеринга кинематографических спец-эффектов у вас дома.

    Вы спросите: что же нужно начинающему кинематографу? Всё просто. Начинающему кинематографу потребуется только самое необходимое: 128-битная точность представления данных для работы с плавающей точкой и полностью программируемый графический конвеер с поддержкой Shader Model 2.0, позволяющий наложить до 16 текстур. Заинтригованы? Да, этого есть здесь:

    • 64/128 bit depth rendering - the Dawn of Cinematic Computing
      В мире труколора такое маркетинговое заявление звучало бы несколько странно. Всем несведующим сообщу лишь, что с этого момента тусклый мир труколора остался в прошлом. И, если вы до сих пор думаете, что все новые игры рендерят изображение в 32-битном цвете... Вы, конечно, правы... Лишь отчасти. Потому что, на самом деле, многие (если не все) "части" в играх теперь просчитываются на пути к вашему монитору с сильно большей точностью, получившей название Floating Point Color Accuracy.

      Разумеется, я не поверил. И, как оказалось, не поверил не я один, потому что в сети нашлась даже такая нужная программулина ShaderMark 2.1, которая, как следует из названия, была создана именно для этого самого: тестирования производительности шейдерных блоков gpu. И вот, представьте себе, действительно есть разница не только в скорости, но и в цвете с разными пресетами точности! Качество при конвертации шотов в gif, конечно, упало, но менее не тем "исправленному верить":

      ahabrastorage.org_files_685_702_309_6857023090184d0a88c32543bcb915c8.gif


      Но главное, именно благодаря такой разрядности графического конвеера, мы наконец смогли наблюдать киношную графику в играх. Суть HDR-рендеринга не только в тупом просчёте пикселей с точностью до тысячных. HDR-рендеринг - это прежде всего адаптивное освещение.

      Кому лень читать, я покажу

      Кстати, что ещё важно отметить: благодаря тому, что теперь весь графический конвеер в GeForce FX работает как минимум с точностью FP16, даже старые игрушки (где активно применялся мультитекстуринг и прочие техники, требующие операции смешивания цветов пикселей в кадре) будут выглядеть качественнее.

    • Shader Model 2.0+
      Да-да, это те самые пресловутые "шейдеры", благодаря которым вам в своё время наверняка приходилось идти в магазин менять свою видеокарту или только что купленную игру. Для начала давайте определимся: эти самые шейдеры... да кому они вообще нужны?

      Ответ на этот вопрос в общем случае будет зависеть от контекста, в котором он задаётся, т. к. термин "шейдеры" вообще многозначен. По обыкновению для начала предлагается определиться с тем, для чего они нужны. То есть, если высказывание "шейдеры - это программы для затенения" для вас целиком олицетворяет шейдеры, настоятельно рекомендую вам прочесть хотя бы вот это:

      Очень упрощённое представление

      Как бы там ни было, шейдеры прочно вошли в нашу жизнь и начали всё больше развиваться. В частности в NV30 поддержка Shader Model 2.0 (далее SM2.0) - это обобщённый термин, означающий, что NV30 теперь поддерживает спецификации Pixel & Vertex Shaders 2.0. Но NVIDIA на этом не остановились и тот самый "плюс" в названии был призван прибавить свободы гейм-девелоперам за счёт расширения спецификации DX9 до полигонов возможностей.

      Всё это очень интересно... скажете вы, но как же вообще эти шейдеры использовать? Ну а тут всё ещё интереснее :)

      С появлением SM2.0 для обоих видов шейдеров (пиксельные и вершинные) стало возможным писать достаточно сложные программы с условиями и циклами. Вопрос только в том, на каком языке вы предпочитали это делать. В эпоху SM1.x выбор был невелик и писали в основном на ARB assembly или на DirectX ASM, которые, как становится ясно даже из названий, являются низкоуровневыми и достаточно сложными в освоении и применении. С приходом же SM2.0 появилось как минимум три C-подобных языка высокого уровня, писать шейдерные программы на которых значительно проще:

      • OpenGL Architecture Review Board разработали GLSL;

      • NVIDIA разработала C for Graphics (причём не только для себя);

      • Microsoft разработала HLSL.

      Но какой из языков шейдеров предпочесть и что от этого зависит? С такими нюансами, увы я не познакомлю. Давайте лучше вспомним о реализации этих самых шейдеров в NV30.

    Реализация

    Большинство мирных дискуссий о производительности того или иного девайса чаще всего так или иначе сваливается в холивар на тему "Что же важнее: Железо или Софт?" На самом деле, как бы многим не хотелось уйти от реальности, но железо без софта - оно железо и есть :)

    На момент выхода GeForce FX 5800 (NV30) на дворе уже более квартала забавлялся конкурент в лице Radeon 9700 Pro (ATI R300). Это был февраль 2003 года. Сегодня такое промедление смерти подобно, и вот именно поэтому можно смело назвать 2003 год не иначе, как годом NVIDIA.

    Было примерно так: Приходит NV30 на биржу труда, а там в списке вакансий ни одной со знанием DirectX9 и нет. Получается, что NV30 как бы никуда и не опаздывал вроде... И правда, первые сколько-нибудь известные мощные игры эпохи DX9 (такие как DooM3, HL2, NFS Underground 2) появились лишь в 2004 году. Долгожданный Сталкер так и то аж в 2007 году.

    Это я всё к тому, что сравнивать производительность карт обзорщикам в 2003 году было просто не в чем. Буду откровенным: при написании статьи я долго анализировал картину, но так и не встретил ни единого обзора NV30 с живыми тестами DX9. В основном возможности DX9 тестировали в 3DMark...

    И с этим связана одна кулстори

    Как следствие, в те годы очень часто можно было слышать что-то навроде:

    И, хотя тот же John Carmack запросто поспорил бы с этим утверждением, в любом случае, это наглядное подтверждение того, что железо - ничто без софта. Более того, на деле выяснилось, что производительность шейдеров у NV30 была катастрофически зависима в первую очередь от того, как написан код шейдерных программ (важна даже последовательность инструкций). Вот тогда-то NVIDIA и стала всячески продвигать оптимизацию кода шейдеров под NV30.

    Зачем это было нужно? А затем, что у NV30 с реализацией шейдеров не всё так просто:

    То есть, архитектура NV30 не давала ему полностью раскрыть себя, используя код стандарта SM2.0. Но вот, если немного перетасовать инструкции перед выполнением, может быть, даже заменить одну на другую (привет, 3DMark 2003)... Но в NVIDIA понимали: гораздо эффективнее бороться с причиной, а не с последствиями.

    Take Two. NV35: The Dusk

    Это не было новым архитектурным решением, но очень грамотным усовершенствованием. Инженеры NVIDIA так фанатично исправляли свои ошибки, что даже попутно наследили в истории развития шейдеров официально задокументированной Shader Model 2.0a (SM2.0a), которая так и была названа - NVIDIA GeForce FX/PCX-optimized model, DirectX 9.0a. Панацеей NV35, конечно, не стал, но его запомнили:

    [​IMG]

    Впрочем, в силу той самой чрезвычайной сложности микроархитектуры NV30 некоторые весьма любопытные нюансы в NV35 остались без изменений. Поэтому в его спецификациях обзорщики часто указывали что-то навроде:

    Вот это - и есть те самые "простейшие составляющие", о которых я упоминал ещё в начале статьи. Да, терминология несколько странная, но это ещё полбеды. На самом деле таким образом маркетологи просто пытались донести до нас простейшие вещи: сколько же вершинных и пиксельных конвееров (шейдерных блоков, если хотите) есть у чипа.

    Как и у любого нормального человека, прочитавшего такую спецификацию, моя нормальная реакция: ну так и сколько же их? Так вот вся штука в том, что этого никто не знает :) Казалось бы, самые ординарные характеристики графического чипа, по которым сразу можно было бы сделать какие-то выводы о производительности?

    Ну да, вон у того же ATI R300 всё прозрачно: 8 пиксельных и 4 вершинных шейдера... Ок, можно было бы запустить тот же GPU-Z и он, следуя устоявшейся терминологии, сказал бы вам, что у NV35 против этого имеется всего 4 пиксельных и 3 вершинных шейдера. Но это было бы не совсем точно, потому что на заре киноигр у NVIDIA был свой

    альтернативный взгляд на шейдеры

    ahabrastorage.org_getpro_geektimes_post_images_c66_05c_ca6_c6605cca632bf7b825ebb56e588d5dd4.jpg

    Как бы там ни было, если главной целью инженеров NVIDIA в те дни было ярко наследить в истории, - без сомнения, им это удалось! Более того, в NV35 появилась ещё одна интересная фишка, аналога которой у конкурентов не было: UltraShadow Technology, о которой, впрочем, позже :) Но давайте прекратим болтать о прекрасном и вернёмся


    С небес на землю

    К счастью, дастбастера у меня нет... (но поглазеть на музейный экспонат вы всегда можете). К счастью, потому что уши дороже. К тому же стоил он и его усовершенственный брат GeForce FX 5900 несоразмерно кошельку простого человека с простыми потребностями. А для таких людей NVIDIA предлагали варианты GeForce FX 5600 на чипе NV31, но мне и его не досталось.

    И вот, волею случая, спустя 12 лет, мне, можно сказать, "втюхали" вот такой офисный огрызочек:

    [​IMG]

    Зато не жужжит! То есть, помимо урезанного NV31 был выпущен ещё и NV34, который отнюдь не отличался производительностью, а, скорее, был браком NV31.

    [​IMG]

    Теперь кратко о том, чего интересного в NV34 не поместилось :(

    ahabrastorage.org_files_ccf_050_b38_ccf050b38bc345ce82c4f7a87275db30.JPG

    • NV30/NV35 имели 4x2 дизайн пиксельных конвееров, а тут осталось всего 4x1


    • Что интересно, Everest и GPU-Z вам скажут, что Vertex-шейдеров у него 2 штуки, тогда как по википедии вроде бы 1. Вот вам и закрытая архитектура FP Array ;)


    • В NV30/NV35 ввели параноидальное сжатие всего, что только попадало на графический конвеер. Сюда входили не только текстуры, но даже z-buffer и значения цвета каждого пикселя в буфере кадра! Так вот в NV34 этот сложнейший алгоритм lossless-сжатия 4:1 не поместился :)


    • UltraShadow Technology тоже не вошла (GeForce FX 5900 and 5700 models only). Но расстраиваться не стоит, всё покажу ;)


    • Этот экземпляр имеет ширину шины памяти аж 64bit (да, как у старых 2D-видеокарт)

    Как видно, не поместилось почти ничего :) Но самое страшное было даже не в этом. Все знают это слово.

    Драйвера

    Вот здесь сейчас очень многие из вас, должно быть, улыбаются. Это, наверное, была самая эпичная реализация после TNT2.

    Если даже вы не помните это:

    ahabrastorage.org_getpro_geektimes_post_images_898_310_971_8983109718a8a7b5210583883eead2a3.png

    ...то уж точно должны вспомнить это:

    ahabrastorage.org_getpro_geektimes_post_images_19b_96d_7d6_19b96d7d6f7ae0ffdecb6e1ea242d003.png

    Что и говорить, с приходом DX9 вендоры стали штамповать драйвера с невероятной скоростью, а про WHQL вспоминали только в крайнем случае. Производительность одной и той же DX9-карты могла плясать так динамично, что порой её партнёром могла стать DX8-карта. Так было, например, с GeForce MX 440 (NV18), которому с определённой версии дров запилили эмуляцию аж SM2.0, но позже зарезали обратно. Ибо как-то неприлично получается: NV18 выигрывает у NV34 в шейдерах, которых у неё даже нет...

    Вот, например, хорошая статистика популярных траблов с GeForce FX.

    И тем не менее, было чем гордиться. Например:

    • Adaptive Texture Filtering

      К слову сказать, из всего огромного множества обзоров NV30 в 90% при тестировании использовали анизотропную фильтрацию вкупе с трилинейной! Сначала это показалось мне какой-то массовой эпидемией. Ну, то есть, я понимаю, что в виду столь долгих ожиданий хотелось выжать из карты всё до последней капли, но о практическом смысле тоже надо было как-то подумать?

      Однако всё оказалось намного интереснее. Копнув глубже, можно было уяснить себе две вещи: есть общепринятые стандарты фильтрации текстур, а есть такие "адаптивные" вещи, как, например, Intellisample. Поскольку в данном случае алгоритм той или иной фильтрации задаётся драйвером, то тут у NVIDIA был ещё один полигон возможностей. Производительность и качество фильтрации текстур различались практически с каждой новой версией дров...

      Что интереснее, во всех обзорах тех дней часто можно было найти сравнение алгоритмов работы так жадной до fps анизотропки у ATI и у NVIDIA. Так вот ATI ещё более преуспели на данном поприще: они не только действительно использовали трилинейную фильтрацию вкупе с анизотропной (не поверите: ради экономии!), но даже умудрились придумать гибридный термин: brilinear filtration.

      И в общем-то те же ATI были правы: если не видно разницы,- зачем платить больше? Понятно, если у меня бюджетная карта, я буду рад дополнительным 10 кадрам без видимой потери качества. Однако этот замечательный принцип почему-то распространялся и на топовые чипы (NV30 / R300), тогда как вот здесь-то нам хотелось бы получить лучшую в мире картинку. "Да, все эти оптимизации должны быть отключаемыми" - твердили тогда обозреватели. Вендоры же были непреклонны и с каждой версией алгоритмы становились всё бесплатнее и оптимизированнее. В ответ на такое наплевательское отношение к покупателям дорогих карт был выдвинут такой транспарант:

      ahabrastorage.org_getpro_geektimes_post_images_436_98f_f13_43698ff13b91028d1c84f29b8f3d445e.jpg

      Конечно же, все драйвера тестировать я не стал, ибо нахожу это абсолютно бессмысленным занятием. Хотя бы потому, что в последних в мире 175.19 для GeForce FX всё честно:

      ahabrastorage.org_files_c57_ab6_871_c57ab6871a6c44b4b59988a4549db588.JPG

    • Поддерживаемые API (и немного о новых способах оптимизаций под конкретные видеочипы).

      С тех пор, как все проприетарные закрытые API (за исключением Direct3D) приказали долго жить в пользу открытых API, видеокарты должны были постепенно становиться более универсальными. Производители видеочипов обязались отныне в первую очередь поддерживать общеизвестные API и уметь полноценно работать с ними. Одной из первых серьёзный шаг в направлении стандартизации сделала Microsoft. Повторюсь:

      Здорово, но на самом деле нас по-прежнему ждали сюрпризы. Их можно было разделить на несколько типов:
      • Собственно-разработанные расширения OpenGL.

        Например (выделено):

        ahabrastorage.org_files_2cc_2bf_ef6_2cc2bfef6b54435c85d80920d1daf753.jpg

        Конечно, это можно считать оптимизацией под свою продукцию лишь наполовину. Ведь расширение зачастую хоть и работает только на картах этого производителя, но является частью спецификации. Ничто не мешает конкурентам реализовать то же самое в следующей серии :)


      • Game Codepaths.

        Кодпас в игре применительно к видеочипу - это отдельный код для поддержки работы именно с этим чипом для обеспечения его максимальной производительности в данной игре. По сути это так или иначе существовало всегда, но наиболее полно раскрылось теперь.

        Это, пожалуй, самый яркий пример, но были и другие. Даже сегодня не утихают такие многочисленные споры о производительности Half-Life 2 на разных видеокартах. Так что, если вы тоже уверены, что играли на FX 5600 (или даже на MX 440) в тот же самый Half-Life 2, что и я на RV350, - настоятельно рекомендую ознакомиться.

      • Следствие портирования с приставки.

        Отличный пример - Tom Clancy’s Splinter Cell:


    Прикладной уровень

    [​IMG]

    В этот раз я не буду измерять производительность и показывать вам скучные шоты с мониторингом fps. Это совсем не то, что меня интересует в этом поколении видеокарт. По большому счёту на этом поколении видеокарт мой интерес к ним заканчивается, потому как Geforce FX были последними картами, у которых было что-то уникальное, чего не было у конкурентов. Вот именно об этом в первую очередь.

    Заодно решил много разнообразить: посмотрим разные фичи в разных играх :) Если интересно, то настройки графики в играх: "максимум сочных красок"! Кино всё-таки или где? Правда, киношных разрешений в играх тогда ещё не было предусмотрено...

    Итак, игры...

    DooM3
    • Renderers: OpenGL 1.5
    • Shadowtech: Stenciled Shadow Volumes (via Carmack's Reverse) + UltraShadow Technology
    • Shading Language: ARB ASM

    UltraShadow... Звучит, а? Вот о ней здесь и поговорим. Существует такая легенда:

    Хотя тут начать хочется с того, что как и у меня всех серьёзных людей на этой планете, у John Carmack'а тоже был свой весьма занятный .план. Оно и понятно, а как же иначе работать? ;)

    Во-первых, благодаря этому dotплану, John Carmack поступил несколько честнее, чем Gabe Newell. Он просто отказался от каких-либо проприетарных расширений OpenGL при программировании движка DooM3, сделав упор на общедоступные расширения ARB_***. Хотя для совместимости движка со старыми не-DX9-картами и были написаны соответствующие кодпасы (codepath), с новыми картами всё было честно: в его движке они должны были биться на равных. Сейчас многие из вас запротестуют, мол, а как же:

    Давайте же разберём этот момент подробнее. На самом деле, дальше экспериментов с NV30 так и не ушло. Возможно, у John'а просто не выдержали перепонки:

    Как бы там ни было, но в релиз попало лишь 6 "рабочих" кодпасов ( и 1 экспериментальный :) ).

    ahabrastorage.org_files_331_407_2d9_3314072d97ee4cdca641ce1c20534af8.jpg

    NV10, NV20, R200. Как следует из названия, эти три из них специфичны для некоторых чипов.
    Cg, ARB, ARB2. Эти трое универсальные. И даже несмотря на то, что ATI всё-таки обучены Cg, этот кодпас всё же отключили (для честноты эксперимента?). Так что ARB2 здесь - самый навороченный рендерер.

    Что же касается рендерера NV30, он остался в Альфе.

    ahabrastorage.org_files_bf0_67e_206_bf067e2069f64884ac5db5089ef48c20.jpg


    Так что тут всё было в общем-то честно. На NV30/R300 вы видели DooM3 таким:

    ahabrastorage.org_files_733_1e1_25a_7331e125a64049509147b78c99e49b76.jpg

    Тогда как на каком-нибудь GeForce MX 440 (NV18), например, DooM3 был таким:

    ahabrastorage.org_files_552_39b_852_55239b8527d142d28f42715e7bd5d7c8.jpg


    Но вернёмся к тому, что dotплан не затронул...

    Знаменитый "Carmack's Reverse algorithm" и поддержка NVIDIA UltraShadow.
    Тут интересно. Про алгоритм можно было прочесть по ссылке, но вообще, сам "хак Кармака на тени" представляет из себя ни что иное, как способ получать тени "от обратного". Оно и кстати не удивительно, учитывая, как устроен сам движок DooM3 - id Tech 4 - он ведь сам по сути сплошная тень :) А у NV35 как раз есть аппаратная поддержка для таких махинаций, кстати как и у всех последующих карт NVIDIA. Например, у моей GTS 450 (выделено):

    ahabrastorage.org_files_bac_5c7_bfb_bac5c7bfbd9a447f9e1943d99d9d5735.jpg


    Но что же это за технология?

    ahabrastorage.org_files_0b7_1b6_d30_0b71b6d3045c423ea1d202eb5c83d6e1.JPG

    И вроде бы в фичеревью UltraShadow II даже представлены шоты DooM3 и заверяется, что технология используется. На деле при релизе DooM3 оказалось, что не до конца:

    И всё-таки недостающее всё же можно сегодня включить принудительно (а в последнем патче даже включено по умолчанию). По факту вы получаете лишь буст в производительности, но никаких визуальных отличий. Чтож, и на том спасибо...

    Если кому интересно наглядно (r_showshadows 1)

    Need for Speed: Most Wanted
    • Renderers: Direct3D9
    • Shadowtech: Shadow Mapping
    • Shading Language: HLSL

    Раз уж заговорили о тенях, как тут не вспомнить так прогремевший NFS:MW? Понимаю, странный выбор, но это только на первый взгляд...

    ...В те дни очень популярно было говорить, что NFS:MW - наглядный пример того, как можно дёшево и сердито сэмулировать HDR.

    Казалось бы, правда, что мы видим на протяжении всей игры?

    Overbright (Bloom):

    ahabrastorage.org_files_61d_77c_74f_61d77c74fbc14071b44b3ef9bf2d07df.jpg


    Motion Blur:

    ahabrastorage.org_files_ab8_eb9_dfc_ab8eb9dfc1654a77933873cd34a692b1.jpg


    и, может быть, иногда замечаем World Reflections:

    ahabrastorage.org_files_656_a29_8fd_656a298fd9524e01a73b5dd29c9331ab.jpg


    При большом желании можно было запросто превратить киношный наряд (Visual treatment = high):

    ahabrastorage.org_files_f1f_d59_415_f1fd594158ec4db088e7c923c461f76d.jpg

    в элегантные шорты (Visual treatment = low):

    ahabrastorage.org_files_19a_215_ad4_19a215ad4c534cf69ce3a0aaff58c783.jpg


    И всё же обвинения в эмуляции здесь незаслуженны, потому как тот же Bloom (без сомнения взятый здесь за основу) - всё же тоже HDR-эффект. Просто многие другие вещи в этой игре, например, эффект дождя или настройка детализации теней, доступны только обладателям видеокарт помощнее NV34.

    Ну и вот мы зацепились за то, с чего начали. Особо внимательные могли всё же заметить очень обидную реализацию карт теней. Есть мнение, что в игре попросту применяются карты теней низкого разрешения. Возможно, это был компромисный вариант, возможно, на реализацию более детальной настройки теней не хватило времени, а, возможно, опять дело в кодпасах.. Кто знает? Кому как не утилите проверки совместимости от EA знать это лучше:

    ahabrastorage.org_files_dc7_b76_b3b_dc7b76b3b4bd408dbeabbe1190fb8b0a.png

    Итого на NVIDIA GTS 450 сцена выглядит так:

    ahabrastorage.org_files_8a3_dd6_2cc_8a3dd62ccaaa4b65aef85f34ef479377.jpg


    Чтож, на первый взгляд всё логично: на NV34 теней явно поменьше (смотрим тень под машиной):

    ahabrastorage.org_files_639_4b7_5a3_6394b75a3bd9498c8489a76bd935f54c.jpg


    А теперь проверим наличие кодпасов. Для этого нам понадобится 3D-Analyze:

    ahabrastorage.org_files_460_1c6_74a_4601c674ad7b4bd5aeb7ebaa6779ee65.jpg


    Подменили NV34 (FX 5200) на NV35 (FX 5900), пуск:

    ahabrastorage.org_files_ccd_797_625_ccd797625d7145e3bd5ea880f1edf8b3.jpg


    Как видно, теперь разницы с GTS 450 особо нет. Налицо искусственные ограничения с целью обеспечения лучшей производительности. Правда, качество теней всё равно сложно назвать хорошим :)

    Кстати на Radeon 9600 (RV350) это выглядит так:

    ahabrastorage.org_files_afc_f6b_8d1_afcf6b8d14a84d4d8d749b74e37a262b.jpg




    Far Cry
    • Renderers: Direct3D9; OpenGL 2.0
    • Shadowtech: Stenciled Shadow Volumes + Shadow Mapping
    • Shading Language: Cg

    Есть мнение, что Far Cry стал первой полноценной игрой, по-настоящему поддерживающей HDR-рендеринг (в отличие от Half-Life 2: Lost Coast). По крайней мере его последняя официальная версия (1.4). Да вы сами посмотрите, как шикарно выглядит знаменитая водичка в Far Cry с использованием HDR:

    ahabrastorage.org_files_364_239_c0f_364239c0fc4642408ebaff4677fec112.jpg

    ahabrastorage.org_files_20c_e8a_759_20ce8a7599464044a2e16bc1d3d9b1e4.jpg

    Водичку без HDR тоже можно посмотреть.

    Вообще в Far Cry после выхода патча 1.4 был полный набор всех модных эффектов, среди которых можно ещё вспомнить, например, тот же Heat Haze (смотреть на надпись на стене или на лампу на потолке):

    [​IMG]


    Кстати Ubisoft тогда активно ратовали за новомодный AMD64, так что Far Cry выпускался в двух вариантах: x86 и x64 (кстати точно так же было с half-life 2) . Для x64-версии был также выпущен Exclusive Content. Как следствие, сразу же появился неофициальный 64-to-32 bit Convertor Mod, позволявший посмотреть этот Exclusive Content на 32-битной системе. Много позднее появился неофициальный патч до версии 1.6, в котором, возможно, этот Exclusive Content наконец перекочевал и в x86-версию Far Cry. Проверить этот момент вам предлагаю самостоятельно.

    Да, если вам и этого мало, вы можете поиграться с экспериментальным OpenGL-рендерером, входящим в комплект поставки. Как сделать, написано здесь (читать со слов System.cfg).



    S.T.A.L.K.E.R. : SHOC
    • Renderers: Direct3D8 - Direct3D9
    • Shadowtech: Shadow Mapping
    • Shading Language: HLSL

    Вот уж действительно "ШОК", учитывая что сначала разрабатывалась одна игра, потом другая, а в итоге получили Shadow of Chernobyl. Но 7 лет разработки, так или иначе, дали свои плоды: X-Ray Engine стал первым движком, использовавшим революционную концепцию рендеринга Deferred Shading. Есть мнение, что S.T.A.L.K.E.R. - больше DX8-игра с некоторыми элементами DirectX9-возможностей. Так вот это в корне неверно. Если быть точным, то верно ровно обратное. Движок X-Ray содержит три полноценных рендерера: r1 (Static Lighting - DX8), r2 (Objects Dynamic Lighting - DirectX9) и r2a (R2 + Full Dynamic Lighting). Достаточно заглянуть в консоль и набрать "help", чтобы увидеть масштаб опций для каждого рендерера.

    Можно долго рассказывать про эту потрясающую со всех точек обзора игру, но давайте ограничимся уже сказанным выше... и всё-таки добавим, что S.T.A.L.K.E.R. - одна из первых игр, где была применена техника рендеринга объёмных текстур - Parallax Mapping. Однако есть нюанс. В оригинальной версии игры (с последним патчем 1.0006) этой техникой невозможно управлять через консоль (или я не заметил изменений) и вообще есть мнение, что код шейдеров, отвечающий за её применение, не работает как надо. Поэтому нашлась куча любителей, переписавших эти и многие другие шейдерные эффекты S.T.A.L.K.E.R., чтобы конечному юзеру стало ясно, что и его систему можно серьёзно загрузить бесполезными вычислениями... ну и, конечно же, чтобы было с чем сравнить. Например, можно сравнить оригинал и кастомный код STALKER Shaders MAX 1.05

    [​IMG]


    Спорно, конечно. Но раз уж заговорили о кастомных шейдерах, есть ещё одна штука, о которой хотелось бы поведать. Эффект размытия заднего плана при фокусировке на объекте - Depth of Field. Об этом заговорили 3dfx ещё во времена DirectX6, но до полноценной реализации тогда не дошло. В оригинале и здесь его не было, но в STALKER Shaders MAX 1.05 он наконец появился. Гифка сделана некачественно, но переделывать уже лень, так что смотреть на то, как уплывает фон при прямом взгляде на сталкера:

    [​IMG]


    Пожалуй, тоже не самая красивая реализация, но ведь любительская, так что сойдёт :)
    Теперь о чём хотел рассказать: в S.T.A.L.K.E.R. есть две замечательные реализации HDR-эффекта Bloom. Дефолтная и так называемая Fast-Bloom, которая включается отдельно. Вот они в действии:

    Bloom

    ahabrastorage.org_files_37e_e5d_7f7_37ee5d7f74264cf2b897e58b1be64c6e.jpg


    Fast-Bloom

    ahabrastorage.org_files_945_7c7_089_9457c7089b864b2ab85f6c44e739f749.jpg


    В виду того, что Fast-Bloom включается отдельно, возможно, здесь имеет место какая-то сложная реализация, а не аппроксимация простым размытием по Гаусcу. Или же это отголоски тестирования.

    А ещё в S.T.A.L.K.E.R. был реализован Motion Blur! Чтобы его включить, нужно запустить игру с ключом -mblur, а также прописать в консольке эффект. Тогда вы получите что-то навроде:

    [​IMG]

    Но и на этом закончить было бы совсем несправедливо по отношению к такому движку, как X-Ray... Дело в том, что разработка итак затянулась и это не было до конца отлажено, но

    что в S.T.A.L.K.E.R. присутствует даже Global Illumination. Т.е., если вам кажется, что в комнате явно недостаёт переотражения света:

    ahabrastorage.org_files_14b_585_aa1_14b585aa193348bfa6af4fa841fdc2f3.jpg


    ...то вы можете сказать r2_gi 1 и тогда это будет выглядеть так:

    ahabrastorage.org_files_011_2d4_dfd_0112d4dfde6c493b945f8319ba150313.jpg




    На сладенькое: Tom Clancy’s Splinter Cell
    • Renderers: Direct3D8
    • Shadowtech: Projection Shadows или Shadow Buffers

    Ещё со времён GeForce4 Ti в картах Nvidia появилась неприметная фишечка Shadow Buffers. Полного списка игр, использующих эту технологию, я найти не сумел (вероятно потому, что его нет), но любой счастливый обладатель так нашумевшего тогда Xbox точно знал, как выглядят тени нового поколения. Ну вот и мы теперь посмотрим на фирменную фичу в действии, только уже на ПК... но сначала немного теории:

    Думаю, принцип кастинга теней был описан достаточно ясно. Из вышесказанного следует нижеследующее:

    • Shadow Buffers - это такой обыкновенный сегодня Shadow Mapping, аппаратно ускоренный на картах NVIDIA благодаря наличию в них специального буфера под карты теней.

    • Tom Clancy’s Splinter Cell - прекрасная игра на прекрасном движке с такими же прекрасными оптимизациями:

      Впрочем, этого следовало ожидать, ведь игра портирована с приставки Xbox, а там живёт NV20A. Хотя всё это не может оправдывать тот факт, что прямые конкуренты NVIDIA того времени - карты на R300 - здесь считаются второсортными. Такие вот оптимизации :)


    Ну и вот как в итоге это выглядит на NVIDIA GeForce FX 5200 (NV34):

    Projection Shadows:

    ahabrastorage.org_files_021_dd1_1d0_021dd11d062b4f8c84ff0d6e78d9504c.jpg


    Shadow Buffers:

    ahabrastorage.org_files_c69_29e_557_c6929e5574064971bf272cd4d2881bec.jpg


    Для верности я попробовал посмотреть на ATI Radeon 9600 (RV350). Действительно, Shadow Buffers здесь не включится и 3D-Analyze не спасёт. Режим Projection Shadows выглядит идентично NV34:

    ahabrastorage.org_files_0e3_030_b05_0e3030b05ec7454d8bd180c108267905.jpg


    Интересно, что на GeForce GTS 450 игра в режиме Shadow Buffers всё же запустится, но выглядеть это будет уже так:

    ahabrastorage.org_files_8d7_6f4_507_8d76f4507fff483d8432a49ce4c3fd2e.jpg


    Что из этого правильно (на GeForce FX 5200 или на GTS 450) до сих пор неизвестно, так как существует мнение, что в самой игре есть неисправленный баг с тенями. Но существует и мнение, что дело в драйверах nvidia, поэтому для полноценного погружения нужно использовать именно старые карты (ведь новые карты просто не работают со старыми драйверами).

    К счастью, те же самые проблемы с тенями в последующей части сплинтера (который Pandora Tomorrow) сегодня частично решены фанатским враппером.

    Кстати

    На этом можно было бы начать заканчивать, но, кажется мне, рассказ был бы неполным без упоминания о ещё одной примечательной технике...


    Higher-Order Surfaces

    Начнём, пожалуй, с того, как ATI наследили в истории с их аппаратной технологией TruForm. По-научному это называется N-Patches (или, что то же самое,- PN Triangles). Появилась она ещё в Radeon 8xxx, но пик популярности пришёл, пожалуй, как раз во времена Radeon 9xxx (R300). Я могу понять, если вам уже лень было пройти по очередной ссылке, так что в двух картинках о сути TruForm:

    из вот такого чайничка

    ahabrastorage.org_files_1c2_cc4_93c_1c2cc493cf79448990a6d3c4d0f08789.JPG

    TruForm, самостоятельно увеличив количество примитивов, сделает вам вот такой:

    ahabrastorage.org_files_52a_6d3_5cb_52a6d35cb126435cbde566c92517de05.JPG

    Это называлось адаптивной тесселяцией - использованием чипа видеокарты для увеличения изначального количества примитивов на основе заранее заданных, передаваемых приложением (игрой). Обещалось, что можно будет увидеть действие сразу же во всех играх и никакой поддержки со стороны игры не требуется. В надежде на это я долго гонялся за полигонами в любимых и не очень играх, пытаясь лицезреть это на деле. Так вот на деле оказалось, что в последних дровах для RV350 (Catalyst 10.2) TruForm тупо забанили. Понимаете ли, есть мнение, что умная техника TruForm скругляла абсолютно всё, что было в сцене квадратного, и те же деревянные ящики с припасами становились круглыми. Технику сначала дорабатывали, но потом просто выкинули из драйверов.

    Но у нас-то с вами исторический интерес, так что вот как на самом деле это выглядело в драйверах Catalyst 5.7:

    ahabrastorage.org_files_ccb_411_026_ccb411026e5143579f86f3048dfd6475.JPG

    Таким образом, вопреки нашим ожиданиям, увидеть TruForm можно было только при условии, что игра её действительно поддерживает. Ох уж эти маркетологи, а! Ладно, раз форсировать её на все игры подряд нельзя, то где же тогда можно её посмотреть? На той же википедии нам предлагают небольшой список из, в основном, игр со сторонними патчами под TruForm, что несколько неаутентично. Если же говорить про игры с родной поддержкой TruForm, без сомнения, большинство впервые увидело истинные формы Серьёзного Сэма. Поскольку я лично к его формам никакой симпатии не питаю, рискну предложить вам взглянуть на истинные формы Neverwinter Nights:

    [​IMG]

    А вот как на самом деле было с ящиками:

    [​IMG]

    И всё бы хорошо, но уже в версии Catalyst 5.8 действительно можно было наблюдать их величество артефакты:

    ahabrastorage.org_files_a7b_d3a_be7_a7bd3abe7c5144b2a8cd432bff9f05fe.jpg

    А затем фичу окончательно похоронили.


    Так вот к чему это я... Видите ли, примерно в то же время NVIDIA тоже наследили в истории подобной технологией. Они стали использовать технику под названием Rectangular and Triangular Patches (RT-Patches) ещё в Geforce 3 Ti, причём аппаратно.

    Это забавно, но проблема реализации RT-Patches заключалась в, собственно, самой реализации. Если мы хотели сделать игровой движок под эту технику - все формулы поверхностей для их адаптивной тесселяции нужно было заложить в этот движок на стадии разработки. Соответственно, если мы хотим, чтобы наш движок заработал на любой другой карте без поддержки RT-Patches, нам нужно переописать все полигоны заново классически. Итого двойная работа.

    Вероятно поэтому RT-Patches и не нашли поддержки со стороны гейм-девелоперов, но всё же утверждается, что их можно было увидеть в Aquanox.

    Правда, есть и мнение, что:

    Пару человек на OG честно пытались найти драйвера, которые бы поддерживали RT-Patches (!и такие были найдены!), но дальше как-то не сдвинулось...

    Заинтересовавшимся вопросом:

    • Поддержка RT-Patches определяется наличием расширения GL_NV_evaluators для OpenGL и наличием капса Rectangular and Triangular Patches для DirectX:

      ahabrastorage.org_files_731_19b_419_73119b41977b4e2280637de29b85b842.JPG

      ahabrastorage.org_files_9f5_4e0_804_9f54e08043b0491e8281c00845083008.JPG

    • Поддержка N-Patches (TruForm) определяется наличием расширения GL_ATI_pn_triangles для OpenGL и наличием капса N-Patches для DirectX:

      ahabrastorage.org_files_cef_a80_744_cefa807444dd4ddaaa9d61c20b989506.JPG

      ahabrastorage.org_files_5d9_4bd_e80_5d94bde806be421f8b47098306d4a7a4.JPG

    • Список игр с родной поддержкой TruForm можно почерпнуть здесь. Список игр с поддержкой RT-Patches почерпнуть, увы, негде.

      Когда будете искать карту с поддержкой TruForm, обратите внимание, что, начиная с DirectX 11, технике hardware tessellation (суть TruForm) подарили вторую жизнь!

      Если же карту найти не удалось, не расстраивайтесь: вполне вероятно, что вы сможете дожить до враппера.

    В целом всё, н-но...

    A little bit of disclosure

    GeForce FX. Как много в этом слове :)

    Известно, что GeForce - это сокращение от Geometric Force. Так был назван ещё NVIDIA GeForce256 в виду наличия на борту революционного GPU (Geometric Processor Unit), который тогда часто называли Hw T'n'L.

    А вот откуда FX:

    Ah, Sure not! :)


    Совместимость с Glide

    Пока инженеры NVIDIA упорно допиливали своё детище (NV30) до работоспособного состояния, маркетологи продавали предзаказы как в рекламе Vaporone. Для увеличения потенциальных покупателей был даже разработан новый API NvBlur, одной из главных фишек которого была обратная совместимость с API Glide. Конечно, NvBlur существовал не больше, чем 3dfx Voodoo 590 или 3dfx Voodoo Reloaded.

    A new Dawn

    Ну да, если кто помнит, в 2012 году NVIDIA воскресили демку.

    ahabrastorage.org_files_45c_00c_aec_45c00caec0d3472cbad41ba8e8a8df3e.png


    Когда смотришь на такие вещи, порой кажется, что это реально снятое видео. Это был DirectX11. Но даже это уже не там, где игровая индустрия сейчас...


    Ну так вот, знаете...

    Вообще, конечно, вся эта эпопея с восходом в плавающих красках навеивала примерно следующее:

    На очередной GDC гейм-девелопер с отвращением смотрит демонстрацию Дума3 на экране 1024х768. FPS даже не демонстрируют.

    Девелопер: - Ну вот скажите мне, почему после стольких стараний я опять вижу худ на пол экрана и монстров размером с миникарту?
    NVIDIA: - Это из-за ATI мы ничего не успели!
    ATI: - Да это Microsoft опять задач понаставил...
    Microsoft: - Между прочим, красивые слайды - тоже кино!


    В целом восход действительно получился спорным, но закат всё же был что надо:

    ahabrastorage.org_files_277_003_c7a_277003c7ae7c476c8036fb54492f4566.jpg


    На том самом закате NVIDIA удалось-таки вернуть себе статусность со своим следующим чипом NV40, который вышел в срок и героически сражался с ATI R420 в двоеборье по Half-Life 2. Но все мы знаем: всё благодаря тому, что NV40 хоть и считался новым архитектурным решением, всё же минимум на 70% состоял из воды NV30.

    Вот где на самом деле пригодилась FP32-точность

    THX

    Всем местным аккаунтам, так или иначе поучаствовашим в создании этой статьи! Из последних, кого могу сейчас вспомнить:

    @vedmysh - Тот самый замечательный человек! Пришёл, ответил на все мои вопросы, послал дальше читать, за сим удалился. :worthy:

    @Vardok, @TakedaSun - Если кто хочет знать способ включить rt-patches на картах GeForce Ti, вам нужно спросить у этих людей.

    @BrainRipper лёгким движением руки этот человек распилит ваш мозг на мелкие частицы. Но, собрав его, вы осознаете то, что вас так озадачивало до этого.

    @Bato-San поддержит абсолютно любой диалог и уведёт его в абсолютно противоположную сторону, что порой приводит к непредсказуемым результатам.

    @PavelDAS и все-все-все - за предоставленные пиратки, которые сегодня уже непросто найти в сети! Спасибо!!!



    :sorry: Кого забыл - пишите злобные комментарии!


    Администрации old-games.ru за возможность быстро и бесплатно скачать 20 игр скопом только ради того, чтобы заценить структуру файлов и однажды запустить.

    Человеку, который в порыве заинтригованности моими предстоящими к написанию обзорами, всучил мне сей бесценный во всех смыслах неинженерный образец былого ажиотажа и величия :)


    ...?TBC?...

    Использованная литература
     
    Последнее редактирование: 19 дек 2016
    K-WolF, Tristana, Amberus и 8 другим нравится это.
  2.  
  3. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    Инфо для модератора: лично у меня в огнелисе есть баг: внутри катов цитаты обрезаются, но кнопки "раскрыть" там нет.
     
  4. Virgil Администратор

    Virgil

    Администратор

    Регистрация:
    2 янв 2005
    Сообщения:
    11.141
    Статья может быть и неплохая, но форматирование и разбиение текста делают его не очень удобным для восприятия. Так же использование полноэкранных тормозящих гифов, когда можно встроить html5 видео on demand выглядит странно.
     
  5. Bato-San Чеширский волк-киборг

    Bato-San

    Регистрация:
    24 июн 2010
    Сообщения:
    14.136
    upload_2016-12-18_14-3-44.png
     
  6. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    Согласен, но тут несколько моментов:

    • Специфика форумного движка. На сайте выглядит получше.
    • Раскрывшийся кат не анимируется и не подсвечивается, как, например, на гиках. Соответственно, понятно, что в случае длинного ката можно несколько потеряться. Я предложил @SAS сделать красивые каты (читай, спойлеры), но он пока не решается на такие подвиги.
    • Увы, специфика подачи такого рода материала назначает обязательное форматирование текста там, где это уместно. Иначе это было бы сплошное бессвязное полотно. Статья сама по себе большая, да, тут ничего не поделаешь. Но, разрезав её на части, я бы похоронил её, так как возвращаться наверх в процессе прочтения ещё можно, но переключаться между двумя статьями - самоубийство.

    Вовсе нет. Во-первых, использование гифов именно этим и обусловлено: Чаще всего гифка сделана из двух картинок. Человеку не требуется щёлкать на плей двадцать раз, чтобы увидеть отличия первого изображения от второго.
    Во-вторых, возможно, я бы и сделал видео-он-деманд, если бы это поддерживалось на всех ресурсах, где публикуется статья. Однако, если кто-нибудь пробовал снимать видео в подобных играх на пентиуме-4 1.8, он меня поймёт.


    @Bato-San, ну раз ты так увлечён, поправил ссылку на архив.
     
    Bato-San нравится это.
  7. Faramant

    Faramant

    Регистрация:
    5 май 2008
    Сообщения:
    792
    Узнал для себя много нового, спасибо. Не знаю, как насчёт форматирования, но по тексту всё достаточно доступно даже для такого махрового гуманитария, как я.
     
    Goblinit нравится это.
  8. Thomas Wolfe

    Thomas Wolfe

    Регистрация:
    27 авг 2015
    Сообщения:
    3.347
    @Goblinit, спасибо, очень интересно! И для меня так вообще круто. Преклоняюсь перед таким глубоким подходом к теме. У меня в коллекции всего одна fx - да и то потому что pci. Заинтересовали!
     
    Goblinit нравится это.
  9. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    Да не за что. Вообще говоря, статья изначально была задумана обзором, я даже прикидывал на последние копейки купить пылесос или nv35 и соответствующий радеон к нему в пару, чтобы сравнить. Но в процессе деньги кончились, да и я как-то понял, что самое интересное здесь - это сама жизнь жирафа фх. И вот перед вами лекция по истории.
     
    Thomas Wolfe нравится это.
  10. BrainRipper

    BrainRipper

    Регистрация:
    1 ноя 2009
    Сообщения:
    9.210
  11. Bato-San Чеширский волк-киборг

    Bato-San

    Регистрация:
    24 июн 2010
    Сообщения:
    14.136
    например https://www.overclockers.ru/lab/15810/Doom_III_novoe_ispytanie_dlya_videokart.html

    Удивляемся очень низким результатам 9800Pro. :unknw:

    Сколько говорить - годность любых обзоров весьма субъективна и зависит от такого числа коллизий и флуктуаций, что учесть их всё просто нереально.

    НО, люди пытались изобразить нечто "эдакое" и протестировать некое количество конфигов, порождая подобные циклы-эпопеи:
    Процессорозависимость видеокарт на чипах Radeon. Часть I: Radeon 9600XT на платформе Intel
    Процессорозависимость видеокарт на чипах Radeon. Часть II: Radeon-9800Pro на платформе Intel
    Процессорозависимость видеокарт на чипах Radeon. Часть III: Radeon-9600XT на платформе AMD

    Стопэ, а это что такое ? О, да - модификации и распространение модифицированного:
    ATI RADEON 9800 PRO 256 MB -> FireGL X2 в домашних условиях

    upload_2016-12-23_13-25-53.png
    И сколько их таких модернизированных дома и изготовителями поучаствовало в тестах ?


    Ну, до кучи, стравим между собой парочку DirectX и порадуемся попугайчикам в 3DMark:
    DirectX 9.0a vs DirectX 9.0b

    @Goblinit, а вот маленькое дополнение к статье, в хвосте этого тестирование, касательно багоглюка FX при отключении всего и вся:
    Технологии Half Life 2 и видеокарты: тестирование в Counter Strike: Source и Half Life 2 Stress Test

    Ну и просто так

    А вот GF5200 с нормальными 128 битами:
    Обзор MSI GeForceFX5200 или "луч света в темном царстве"

    Таким образом, по приведённым материалам, можно "в живую" полюбоваться на полярные оптимизации под видеокарты и драйверы.
    Это плохо ? Нет ! Плохо, когда для тестов берут игры и программы, оптимизации которых просто неизвестны, железки с которыми ситуация обстоит так же и на основе результатов делают глобальные выводы, потом выкладывают в сеть. Но ещё хуже, когда кто то безоговорочно верит, забывая, что "такая ситуация имела быть у конкретного человека, при конкретных обстоятельствах и особом положении звёзд".

    ЗЫ. А вот примеры торговли барахлом под видом чего хорошего:
    https://www.overclockers.ru/lab/15904/GeCube_igra_po_svoim_pravilam.html
    Ну тут очевидно, автор славит 9550 и всё у него к концу статьи чудно сходится.
    В этом плане любители ATI очень похожи на линуксоидов-пропагандистов.

    А вот здесь наоборот:
    https://www.overclockers.ru/lab/206...ynke_videokart_osteregajtes_GeForce_6600.html

    ТО есть, как видим - приколоться можно неслабенько, получив дикий разброс fps.
     
    Последнее редактирование: 23 дек 2016
  12. MisterGrim Very old

    MisterGrim

    Legacy

    Регистрация:
    29 ноя 2007
    Сообщения:
    25.423
    Вот разве что в OpenGL NVIDIA и может отыграться.
    Ну это вообще. Сочинение о том, как я провёл лето как автор вместо одной затычки другую купил.
     
  13. Bato-San Чеширский волк-киборг

    Bato-San

    Регистрация:
    24 июн 2010
    Сообщения:
    14.136
    @MisterGrim, смотря что и с чем сравнивать и с какой целью. ;) А так то любое мнение может быть правильным. Главное сделать морду кирпичом.

    5200 приведена просто в качестве примера 128 бит против 64, на которые вечно упирают отдельные товарищи.
     
    Последнее редактирование: 23 дек 2016
  14. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    Мне хотелось проверить это самому и конкретно в шейдерах 2.x
     
  15. BrainRipper

    BrainRipper

    Регистрация:
    1 ноя 2009
    Сообщения:
    9.210
    @Bato-San, в каком контексте упирают?
    --- добавлено 23 дек 2016, предыдущее сообщение размещено: 23 дек 2016 ---
    @Goblinit, есть тесты именно шейдеров 2.0.
     
  16. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    @BrainRipper, я верю, но мне хотелось увидеть это самому. Увидеть на уже последних дровах и последнем директиксе9, на xpsp3 в играх с последним патчем и т.д. Ну то есть увидеть итоговое положение дел.
     
    Bato-San нравится это.
  17. BrainRipper

    BrainRipper

    Регистрация:
    1 ноя 2009
    Сообщения:
    9.210
    @Goblinit, смысл? Последние дрова как правило тормозные.
     
  18. Wild_Wolf

    Wild_Wolf

    Регистрация:
    2 дек 2007
    Сообщения:
    2.112
    Отличная статья. Интересно и познавательно... Много всего для себя подчерпнул.
     
    Goblinit нравится это.
  19. BrainRipper

    BrainRipper

    Регистрация:
    1 ноя 2009
    Сообщения:
    9.210
    Они же рублей 200 стоят.:unknw:
     
  20. Goblinit

    Goblinit

    Регистрация:
    18 мар 2011
    Сообщения:
    4.405
    @BrainRipper, ну. Это очень как повезёт, во-первых. Во-вторых, у меня на тот момент сквозняк в карманах продолжался уже 4-й месяц. И вот на эти 200 рублей мне нужно было обязательно купить хотя бы минимум от минимальньного продуктового набора. Примерно две трети статьи я написал именно в этот период. Удивительно, но вот такие рискованные мысли меня действительно тогда посещали.
     
  1. На этом сайте используются файлы cookie, чтобы персонализировать содержимое, хранить Ваши предпочтения и держать Вас авторизованным в системе, если Вы зарегистрировались.
    Продолжая пользоваться данным сайтом, Вы соглашаетесь на использование нами Ваших файлов cookie.
    Скрыть объявление