NVIDIA готовит анонс DLSS 3.5 — новая технология будет работать на всех RTX-картах
NVIDIA подготовила свежую версию технологии реконструкции изображения DLSS под номером 3.5.
По сравнению с DLSS 3 в новой версии появится еще одна технология, названная реконструкцией рейтрейсинга (Ray Reconstruction, RR). Натренированные нейросети будут изучать изображение с трассировкой и оптимизировать ее рендеринг. NVIDIA утверждает, что для этого обработала в пять раз больше данных, чем в свое время для DLSS 3.
В комментариях на Reddit уже уточнили, что RR будет работать на всех видеокартах, поддерживающих трассировку лучей. Правда, не совсем понятно, как это стыкуется с тем, что DLSS 3 работает только на серии RTX 40.
Судя по утекшим изображениям, разница между DLSS 3 и DLSS 3.5 не очень большая, однако она вполне способна помочь слабым картам серии RTX 40 стать более привлекательными с точки зрения потребителя.
Первыми играми с поддержкой DLSS 3.5 будут Cyberpunk 2077: Phantom Liberty, Portal with RTX и Alan Wake 2.
Новости и статьи по тегам:
- 21 NVIDIA прокомментировала работу технологии DLSS в Battlefield 5 и Metro: Exodus
- 19 В утекшем списке NVIDIA нашли даты выхода Atomic Heart и Dragon Age 4
- 1 Еще один ролик с демонстрацией технологии трассировки лучей от NVIDIA в стилистике «Звездных войн»
- 1 Список игр, которые получат поддержку RTX и DLSS в ближайшее время
- 44 DNS возобновила продажи видеокарт RTX 4090
- 3 Первое дополнение к Metro: Exodus выйдет уже завтра
Можете считать меня старпёром, но в чём прикол генерации кадров для игр?
Это всё равно, что врубить в телевизоре функцию плавности картинки, а потом жаловаться, что картинка так себе, и выглядит как полный тикток.
@HarGabt при включенном генерации кадров, не заметил, что картинка хуже стала, а вот FPS и плавность, однозначно лучше стало.
Ну например в том что видеокарте не нужно обрабатывать 3й кадр так как она знает какой он будет и рисует 2d похожую картинку за мчет чего выигрывается кучу времени и нет такой нагрузки на видеокарту-процессор, ну и огромный плюс у кого старый проц это очень сильно помогает разогнать фпс, разницу вы увидите только на стоп кадре а так будет все красиво и шикарно
Очередной костыль,интересно кто тут виноват и рукожоп,создатели карт,движка или разрабы которые не могут в оптимизацию
Ну не вижу я такого роста картины в условной сейнс роу по сравнению с гта что бы так выросли требования.
Чего ? Всё-таки прогнулись. Сразу было ясно, что это враки. Ну а что? 40-ая серия вышла слабенькой и продажи не ахти. Теперь приходится возвращаться к предыдущим сериям и каким-то образом дополнительно стимулировать продажи, делая их ещё более привлекательными.
За DLSS NVIDIA железное спасибо, фича мега крутая и полезная. Прошёл всё переиздание The Last Of US с DLSS, артефактов и падения качества изображения не заметил, а вот фпс поднялся.
Тут идет речь о дополнении технологии нейросети под названием Ray Reconstruction, RR, то есть на третей серии будет dlss2+RR, в четвертой серии технология Frame-Generator заложена в саму архитектуру графического процессора
очередной маркетинг подъехал, у кого то на 20-ю яхту не хватило?
Я думаю FG не будет работать на картах ниже 4000 серии.
Ну? То, что работало типа только на 40-ой серии, теперь заработало на 20-ой и 30-ой сериях.
Скорее всего, да. Но только, что-то будет не на уровне процессора, а большей частью программно, как выше писали.
Генератор кадров, как был у 4 серии, так и останется её привилегией. Для 2 и 3 серии добавят только Ray Reconstruction, который видимо особо погоды не сделает в плане прироста фпс.
Ну это для адептов “не могу играть при 59 ФПС”, кому надо 120 Так что почему нет, главное, что возможность есть — а включать или нет, это уже твое решение.
Ну это очевидная херня) С одной стороны это конечно грустно, что на оптимизацию стали класть болт, с другой — это позволяет делать игры быстрее. Правда, во все это не укладывается концепцию, почему это игры еще и дорожать должны, раз такой крупный кусок процесса разработки, как тестирование и оптимизация по его итогам, почти выкинут нахрен
Так значит подрежут функционал. А почему нет инфы, что и кому укоротят ?
Кстати, странно, что никто не обратил внимания, насколько сильно отличается 4я картинка от оригинальной 1й. Цвет совсем другой, все зарозовилось ппц.
Ещё раз. SR (super resolution) работает на всех картах RTX. FG (frame generation) работает вкупе с SR, и зовётся dlss 3.0, которая есть только у 4 серии. В новости (И если есть желание можно найти источник) написано о технологии Ray Reconstruction (RR), которая также будет доступна для всех RTX. Но FG так и останется фишкой четвертой серии.
DLSS 3.0 доступна только на 40-ой серии. А DLSS 3.5 будет доступна на всех сериях RTX. Но в сравнении с 40-ой серией, DLSS 3.5 на 20-ой и 30-ой сериях, хоть и будет называться так же, всё же функционал у него будет подрезан.
судя по скринам теперь DLSS будет круче чем нативка?
я не понял почему нет картинки длсс2+ рр? сразу бы все всем было понятно.
Нет, конечно. Это на статике, специально подготовленной, кажется лучше. Но в игре всё по-другому, а в движении и тем более.
Грустно от того, что разработчики стали делать оптимизацию игр, опираясь на возможности DLSS. Если раньше DLSS это была фича, которая помогала среднему сегменту получить максимальные настройки при комфортном FPS, а ТОП сегменту играть в 4к с максимально комфортным FPS, со включенным рейтрейсингом. То сейчас DLSS стал необходимостью, ибо без него даже на самой топовой карте, без лучшей, в 4к, не всегда можешь получить комфортные FPS. Про средний сегмент молчу. Возможностью DLSS стали прикрывать свою халтуру по оптимизации и экономии денег на эту оптимизацию.
Как не печально, но это так.
чудеса появляются когда ты не смотришь видео чел
появился видос, в динамике показано, DLSS круче нативки выглядит
Это издали. Когда будете рассматривать в игре, на своём мониторе, то увидите всю разницу. Не в пользу последнего.
на 4:09 сравнение идет, небо и земля просто, в динамике причем.
Раньше тоже такие картинки и видео были: “Посмотрите, как круто …”. Но в играх, на данный момент, эта функция очень противоречива. В каких-то играх, нормально, но в большинстве - не очень. Я, если есть возможность, отключаю DLSS. Так что нужно очень скептически к этому относиться.
А причем тут реконструкция кадра которая работает на всем rtx и 40 серия, на которой есть генерация кадра? И это две разных технологии в dlss. Может она вышла дорогой, а не слабенькой?
Да как и сами тени с отражениями, где-то проработают хорошо, а где-то отличия под лупой не разглядишь или темно, как в глухой избушке без свечей.
Это да, есть такое.
P.S. Но только тут, в меньшем количестве игр.
На 40-ой серии сошлись все звёзды, там и дорого и слабо и слабО за дорого ?
сочувствую Киберпанку, сначала столько говна на него вылили, а после — подопытным кроликом сделали.
Видимо и под DLSS нужно что-то ручками и головой дорабатывать, но не все хотят.
Все хотят “денюжку” и побольше, а работать поменьше.
Можно пример карты мощнее моей 4090? Ну то есть я согласен, что 4060 и 4070 это карты которые не нужны. Но таже 4070ti в 2к отличная карта и в нативе немного обходит 3090ti, а с dlss заметно выигрывает. Да она не подходит для 4к, памяти не хватает. Но говорить дорого на карту которая существенно дешевле это странно.
Ага, я про это же и написал, но при этом еще вякают, что разработка дорожает, хотим больше денег
Так на видео та же херня, тока еще и на примере желтого — все цвета куда-то перенасыщенны в DLSS 3.5
Либо они начнут затирать, что в 3.5 рейтрейсинг работает гораздо лучше и цвета переотражаются 100500 раз, потому такие насыщенные Как по мне — такая перенасыщенность пока выглядит спорно, учитывая, что изначальный источник явно имеет не такой насыщенный цвет.
Так она и не дешевеет, глупо отрицать этот факт. Вырос рынок сбыта, выросла конкуренция, маркетинговые бюджеты, штаты сотрудников тоже выросли. Производство красивого контента стоит огромных временных и денежных затрат. Просто на смену пришел эффективный менеджмент и программисты войти в айти. Скрипты писать, какие там уж оптимизации.
Да хер знает — инструментарий настолько круто апнут на данный момент, что то, что раньше делалось 100500 часов сейчас делается в разы быстрее. Да, контента стало в целом больше, но ситуация давно уже вошла в рецессию, разработка дорожает, инструментарий совершенствуется не по дням а по часам — а вот реально крутых вещей в графике уже давно не заметно.
Я, допустим, не говорю, что должно стать дешевле, но вот дороже — хз хз. На тестирование и оптимизацию еще при это забивают, а это приличный кусок и по времени и по финансам.
Но модели приходится так же лепить руками и более качественные с более сложными материалами. Основная проблема сейчас в том, что как раз таки графика ни как не развивается, но если раньше спешили с релизом потому, что пока ты пилишь игру она устаревает. То сейчас спешат только из за аппетитов инвесторов, а то им на кокос и шлюх не хватает. Но это ж не значит, что разработка такая же дешевая. Тот же кибербаг это 300 млн долларов только на разработку. BG 3 тоже не меньше 200 млн бюджета сожрал.
да не, очевидно что мигание света не синхронизировано просто, без DLSS практически нет отклика от света что невозможно в реальной жизни.
возможно они специально конечно так сделали, но пока DLSS 3.5 выглядит как очень большой шаг вперед
Ну DLSS то это не рейтрейсинг — там все видосы с рейтрейсингом, который свет переотражает по поверхностям по-умолчанию, в этом вся его фишка. Разница тока в разном уровне DLSS. А 3.5 еще с реконструкцией рейтрейсинга, что, видимо, и влияет — может там параметры усилены или еще что, хз. При этом источник, если посмотреть только на него — почти одинаков на всех 4х вариантах, откуда берется такая насыщенность цвета — непонятно. Как по мне выглядит хуже, прям перебор цветов. Возможно, эффективные менеджеры сказали — нам надо, чтоб отличалось Вот и отличается
И не в геймдеве так же. Я работаю сто, у нас бесплатный продукт который живет только за счет кроссейла с другими продуктами. Из этого видится, что чем качественнее продукт тем выше лояльность клиентов, а следовательно им проще продать, что то. Думаешь эффективные менеджеры не летят в перед паровоза? Жаль под nda все, я бы рассказа ты бы от смеха плакал как они раз за разом ебашут себя одними и теме же граблями по лбу. Как они ни кого не предупредив заказывают дорогущую рекламу на определеную дату. Как игнорируются технические ограничения. И так далее.
ну если бы такое место было бы в реальной жизни то от такой бандуры точно бы все было залито светом, может быть пытаются добавить реализма таким способом
За такую цену? Нет, не надо.
Тут согласен, карточка имеет право на существование. Но опять же, она дорогая, для мажоров — убер топ.
И того, для народа — массового потребителя существенных плюсов нет, а то что есть, это шило — на мыло. В соотношении цена-производительность в 40-ой линейке нет хороших образчиков. Именно поэтому все и советуют забить болт на эту серию, оставить её на сладкие, но колючие обсасывания энтузиастов.
Не лучший пример. Там была не разработка, а кромешный Ад. Все сроки профукали, игру чуть ли не с нуля переделывали минимум раз. На такие “разработки” кривожопых можно и миллиарды тратить, а получить в итоге лишь пук .
дальность лучей в 3.5 просто на пике)
Полная ерунда )) Нагрузка на проц остаётся ровно такой же, загрузка карты тоже, единственное, что карта чуть меньше начинает потреблять — напр. не 400, а 380w. Карта будет обрабатывать ровно столько же, просто будет вставка доп. кадров. Это всё в лёгкую проверяется между прочим.
Не сказал бы, что обходит 3090ti, по тестам я этого не вижу. https://youtu.be/ODpwMOZYDa4
Ну так bg 3 тоже миллионов 200 минимум и разрабатывалась дольше и ада не было.
Она проигрывает где памяти надо больше, а так либо вровень в основном, иногда чуть больше. Но и стоит она дешевле, конечно на нее нет смысла переходить с 3090ti. Но с той же 2080 однозначно да.
БГ3 огромная, проработанная и законченная, в отличие от 2077. В случае с БГ3 сумма оправдана, игрушка редкая по количеству контента и проработке. Столь дорогих игр можно по пальцам пересчитать. Надо смотреть на средний чек, в каких-нибудь Бэшках, а то и в инди. Но в этих сегментах редко озвучивают бюджет на затраты.
4070ti отличная карта для 1440p, можно сказать ультимативная, 3090ti cмысла брать нету, а 4080 уже больше для 4k
Но Бэшки и инди не говорят, что разработка дорожает. Тут просто шашечки или ехать. Хорошая проработанная графика, анимации, эффекты это все очень дорого. Значительно дороже самого написания кода проекта, а если еще и свой движок писать и поддерживать, то сумма еще возрастает. Бэшки и инди берут готовые решения, недорогие ассеты, частенько даже без LODов, как часто встречается в играх на том же Unity и выкатывают продукт.
На счет киберпанка полностью согласен игра максимально средняя. БГ 3 топ, но и она не без проблем, там и багов тысячи и оптимизация в третьем акте оставляет желать лучшего.
Теперь понятно почему вырос фпс, часть расчетов лучей просто убрали и заменили их RR, так как при использовании ядер арти карты она просто божественно нагревается)))
Нагрев карты напрямую зависит только от энергопотребления, и от того как игра использует ресурсы карты(при 100% загрузке, потребление может быть в одной игре 300, а в другой 450w), а RT только косвенно может влиять, совсем не обязательно, что при включении RT карта будет больше потреблять, бывает даже наоборот.
Я еще андервольт сделал своей 4090, поря кадров 5, а потребление упало ватт так на 50.
Я тоже сразу же сделал. Как только купил, там почти в тот же день вышел новый биос, который делал дефолтный PL 500w, а не 450, как было заявлено изначально, да + эти “новости” по поводу оплавления из-за хрен пойми чего… Так что я сразу же сделал 2715 при 0.950, а было 2775 при 1.050. В общем понизилось примерно на 80w, а небольшую потерю я компенсировал прибавив 1000 по памяти, и производительность стала 1в1 как была, даже где-то чуть больше, буквально на 1-1.5%.
А ты ReBar используешь? Я нет, никакого толку с него не вижу, проверил эту хрень на… не знаю… где-то игр 5 наверное, ну и можно сказать бестолку, как собственно и включение “Режим игры” в винде, а вот “Планирование граф. проц...” я включил, мне кажется с ним загрузка gpu более стабильная.
Неа, точнее если игра поддерживает и игра одобрена nvidia то он автоматически включается. Ну и поддерживает его полторы игры. В целом идея не плохая, плохо, что это не дефолт в каком нибудь ue 5. Вчера новая игра вышла и там лютый кринж, карты ниже 4090 также 30 фпс не обеспечивают с люменом
Именно, отсутствие буста в виде генератора я думаю можно было бы реализовать и на третьей серии, но видимо не судьба.
Я как-то включил этот ReBar и в некоторых игр, я даже ухудшение производительности встретил, FPS резко стал не стабильным, с большими дропами. Выключил нафиг эту фигню и всё стало работать чётко и стабильно. По замыслу технология хорошая, по реализации пока дно.
Помню тоже самое писали про 2000 серию, — дорого, надо пропускать, лучше ждать 3000 серию. Помню лица тех ждунов, когда вышла 3000 серию, и там резко дефицит, из-за чего цены прям на старте были завышены, а потом БУМ майнинга, где цены в потолок улетели. Ждуны были довольны и в панике
В целом ситуация повторилась с 40-ой, 20-ая серия тоже не снискала любви и признания, не сильный давала прирост в производительности, но зато с RTX!!!, на который делали упор при пиаре, но с которым до сих пор и 40-ая не всегда и не везде справляется.
А что за игра?
@piton4 “Fort Solis”.
P.S. Обещали поправить.
30fps?! Офигеть. Я дальше главного меню не заходил — там 120
Я сам, как прочитал, чего-то охладел к игре. И включил “ждуна”.
Не 30 FPS — это 4070, 4060, вроде.
@Alex Po Quest я сейчас запустил, там короче примерно то же по fps, что и в Remnant 2. В среднем 45 в 4k, 70-80 с dlss, и 75-85 в 1440p, это в самом начале, как дальше хз. Вот вам и новые технологии, типа нанитов и люмена.
Но при этом, что графика в "Remnant 2”, гораздо лучше.
Ну вот не соглашусь. У меня была 1080ti, далее я перескочил на 3070ti, поняв во что вляпался и пересел на 3080ti. Сейчас стоит 4080. И по своему опыту скажу, что не зная, какой была 2 серия, но 3 это просто треш и содомия. У меня 3080ti от EVGA при 100% жрала 400 ватт легко, при этом прожаривая квартиру, ибо выдувала она 83 градуса из корпуса. Мне приходилось включать кондиционер (Я не шучу), чтобы как-то поиграть в киберпанк комфортно. После 3 серии, 4 прям зашла, и жрёт меньше, и работает тише, и генератор кадров (К примеру играя в МФС, фпс увеличились при включении dlss с 60 кадров до 100, при этом карта в 100% не упирается).
Immortals of Avenum
А я тоже самое говорил, мне Бегимотик доказывал, что движок очень оптимизированный. Имел я опыт поработать и с ue 4 и с ue 5. И мне сразу было понятно, что так будет.
В remnant 2 не используется люмен.
Так и 3000 серия, сыскала любовь только под конец своего жизненного цикла, перед выходом 40-ой серии. 40-я также сыскает любовь, когда цены снизятся перед выходом 50-ой серии, так как ждать от Нвидии сейчас снижение цен в новой линейки видеокарт, надо быть наивным и безумцем. Вспомните когда Нвидия в последний раз снижала цены на свои видеокарты? После как повысили 20-ой серии, в 30-ой цены не снизились. А учитывая на фоне того, что за последний год у Нвидия акции только росли, то ждать снижение 50хх серии не стоит, если будет не очередное удорожание, так как Нвидия теперь рассчитывает цену за прирост мощности, чем мощнее карта, тем дороже она стоит будет.
Поэтому все ждуны могут только рассчитывать на небольшое снижение цены 40-ой серии, после как увидят офигевшие цены на 50-ю серию, все побегут покупать 40-ю, и сразу серия станет народной
Да чисто по статистике того же Стима 30-ая линейка куда чаще встречается 20-ой серии, тупо из-за соотношения цена-производительность. 20-ая и не попадала в топы, только в просак . Куда приведёт дорога 40-ую серию, это ещё надо посмотреть, пока что топает лесом .
Не рублю в железе, но насколько наслышан, все TI-ки жрут много и греются сильно и вроде, как наименее надёжные. Но это я так, почти вилами по воде и на ощупь в темноте . Безусловно 40-ая серия на крохотуличку, да лучше 30-ой, хотя бы за счёт DLSS 3. Вопрос в соотношении цена-производительность. В последней линейке цену задрали за все разумные пределы, при этом прирост производительности не соответствует разницы в цене. То бишь, пока лучше остаться на 30-ой, тем более она сейчас ещё сильнее по дешевела.
Всё логично — RTX одна технология, для всех видеокарт, данного сегмента — просто производительность разная.
40 самая провальная серия карт у нвидии, продается хуже 20, настолько хуже, что продажи 50 отложили минимум на год, а спустя 2 месяца уже на 4080/4090 завозили 10%+ скидон, а на всякие 4070/4060 вообще останавливали производство на несколько месяцев — склады переполнены. смысла покупать их нет. в 40 лишь 1 4090 имела смысл. остальная производительность за те же самые деньги покупалась и в 30 поколении. 4070ти и рядом не стит с 3090ти. даже 4080 в половине игр сливает 3090ти.
п.с. в сенябре ФСР 3 выходит, который помимо визуального улучшения приносит еще и генератор кадров кому надо, причем вставляет не 1 а до 4 на выбор. а учитывая, что ФСР работает на всех картах не только амд но и нвидии с интелом, то генератор будет и у 30, покупателей 40 станет еще меньше и придется 50 откладывать на 2 года чтобы освободить склады
говно длсс никогда не будет круче чем нативка, в нем гостинг постоянный, неспособность отоброжать близкие параллельные линии — сводит их в муар, постоянно артефачат то там то сям объекты, про генератор кадров вообще молчу, помимо дополнительных багов, еще и управление кисельным делает, в отдельных играх добавляя +30% к инпут лагу.
длсс лучше чем нативка — Контрол трешовый телефон и надпись под ним https://youtu.be/XIhdM5kMi2I
ватчдогс 2 — глюки с отображением зданий вдали https://youtu.be/Bj9OlHR5cF4 гостинг за авто на зеркала больно смотреть и наши любимые параллельные линии указателя уходящие в муар — https://youtu.be/bU2xDmKSLsw?t=46 муар вообще может зомбировать — https://youtu.be/Bj9OlHR5cF4?t=221
киберобосрамс даже на споконом объекте муарит мама негорю а в игре дофига таких обектов решетки на полу, сетки и т.д. и т.п. — https://youtu.be/7_GFYrcvpFs?t=17 впрочем киберобосрамс вообще отвратно работает с длсс искажая вокруг движущихся объектов ездящие машинки пространство (и время ) — https://youtu.be/f1s0xiZT53c
и это мне в лом стало другие игры записывать потому что по дефолту не ставлю экспиренс, а глючат с длсс абсолютно ВСЕ игры в разной степени паршивости и проявляется это все в основном в движении, ну контрол тут отличился и на статичном объекте но тут не удержался в форспокен не мог не записать, но софт лень было ставить снял на телефон, спасибо длсс дает искорки для большего гламура —https://youtu.be/L-cMCVdUopU даже так видно как божественный длсс улучшает картинку
Тесты при 2к разрешении говорят об обратном. А так же опыт эксплуатации обоих карт.
То что там fsr 3 работает везде мне конкретно вообще без разницы. Во первых fsr 2 работает хуже dlss, во вторых у меня 4090, в третьих я не пользуюсь генерацией кадров, а кроме киберпанка с трассировкой пути не пользуюсь и dlss.
О каком визуальном улучшение речь если fsr 3 еще никто в глаза не видел кроме красных не понятно. Да и когда увидят не понятно.
Судя по профилю ты мышь которая колется и плачет, но жрет кактус. Зачем на 4090 сидишь если все говно, у красных лучше?
Наниты используются.
Пока что 4 игры, не считая “форточки”, используют вот эти технологии, и три из них по оптимизации просто треш, а вот в Layers of fear всё довольно неплохо, там вроде тоже люмен.
Я тоже FG не использую, меня сама суть технологии напрягает, а dlss использую, только если ниже 60fps. Рефлекс также не использую, он в большинстве игр подрезает загрузку gpu
Ну это явно из разряда бреда какого-то. Специально пошёл глянул тесты, ни в одной игре не увидел, даже +/- одинакового FPS. Минимум отставание 3090 Ti от 4080 было 10FPS, а в некоторых случаях там и до 30-40FPS доходит разница. Где ты увидел, чтобы 4080 в половине случаев сливает 3090 Ti, если они даже на ровне нигде не идут.
Ты бы ещё с первой версией DLSS сравнил бы. DLSS постоянно развивается и с каждой версией становится всё лучше и лучше. Твои примеры были сделаны на древней версии DLSS, где было много косяков, накати новую версию и сравни, разницу почувствуешь.
https://www.techpowerup.com/download/nvidia-dlss-dll/
Да ты что, какой же это бред? 4080 сливает 3090ti, 13900 сливает 5800x3d… ну и тд. Это ж бегемотик ёпт, спец в технологиях и железках, c ним нельзя спорить — у него рекорды в 3dмарках.
По заверениям разработчиков ue 5 наниты обходят стандартную растеризацию в скорости и должны быть активированы везде где это возможно. Еще они фиксят проблему draw calls.
Могу с уверенностью заявить, что они точно обходят в скорости разработку графического контента, поскольку не надо делать лоды, запекать карты нормалей, делать ретопологию. То есть фактически компании экономят кучу денег на самой ресурсоемкой части.
Ну пока что получается обратное, правильно? Или если бы в Rem2 не было нанитов, то fps ещё меньше бы был?
Круто, вот только ваше субъективное мнение ничего не решает. Есть тест “DLSS vs. Native” и DLSS в большинстве случаев выигрывает по качеству картинки.
Если б не было нанитов было еще хуже
Никакое это не субъективное мнение ))) Даже если убрать проблему гостинга(в одних играх заметно сильно, в других слабо) и а артефактов(встречаются не часто, но факт), остаётся главная проблема — МЫЛО. Оно присутствует во всех играх, с dlss любой версии. Некоторые разрабы чуть гасят эффект внедрением фильтров резкости, но мыло остаётся и в большинстве случаев, оно(мыло) гораздо интенсивнее чем при том же taa. Надо иметь очень плохое зрение или не иметь вовсе, чтобы не замечать этого. Тут не нужно смотреть никакие видосы, и слушать, что оттуда втирают, достаточно иметь глаза и играть в игры на пк.
Ого, вот это лютый бред. Можно пример хотя бы пары игр из этой "половины сливающих игр" 3090ти?
1. Где тут мыло? И да, есть режимы “DLAA” и “DLDSR” (к примеру, DLDSR+DLSS всегда лучше Native).
2. Почему картинка в режиме “DLSS” не просто лучше, но ещё и имеет больше деталей?
Чистой воды субъективщина. Я привёл факты своих слов, а в ответ получил — “бла-бла-бла, вы всё врёти”. Смешные отнекивания без аргументации.
Который давно уже нет. Она была в версиях DLSS ниже 2.2.
FSR апскелит все что видит, и за того мелкие детали просто исчезают с картинки,DLSS это умный апскелинг с использование нейросети, что придает картинке больше реалистичности,FSR нужно научить отличать мелкие объекты от крупных, со временем АМД придет к тому к чему пришла NVIDIA
Просто чел купил 3090, а тут выходит 40 серия с генератором кадров, чел просто в обиде что его топовую карту обгоняет по кадрам даже 4060 при включенных всех плюшках)))
Кто хочит потестить новую DLSS3.5 может скачать dll ки от сюда https://github.com/NVIDIAGameWorks/Streamline/tree/main/bin/x64
Ну к слову там где врубал, а это киберпук и реквием еще на 4070ti мыла не видел, выглядит или как taa или чуть резче чем taa. А вот гостинг действительно в киберпанке был. Но прям всматриваться надо, что бы взгляд зацепился. Ну к слову гостинг есть и на том же стим деке и без апскейлеров, например в кене. Но я вот, что заметил все очень зависит от того как реализовано сглаживание в проекте, есть хорошие примеры реализации TAA где нет мыла и артефактов, а есть например Outer Worlds. Ну и по возможности я использую DLAA
Dlss бы в виде какого нибудь аппаратного декодера, который например можно было бы подключить к xbox 360, эх мечты мечты. Без jittering и получения кадра до обработки ничего адекватно работать не будет(
Кстати зрение у меня отличное 10/10 по таблице Сивцева.
@Deadoutx ну под словом “мыло” я имею ввиду “съедание деталей” как при taa, когда пропадают например блики света, но стоит отключить и вместе с “зубчиками” появляется то, чего практически не было видно при taa\dlss. В некоторых играх, за счёт резкости, dlss выглядит получше чем taa, где-то почти одинаково, а где-то заметно хуже, по видимому там, где не прикручивают фильтры. Кстати dlaa выглядит гораздо лучше чем dlss. Говорят, что dlaa — это dlss без масштабирования, но из того что я вижу, это работает как-то по другому, ну или в каждую игру с dlaa, пихают фильтр резкости, уж слишком чёткое изображение получается. В “Пауке” очень жёсткий гостинг при dlss, особенно когда вращаешь камеру вокруг паука на фоне неба, там след наверное на четверть экрана получается. У меня зрение в левом 1, а в правом 0.8, не знаю по какой таблице. В СP77 я особо гостинга не замечал, но замечал артефакты на текстурах, при dlss.
Что ты мне эти картинки показываешь, это совсем не то, на чём можно увидеть мыло. Включи игру, посмотри на сложную текстуру с включённым dlss и в нативе, сравни. DLSS так работает, оно не может не мылить, так же как и временное\быстрое сглаживание, так же как SMAA или TXAA, всё это мылит картинку как и твой любимый dlss. Единственное, что не мылит, это msaa, ну и естественно, всякие ssaa и fsaa. Я такие моменты на раз подмечаю, для меня очень важна картинка, так что не нужно мне рассказывать, что где мылит или не мылит.
@Deadoutx кстати сейчас проверил в CP77, и да, там разница почти не видна, так как даже в нативе картинка выглядит мыльной, так что при включении dlss, можно сказать она такой же и остаётся, даже может более лучше выглядеть, за счёт увеличения резкости. Если есть Рэтчет, то сравни там картинку с dlss и без, в Remnant 2 например тоже.
CP это один из примеров хренового TAA, туда же в копилку death stranding. Поставил я на стим дек, смотрю мыло, думаю ну ладно поставлю на комп, тоже самое мыло. Рэтчет у меня на ps 5, хороший платформер. Ради эксперимента скачаю с торрента.
Достаточно просто включить DLSS в режиме “Качество” и DLDSR в 2K на Full HD мониторе. Получается некий аналог DLAA, но с более качественной картинкой. В играх без поддержки честного полноэкранного режима я меняю разрешение рабочего стола через HotKey Resolution Changer. По чистой производительности теряю примерно 5-10%, но оно того стоит. Эффект лучше любого существующего АА метода.
Сам так развлекаюсь в Control и RDR2 на 50% (тут пришлось DLSS всё же выключить, ибо волосы и гривы портит). Производительность и картинка на уровне.
Я ни чем таким не пользуюсь. У меня 27”4k моник, я из всех этих штук, которые вообще есть, пользуюсь при необходимости только dlss в реж.Q, и всё. Один раз за всё время включал FG в Portal RTX. Если “рефлекс” отдельно включать, то отзывчивость конечно лучше, но в большинстве игр загрузка гпу начинает прыгать, так что и его тоже не использую.
Советую попробовать DLDSR хотя бы раз. Раз уж вам так важно качество картинки, то это имба просто. Работает как в связке с DLSS, так и без. На счёт FG ничего не знаю, у меня карта эту штуку не поддерживает, но вроде как имба. Рефлекс штука хорошая, но в некоторых играх и правда загрузка GPU начинает прыгать на ровном месте и появляются статтеры (в DL2 такое точно было).
Для 4k это не особо подойдёт, к такому разрешению, даже если x1.25, то уже очень серьёзный удар по fps будет.
Нынче FPS торгуют! (Причем не чЭсными… вспоминается MS (True Pixels — Uncompressed) Не под***бка аля на перезентации E3 было помню двинута терминология.. а тут ушлые комерсы научились компрессед пиксель продавать, причем без смазки… )))
Если оптимизация как в страфилде не вывезет и 3.5
@EVilAngelion наконец-то полное, доходчивое разъяснение про принцип работы dlss, по крайней мере про 1.0 и 2.x
Нужно было с этого начинать. С таким разрешением эта приблуда явно не нужна, а вот для Full HD или 2K — подходит отлично.
Сама NVIDIA никогда не скрывала, что библиотека DLSS 3+ — это просто обёртка с DLSS 2 + FG + Reflex (+ FR для DLSS версии 3.5 и выше). Человек на видео просто выдал факты, которые многим и так были известны. Исходники есть на github. Почему такое разделение? Всё очень просто — DLSS 3+ превратилась в модульную библиотеку, чтобы не плодить 2-3 разные библиотеки под поколения RTX видеокарт. Скажем, на моей RTX 2070 с DLSS 3+ “пакета” будут доступны только DLSS 2 + Reflex, а на какой-нибудь RTX 4070 — ещё и FG в придачу.
Очень подробное объяснение принципа работы DLSS и FSR