Вице-президент NVIDIA не исключил, что генерация кадров из RTX 50 в будущем появится на старых видеокартах
Издание DTF обратило внимание на интервью, которое Алекс Батталия из Digital Foundry взял у Брайана Катанзаро — вице-президента прикладных исследований глубокого обучения в NVIDIA.
На вопрос о выборочности работы технологии генерации кадров Брайан ответил, что прямо сейчас NVIDIA сфокусирована на том, чтобы она хорошо работала на картах новейшей серии RTX 50, так как именно в ней есть те самые тензорные ядра, позволяющие генерировать до 4 кадров за такт.
Однако, он не исключил, что преимущества технологии достанутся «старым» картам вроде RTX 30 и RTX 40.
Цитата«Мы выпускаем лучшую версию мультикадровой генерации на 50-й серии, и в будущем мы посмотрим, что можем выжать из предыдущих поколений RTX».
— Брайан Катанзаро.
Напомним, что у AMD есть аналогичная технология FSR 3 Frame Generation, которая работает на всех актуальных видеокартах.
07.01.2025 168 NVIDIA анонсировала RTX 5090 и DLSS 4
Щедрые какие. Чего уж там. Можно и 33 кадра потом научиться тянуть из одного реального. Может и на картошке потом FPS подтянется...
Наверное я что-то не понял.
Генерация кадров от NVIDIA доступна только в графических адаптерах 40-й серии (ну уже и 50-ой), это оговорочка или снова всё враньё и эту забытую технологию можно было всунуть везде (с 20-ой по факту).
Будет ли побежден FullHD к моменту выхода RTX 9090?
FullHD скорее переживёт человечество. Современные игры и на RTX 4090 в 4K умудряются выдавать слайдшоу, заставляя бедные видеокарты пыхтеть, как тульский самовар.
Производители видеокарт из года в год будут обещать золотые горы и "невероятный скачок производительности" с каждой новой серией. А на деле это будет кончаться DLSS-гомеопатией.
запусти на 4090 игры которые вышли ДО эпохи 4000 серии, увидишь скачок, что не так?
не сгущай краски
За отдельную плату)
Ну не знаю... вот недавно в демку "Казана" играл, так там 130-150fps. Или вот ER... там 99% времени стабильные 60, и это с лучами. И да, все в курсе, что в играх с трас. пути, без dlss всё печально. В недавних Спейс маринах, вроде в районе 100 было. С месяц назад Returnal перепроходил в коопе, так тоже сотка была, и там тоже трассировка, хоть и совсем чутка. Ну а про инди, в которые в основном и играю, даже говорить смысла нету. Из нового ещё играл в Обезьяну и Индиану, cмысла про них говорить тоже нету — трас. пути, ну и соответствующий результат. Не помню уже, но вроде больше не во что не играл из нового, ну кроме инди.
Ну чисто программно эти (и другие, в частности FSR) преимущества возможно организовать даже и для не поддерживающих это аппаратно старых карточек, что, собственно, и так активно применяется (на гитхабе хватает решений). Хуже, разумеется, чем на аппаратном уровне, но тем не менее. Собственно, тут и обещан был программный апдейт, аппаратно же более старые карточки чисто физически лучше не станут уже. Не дадут нвидиа, выдадут ровно то же самое другие, а тут по сути пиар дополнительный на ровном месте.
да пшик всё это игор то норм чтоб и физика и графоний нету ток разработка всё дорожает на неоптимизированных движках
зы лично я не брезгую могу и 640x480 поиграть
Запустить старьё на новой карте и радоваться фреймрейту - это как купить дорогущий телескоп "Хаббл", чтобы разглядывать соседский балкон. Да, видно будет чётко, но смысл? Прогресс заключается не в том, чтобы старое летало, а в том, чтобы новое летало в течение какого-то гарантированного срока, чтобы запас для нового был ещё лет на пять, а не наоборот. Люди покупают качественную одежду, жилую площадь, автомобили, продукты и так далее с запасом на будущее, а не на прошлое.
Реальность куда более жестока. Производители видеокарт, как цыганские торговцы на ярмарке, обещают чудеса, а на деле подсовывают тухлый товар, прикрытый маркетинговой шелухой. "Невероятный скачок производительности" на деле оказывается парой процентов прироста. А DLSS — это как аспирин при раке: вроде и помогает на время, но проблему не решает.
Дум3 и Кукуруз: Главное что бы на соседском балконе было на что посмотреть
Ну народ убедили что мониторы меньше 4К и миллиона герц только для лохов — их надо как то раскачивать. Хорошо было с ЭЛТ — ставь какое хочешь разрешение, всё прекрасно.
Есть такая программка Lossless Scaling называется так она вроде уже может генерировать до 10 фэйковых кадров)) даже на старых карточках, и причем говорят что при генерации вплоть до 3-4 фэйк-кадров качество вполне премлемо, но а с выше 5 конечно начинаются жуткие искажения картинки.
Быть не может )
моя инфа уже устарела, эта прога могет в 20 фэйк кадров) вот пример как это будет выглядеть с 20ю генерируемыми кадрами)
@\miroslav\ слушай, ну там и при 2-ух кадрах заметные артефакты при вращении камерой.
@piton4 где то видел, вспомнил:
Так понятно что будет ухудшение, тут дело то в том что Инвидия кукарекает про то что может быть Хуанг расщедриться и его новая х3 генерация кадров будет работать и на 30-40 серии, когда эта тема уже, хоть и худо бедно, но работает на карточках где даже нет рт ядер).
@Ленивый ну да, оно работает, но картинка сыплется в движении. Судя по надписи сверху, эта хрень ещё и недоступная.
Так RT-ядра не причём, там тензорные вроде задействуются. Но да, работает и без ядер. Так похожее и в телеках работает, и вообще без всяких карт.
Пример с Дед спэйс прям офигенный.
Ну в телеках с задержкой кадра в таком случае все очень ужасно, тут вроде намного лучше.
Ну просто тут правильный пример применения технологии — играть хоть как то чем никак.
А недоступность кому она когда мешала, хотя ес-но такие штуки лучше покупать что бы обновляться регулярно.
От проца она хорошо зависит, действительно древнее железо не вывезет. Я хз, но кажется это отличный костыль для встроек.
Я вот думаю, лучше уж разрешение снизить, настройки подрезать, чем всякие богомерзкие технологии по типу FG использовать. Если бы сейчас был какой-нибудь 15 век, то на людей использующих FG, охотились бы инквизиторы. Всё это от дьявола.
Ну сам думай, дело твоё конечно, но как бы в конце пути, наказания за такое не было
Вот как ты в монастырь уйдёшь, подальше от соблазнов Хуанга. Так сразу начну думать. А щас голова занята — я в неё ем.
Хорошее занятие
а кого наказывать-то, если утилита легально продается в стиме, хоть и недоступна для нашего региона?
Блин, фрейм генератор говно. И если он вместо одного доп кадра будет выдавать 3 доп кадра говном он быть не перестанет.
При его использовании появляется импут лаг небольшой но заметный и неприятный. И это заметно не только вы быстрых играх а в обще везде. Было у тебя 60фпс включил стало 100+ картинка плавнее а отзывчивость по ощущению будто 30.
ты презентации вообще хоть раз смотрел? там все тесты “старых” игр, ни кто не выкатывает тесты игр которых нет. хз, что там придумают разработчики. ну а что там придумают в UE попробуй еще угадать. ну и, попробуй просто не ставить в ультра, и все будет хорошо
опять ты пытаешься подменять понятия.
отправил бы тебя посмотреть умных людей, но ты не станешь, оставим как есть, плохо и ладно
О да, презентации — священные скрижали маркетинга, где старые игры, отполированные до блеска и запущенные в идеальных условиях, демонстрируют скачок. В этом-то и проблема. Это чистой воды манипуляция. Они создают иллюзию скачка, который на практике оказывается пшиком, когда дело доходит до новых проектов.
Задача производителя железа — не просто показать, “как летает старьё", а обеспечить запас производительности на будущее. Они обязаны учитывать тенденции развития игровой индустрии, знать о новых технологиях, которые разрабатываются, и прогнозировать требования будущих игр. Крупнейшие производители железа (Nvidia, AMD) тесно сотрудничают с разработчиками игр и игровых движков, поэтому они прекрасно осведомлены о грядущих технологических прорывах и требованиях к железу. Они знают о планах разработчиков на годы вперёд.
А это вообще за гранью. С таким же успехом можно сказать: "Не надо ездить быстрее 60 км/ч на суперкаре за три миллиона долларов, и всё будет хорошо". Смысл тогда покупать топовую видеокарту за бешеные деньги, если её потенциал нужно искусственно ограничивать, опуская настройки графики? Это абсурд. Люди покупают топовое железо, чтобы играть на максимальных настройках с комфортным фреймрейтом в течение нескольких лет, а не для того, чтобы крутить ползунки настроек вниз.
Это не подмена понятий, а прямая аналогия. Человек, покупая дорогую куртку, рассчитывает носить её несколько сезонов. Приобретая квартиру, он планирует жить в ней долгие годы. Покупая автомобиль, он ожидает, что тот будет служить ему верой и правдой не один год. Никто не покупает вещи, заведомо зная, что они устареют или перестанут выполнять свои функции через год. То же самое и с видеокартами. Покупатель рассчитывает на запас производительности, чтобы играть в новые игры на максимальных настройках в течение длительного времени.
"Умные люди" — это, видимо, те, кто рассказывает о "магии" DLSS.
DLSS — это, по сути, апскейлинг. Он создаёт изображение более низкого разрешения и растягивает его до нужного, используя алгоритмы машинного обучения. Да, это позволяет получить более высокий фреймрейт, но ценой снижения качества изображения. Это костыль, который позволяет временно решить проблему недостаточной производительности, но не устраняет её корень. И вместо того, чтобы решать эту проблему кардинально, производители предлагают паллиативные решения вроде DLSS. Это как заклеить дыру в крыше скотчем: вроде течь перестало, но проблема-то осталась.
Нам продают иллюзию прогресса, а на деле мы получаем лишь небольшие улучшения, которые тут же нивелируются.
Так не покупай .. никто не заставляет . А как иначе будет идти прогресс без промежуточных решений ? И кто то за эти решения должен платить . Я заплатил за длсс и не жалею . Это дало мне возможность поиграть в высоких разрешения ( хоть это и частично фейк) и меня это устраивает . И судя по продажам видеокарт от хуанга, это устраивает не только меня одного . И не нужно говорить , то нет выбора , вы хаваете говно и пр.. выбор есть всегда .
Хотите сказать Дум 3 топ конфиг не вывозил? Я на Радеоне 9600про играл на средне-высоких 75фпс, а это средняя карта.
На максимальных настройках не тянул ни один конфиг, я это хорошо помню, они это еще подавали типа как задел на еще не вышедшее железо и все умилялись мол какие они крутые думают о будущем. Но с другой стороны в минималках шло даже на жифорсе mx440 который даже шейдеров не поддерживал.
Ты даже тогда фепесы мерял?
Теперь вспомни какое у тебя было разрешение монитора — явно далеко от топа.
Всё нормально там тянуло. Я через несколько месяцев после релиза проходил c x800xt на макс.
фпс не мерял, но когда они падали ниже герцовки монитора это сразу бросалось в глаза. А разрешение было актуальное 1024х768.
Речь не про утилиту. Наказание будет для людей использующих FG, и наказание не от условного прокурора, а от… хм… так сказать, инстанций “повыше”. Это шутка.
У тебя глаз алмаз просто, а если ещё и на ЭЛТ играл — то алмазный супермен.
Как это вообще связано?
Так и щас на актуальном FHD всё отлично бегает без длсс
тех же самых людей, которые рассказывали о том, что rtx — это супер технология, или еще “умнее”?
Лузинг скеил юзал, на мышке норм.. 40 в 180±
Но глюки есть.
Если нейронки уберут баги с интерфейсом. Ореолами. То почему бы нет. НО все равно реальная производительность Должна расти.
Интел думала, что люди лохи. Итог мы видим.
Ну генерацию кадров прикрутили, потом прикрутят генерацию пикселей, а потом вообще сделают генерацию игр, можно будет играть в сгенерированные видеокартой игры прям, сразу вспоминаются килобайтные демки с красивой графикой, “новые” технологии!
А прикольно, вбил нужные теги, сгенерировал и играй в игру своей мечты ) Вопрос зачем тогда ваще видяха, надо в облаке это делать.
Кстати вполне реальное развитие, щас для создания 3D контента куча генераторов всего на свете.
шутишь? На что Хуанг новые куртки покупать будет?
@Ленивый Я вот xочу застать, когда можно будет поиграть в текстовые квесты-рпг, где окружение будет генерироваться, в идеале у каждого персонажа должен быть ИИ прообраз который будет как-то реагировать, на любые твои действия, похожее уже есть, но работает весьма коряво, до того, во что реально захочется поиграть — еще очень далеко
ну так то x800xt и вышла через несколько месяцев после релиза игры, вот это и было то самое новое железо на которое был задел.
Будет гемпады продавать с мощностью 3-4 кВатт
Нет, карта вышла за несколько месяцев до выхода игры. Я просто играл через несколько месяцев, только по тому, что у меня комп только тогда появился. К слову, это второй был комп, а первый я продал.
каких новый дед? большая часть ААА и АА игр выходит на UE5, оптимизировать нужно сам движок. ты как обычно смотришь по верхушкам, пропуская первопричину всего этого. тебе опять все должны. ты еще скажи что оптимизации нет, вон на 1060 все летало, не то что сейчас
знают. и потому им нужно продать тебе через 3-5 лет новую карту. вот и все. выдыхай
я так понимаю у всех тут 4090? или 3060 (судя по стиму), давай говорить про масс маркет, а не 1% рынка (или сколько там у 4090)
только квартиры и машины НЕ устаревают! появилась новая модель машины, старая что? перестала ездить на бензине или дизеле, потому что не поддерживает новый вид бензина? она как ездила, так и ездит, обслуживай и все будет хорошо. ты когда примеры приводишь, ты бы хоть озаботился о правильных примерах, а не выкатывал простыню без смысла
про это я уже написал
ну и дремучий же ты. по мимо апскейлинга картинки, DLSS делает еще кучу других вещей, но да, мы про это забудем. и одна из главных, это сглаживание картинки, но это мелочи, да, лучше об треугольники резаться на краях всего на свете.
хочешь в это верить, верь
нет нужды про это думать, расслабься
тебе-то точно нет, ты послушаешь “умных” людей и послушно купишь распиаренный шлак)
То есть, вместо обеспечения достаточной производительности со стороны разработчиков железа, мы должны полагаться на то, что разработчики игр всегда будут идеально оптимизировать свои проекты? Действительно, зачем строить надёжные мосты? Пусть машины учатся летать. .
Именно, что они знают. И манипулируют рынком, завышая цены и выпуская новые поколения видеокарт с незначительным приростом производительности. Это называется запланированное устаревание. Они прекрасно знают, что через очень короткое время вышедшая сегодня карта перестанет справляться с новыми играми на максимальных настройках. И это не случайность, а часть их бизнес-модели. Вместо того чтобы обеспечить пользователям долгосрочную перспективу, они вынуждают их обновлять железо каждые несколько лет.
Мы говорим не о том, у кого какая видеокарта, а о принципах развития рынка и о том, как производители железа вводят пользователей в заблуждение. Даже если у большинства 3060, это не отменяет того факта, что даже топовые карты не обеспечивают достаточный запас производительности на будущее. И проблема не в "1% рынка", а в том, что тенденция сохраняется для всех ценовых сегментов.
Конечно же, не устаревают. И "вторичного жилья" не существует. И сгнившего корпуса автомобилей.
Всё устаревает. Но с квартирами и машинами процесс устаревания идёт естественно и постепенно.
И только в случае с недобросовестными застройщиками или производителями случаются ситуации, когда человек, купив новую квартиру или машину, уже через пару лет обнаруживает, что она устарела или имеет серьёзные недостатки.
DLSS, в своей основе, — это апскейлинг. Это значит, что изображение рендерится в более низком разрешении, а затем "растягивается" до нужного, используя алгоритмы машинного обучения. Всё остальное — это лишь следствия этого процесса.
Да, DLSS использует алгоритмы сглаживания. Но это не какая-то отдельная "магическая" функция. Это необходимое условие для того, чтобы апскейленное изображение выглядело более-менее прилично. Представь себе, что ты взял фотографию, сделанную на старый кнопочный телефон с низким разрешением, и попытался увеличить её до размеров плаката. Что получится? Размытая, пиксельная каша. Чтобы этого избежать, нужно использовать алгоритмы сглаживания, которые "заполнят" пустоты между пикселями и сделают изображение более гладким. То же самое делает и DLSS. Он пытается скрыть недостатки апскейлинга, используя сглаживание.
Но суть от этого не меняется. DLSS — это компромисс. Это попытка получить более высокий фреймрейт за счёт снижения качества изображения. Это как фотографировать на телефон: сколько ни крути настройки, сколько ни применяй режимы ты никогда не получишь такого же чёткого и детализированного снимка, как на профессиональный фотоаппарат с полнокадровой матрицей и светосильным объективом. Телефон пытается "дорисовать" детали, используя алгоритмы, но это всегда будет лишь имитация.
DLSS — это такой же "режим", только для видеокарт. Он позволяет получить приемлемый результат в условиях недостаточной производительности, но ценой потери деталей и чёткости. Это костыль, который позволяет временно решить проблему недостаточной производительности. И этот костыль нам подсовывают вместо того, чтобы решать проблему кардинально — обеспечивая достаточный прирост производительности от поколения к поколению.
Меня очень забавляет, что производители видеокарт всю историю ещё с Riva TNT кормят игроков фекалиями, обещая новые технологии, которые сделают жизнь лучше а графику краше, каждый роз обманывают, а игроки каждый раз удивляются. Толку-то с высоких кадров, если компиляция шейдеров занимает всё больше и больше времени, а фризов меньше не становится. Лучше в 30 кадров играть без фризов, чем в 240 но с желейным управлением, и фризами каждые 5 минут. С 2018 Nvidia идёт куда-то не туда. Я понимаю, что лавеха мутится, но компания может скоро упереться в ту же стену что и intel.
Можешь подробнее расписать про контекст упоминания интелов?
В случае с видеокартами у них по идее какое-никакое развитие идёт (относительно их же прошлых продуктов, впрочем да, особо без инноваций). А с процессорами у них есть конкуренция, в результате, направления развития у них не ограничиваются энергоэффективными недоядрами.
Интел поверили в закон Мура, и годами доили пользователей на новые сокеты, и сомнительные решения навроде атомов. В итоге деньги кончились и они упёрлись в стену техпроцесса, преодолеть компания пока не в состоянии.
Ну это-то у них уже давно происходит. Ничего принципиально нового.
С техпроцессом, ну периодически нанометры уменьшаются, пока что есть ещё, куда идти дальше. Если посмотреть на современные серверные решения, то по ним можно сделать вывод, что на рынке железа для пк им ещё есть, куда дальше “доить народ”, ещё на десятки лет вперёд. Все эти процессоры под сотню полновесных ядер сейчас попросту не нужны для обычных пользователей. Упор один смысл идёт чаще в скорость связи с памятью, а также непосредственно в видеокарты, чем в процессоры как есть. Тут впору уж вообще общую архитектуру, саму логику устройства пк, переделывать.
я куплю то, что посчитаю нужным и оправданным по цене. вас послушать, так прогресс нужно было остановить на денди, потому что лучше не будет. нытики унылые
разработчики железа открывают “новые двери” в мир реалистичной графики, предоставляя технологии в массы. у тебя память что ли отшибло? забыл, что ВСЕГДА играть на ультра могли себе позволить только обладатели самых-самых жирных сборок. есть одно единственное исключение — 1000 серия и народная 1060, которая давала производительность вчерашнего флагмана за много денег, за очень умеренный прайс. и именно тогда, появилась “оптимизация”, потому как у всех на руках оказался фактически флагман. до 1000 и после 1000 такого больше не было. святой 2004, не каждый мог запустить HL2, DOOM3, Far Cry на максималках и получить в 1024*768 стабильные 60, всегда приходилось чем-то жертвовать в настройках. словно с детьми говоришь, ей богу.
+20% примерно было постоянно. два исключения — 1000 серия и 4090, которая дала почти двухкратный прирост по сравнению с флагманом прошлого поколения. что-то вы на intel не гоните, которые +5% делали и все бежали покупать. в сторону AMD носом воротите. вы сами сформировали рынок где nvidia стала фактически монополистом. за что рублем голосовали, то и укреплялось.
если подходить к настройке игры с умом, то 3060 показывает достойный уровень производительности за свои деньги. это раз. два, топовые показывают исключительный уровень производительности, если опять таки с умом подходить к настройки игровой графики. а не в тупую — все ползунки в правую сторону, потому что у меня 4090! честный расчет еще не по зубам современному железу. той же трассировке не один год, и то что раньше считалось днями на 1 кадр, сейчас в реалтайме (с оговорками конечно) считается в 30 кадров в секунду на 4к в честную! а если докинуть dlss то во все 60+. против чего воюешь воин?
естественный физический износ. или у тебя читы на жизнь есть? дом может столетиями стоять, если за ним следить и обслуживать. машина может столетиями служить, если ее так же обсуживать. да, ты ее переберешь 100 раз, физику еще ни кто не отменял. к чему твой пример блин?
как? как машина может устареть? ну что ты за бред несешь?!? серьезный недостаток, это может, могли допустить ошибку в конструировании, могли заложить повышенный износ на определенную деталь (есть такая профессия — инженер по разрушению, который делает так, что бы все ломалось через определенный срок, рынку не нужны вечные вещи!)
более менее? иди запусти любую игру до эпохи темпорального сглаживания, и посмотри на прекрасную игру когда все рябит от лесенок. на все эти переходы лесенкой. красиво да? скажешь — так есть же сглаживание! да, есть, включи и увидишь, что фпс таят на глазах, а лесенки как были, так и остались. и что бы их убрать, нужно было это сглаживание выкручивать в потолок, роняя при этом фпс. вот прекрасные времена были! не то что сейчас, все эти dlss rtx…
качество изображения — улучшается! да, в каких-то очень мелких вещах будет чуть-чуть хуже (издержки), но глобально картинка становится лучше именно благодаря современным алгоритмам обработки и фильтрации выводимой картинки.
это ты застрял в эпохе DLSS 1, поры вылазить с погреба.
и еще раз для всех, скачайте, не поленитесь любую игру до эпохи темпоральных алгоритмов сглаживания и посмотрите на игры в честную. если лень, загуглите разборы развития графики в играх, и посмотрите как было ужасно (но мы терпели, потому что любили игры) и как хорошо (не у всех выходит) сейчас (но по вашему мнению ужасно, потому что вы перестали банально любить игры)
На Сеге!
не… это ты застрял всей головой в заднице маркетологов) от того, что циферка сменилась — технология не перестала портить картинку и не перестанет) то, что ты не желаешь видеть — ну фигли с тобой поделать то ? живи, жуй
ты к слову там уже Японского Мега Афро Самурая Ясукэ — смог осмыслить?) а то уже вся япония осмыслила и нашла в этом преступление , а ты все проблемы не видишь...
на спектруме ! самый лучший ПКунь был)
Лично со Спектрумом не общался. Поверю на слово.
Еретик ! на плаху его !
Чё сразу еретик то? Чё на плаху то?;
Обычный советский ребенок, буквально сын рабочего и колхозницы. Где бы я Спектрум добыл? Но я же мечтал о компе ещё тогда. Так что не еретик, а истинно верующий ПКбоярин!
У нас продавалась наша реплика под названием компаньон (у меня как раз такой был), были и другие клоны, так что добыть его в 90-х ни разу проблемой не было. Помню там было 320х240 разрешение, 1 бит на точку, и дополнительно по байту на квадраты 8х8 задававшие основной/дополнительный цвет и мигание (3 бита на основной цвет, 3 на дополнительный, один бит — яркость, что увеличивало число доступных цветов вдвое и 1 бит мигание, если память меня не подводит). И чтобы вывести что-то на экран достаточно было просто в определенное место в памяти записать данные. А не вот эти вот ваши все извраты, что сейчас понапридумывали.
да вроде они были общедоступными… был период когда их паяли почти все кому не лень, т.к. инженеров было много , а схемы появились в каком-то там журнале
Технически, может, и не было проблемы добыть комп. Но вот лишних денег у родителей не было, увы. И среди родственников и друзей тоже ни у кого компа не было.
честно говоря я был маленький , ну относительно — Очень школьник, и не помню , как там с деньгами было… отец сам спаял)
У меня родители покупали, я тоже был мелкий и не помню точных цифр, но помню, что он стоил дешевле той же денди.
Ты упускаешь главное: ответственность. Производители железа несут ответственность за то, чтобы их продукция соответствовала требованиям времени. Открывать "новые двери" — это, конечно, здорово, но если эти двери ведут в комнату, где невозможно комфортно находиться, то грош цена таким дверям. Твои воспоминания о том, как "ВСЕГДА играть на ультра могли себе позволить только обладатели самых-самых жирных сборок" — это не оправдание, а констатация факта, что производители железа всегда пытались продать нам больше, чем мы реально получали. Исключение с 1060 — это лишь подтверждение правила. Это был редкий случай, когда производительность действительно соответствовала цене. Но это не значит, что теперь мы должны смириться с тем, что нас постоянно обманывают.
Это опять попытка оправдать недостатки железа. Мы покупаем топовые видеокарты не для того, чтобы "с умом" ковыряться в настройках, а для того, чтобы наслаждаться игрой на максимальных настройках. И если для этого приходится прибегать к ухищрениям вроде DLSS, то это говорит лишь о том, что производительность железа недостаточна.
Мы говорим не о случайных ошибках, а о запланированном устаревании. Производители железа сознательно создают ситуацию, когда их продукция устаревает через несколько лет, чтобы вынудить пользователей покупать новые модели. И это не теория заговора, а реальность рынка.
Проблема "лесенок" (aliasing) на краях объектов в компьютерной графике возникает из-за дискретизации изображения — представления непрерывного сигнала (изображения) в виде дискретных пикселей. Проще говоря, кривые линии и наклонные края на экране, состоящем из квадратных пикселей, выглядят ступенчато. Для борьбы с этим эффектом были разработаны различные методы сглаживания (anti-aliasing).
В древние времена использовались такие методы, как MSAA (Multisample Anti-Aliasing), FXAA (Fast Approximate Anti-Aliasing) и SMAA (Subpixel Morphological Anti-Aliasing). MSAA был наиболее качественным, но и самым ресурсоёмким, он требовал многократного рендеринга каждого пикселя, что существенно снижало производительность. FXAA и SMAA были менее требовательными, но и качество сглаживания у них было ниже, часто с размытием изображения.
Затем появилось темпоральное сглаживание TAA — оно использует информацию о предыдущих кадрах для сглаживания текущего. Это позволяет достичь хорошего качества сглаживания с меньшими затратами производительности, чем MSAA. Но и у TAA есть свои недостатки: "призрачные" артефакты (ghosting) - размытые следы от движущихся объектов, а также размытие мелких деталей.
DLSS же — это аппроксимация. Он не создаёт изображение высокого разрешения с нуля, а восстанавливает его на основе имеющейся информации. И, как любая аппроксимация, он неизбежно вносит ошибки. Эти ошибки могут проявляться в виде потери мелких деталей, размытия текстур, артефактов и других искажений. Да, в некоторых случаях DLSS может выглядеть лучше, чем нативное изображение в низком разрешении с обычным сглаживанием, но это не значит, что он "улучшает" качество изображения в абсолютном смысле. Он просто делает компромисс между производительностью и качеством, смещая баланс в сторону производительности.
DLSS — это костыль, а не лекарство. И вместо того, чтобы полагаться на костыли, нужно требовать от производителей железа достаточного прироста производительности, чтобы играть в новые игры на максимальных настройках без каких-либо компромиссов.
Видел подобное с аниме девочкой в 3д, там одна из целей получить пароль к ее компу. ИИ-аниме-девочка пароль к компу не говорит. Нужно наводящими вопросами, через разговор выудить у нее информацию о ее пароле. Ну если это слишком палевно происходит, ей не нравится. Если ты начинаешь, рыскать в ее вещах ей тоже не нравится. Она у тебя тоже что-то спрашивает, и пытается увести тему, если ты ей грубишь, то она злится и по-моему тебя убивает. Сообщения и вопросы ты сам полностью печатаешь. По-моему там даже озвучка была всех фраз генерируемая в воздухе. Всех подробностей не помню, я мельком глянул на ютубе прохождение.
да-да, именно такие кушали лапшу про “божественный ССД”, “революционный RTX” и прочие сказки маркетологов. Немамонты — такие немамонты)
Ну на счёт 20% я не уверен, мне кажется поболее было. Да, у 1080ti и 4090, действительно самые большие отрывы от предыдущих поколений. Ещё, насколько помню, у 8800gtx был очень серьёзный отрыв от 7800gtx.
Кстати, уже вышли независимые тесты. В 4k, 5090 производительнее 4090 на 30-40% в среднем, в 1440p на 20-25%
@Dusker 30-40%
FXAA и SMAA ещё встречаются, а вот от MSAA можно сказать все отказались, хотя это самое лучшее по качеству сглаживание. По сути там кратно увеличивается разрешение, но только на краях объектов. То есть 1080p с 8xMSAA, это по сути объекты с границами в 16k, ну и соответстыено умнньшение “лнсенок” за счёт этого, ну и практически отсутстыие замыливания.
Неплохо неплохо. Наконец поиграю в киберпанк с 25 фпс.
Так это, глаз больше 25 кадров все равно не видит.
И то верно.
Никогда не сомневайся в моих словах ))
Будешь брать?
Не. У нвидия сейчас такая политика, что либо ты берешь топовые карты, либо не берешь ничего. К синим придется идти.
В общем-то согласен.
За прибавку в 400 баксов к прайсу, сомнительная прибавка к производительности. В этом поколении 5080 выглядит более привлекательной, там хотя бы прайс не изменился, и прибавка есть, не большая, но для владельцев 3ххх серии, если цена будет адекватной, топ решение.
Кстати, говорят 5ххх ожидается жёсткий дефицит карт на старте, так как Nvidia не успела произвести достаточно карт к старту продаж. Жду того чела, который собрался за 300к купить 5090 на озоне с пруфами. Надеюсь он не пропадёт и не сольётся.
Не успела ли или же даже и не собиралась успеть? Всё-таки даты начала продаж устанавливают они сами. Хмм.
Учитывая, что они несколько месяцев назад сняли с производства 4ххх серию, выделив линии для 5ххх. Дефицит на старте выглядит, как будто Хуанг решил несколько партии у себя в подвале придержать. 2000 баксов это конечно хорошо и много, но хомячьё нужно разводить по полной.
Ну теперь это выглядит как ещё более явным образом искусственно созданный дефицит, а не просто додумки на основании косвенных данных.
У линейки arc только по тестам на топовых системах всё замечательно на вид, увы. В сочетании с процессорами похуже (в более реалистичных сценариях то есть) картина уже отнюдь не в пользу интелов. То есть и тут есть “нюансы”.
Особенно мне “нравилось” в их прошлом поколении карт, когда надо войти в биос, чтобы включить ребар (а без него эти карточки дико теряли в производительности), а их карты сам биос отрисовать-то сами не могли по каким-то невразумительным причинам и нужна была или другая карта или интегряшка. Про новую их карточку, впрочем, ничего сказать не могу, мне впечатлений за глаза уже хватило.
Не удивлюсь, если опять создают искусственный спрос. Чтобы всех убедить что “надо урвать пока есть и по любой цене”.
Правильно, через пол-года, появились новости о приостановке заводов и… барабанная дробь… росту цен ан память, которую до этого никто не покупал даже по низким ценам 

Что-то сони с их ПРО версией это не помогло
Помню как недавно был период когда все писали, что память никому не нужна, склады завалены. И что вы думаете, упали цены?
Как же всё однообразно по методам наживы и обмана… даже уже как-то разочаровываешься в этих дельцах, неужели больше ничего хитрее не придумают
Тсс, а то вдруг реально что-то новое придумают, как тогда быть-то.
Я несколько дней назад, ни одного объявления по 5090 почему-то не нашёл на авито, хотя до этого были.
Часть сняли сами продавцы, поняв, что не смогут предоставить карты (вообще не смогут в указанное время), остальное было прикрыто модераторами после проверки, т.к. был явный скам.
Почему-то совсем не удивлён.
Наверное да.
А вот удивился. Даже по разному вбивал )
Но к сожалению, с картами по типу 5090 такое прокатит, так как данная карта не только подходит для игр, но отлично вписывается для работы, может и майнить будет вполне себе отлично. Поэтому потребитель на сильно завышенный прайс найдётся. Чего уж тут говорить, если недавно тут товарищ за 300к, готов был карту с руками урвать, так это он себе для игр. А вот ребята, которые занимаются майнингом и графикой, тем более пожалеют и 500к отвалить. Да те же дата центры, через которое идёт обработка и обучение ИИ, строят у нас чуть ли все крупные компании по типу Сбера, Яндекс. Скупят все партии не смотря на прайс.
Так тоже заметил, так как не знают когда получат первые партии, ибо дефицит, и не знают какой прайс выставлять реальный. Я же говорил, что многие ставили на авито цену затычку, которую постоянно меняли, ибо не знали по какой цене реально получат карты и придётся продавать. Теперь ждут реальный завоз и чую, там будет прайсик явно за 400к+. Даже те же блогеры, спокойно скупят по такой цене карты, чтобы снять контент.
ой как обидно, сейчас буду расстраиваться…
а что там осмысливать? игра и игра, что не так?
так, а где что не соответствует? ну давай разберем на очень ярком примере (всеми признанном) Крайзис. в момент выхода игры, ни один топовый ПК тех лет, не мог в эту игру. далее, сами разработчики говорили, что пресеты графики выше высоких, были для пк которые выйдут через 2-3 года (они так думали, что такие ПК смогут) революционная на тот момент игра. хочешь еще пример? Готика 3, Обливион, ставили на колени любые ПК тех лет, если выставить все на максимум, и то, эти максимум были подрезаны (все помнят отрисовку травы на максимум метров 50-60 или около того). я отлично помню как вышел первый Квейк, и ПК не тянул эту игру, только в шакальной графике на софтверной поддержке. какая блин ответственность? о чем ты? что за мани мирок у тебя?
это исключение. как в свое время были процессоры core2duo. которые сделали огромный скачок в производительности, а потом все скатилось в +5% и все были рады, что твой проц на 5% быстрее, счастье то какое!
совершенно нет. давай посмотрим на это вот с такой интересной стороны — это разработчики игр, тебе дали такую возможность добавив запредельные уровни графики для нынешнего поколения железа, потому что жизненный цикл игры не 1-2 месяца, а года. и нужно что бы потом она выглядела хорошо. но не выпускать же к ней потом патчи через 2-3 года, сразу добавили такую возможность. далее, вот лично ты, сможешь в динамике отличить пресет графики средний, от высокий? в 99% что нет, все эти отличия. это мелкие детали которые ты не видишь, потому что не знаешь куда смотреть. это нужно быть специалистом по графике, и очень внимательно рассматривать все уголки, чего не делает ни один игрок который побыстрее бежит к концу уровня, потому что ему еще сегодня нужно 2 игры успеть пройти перед сном.
вторую часть ты решил не постить, что бы сказать то, что я сам сказал. молодец, твои читатели оценят такой мув
наконец ты полез в гугл (ой, прости, в яндекс) и выдрал оттуда описание сглаживаний. только вот ты забыл добавить, все прошлые итерации не справлялись со своей задачей, даже в самой жесткой форме было были артефакты, и что самое страшное, фпс опускался на уровень 6 кадров. и только благодаря TAA, мы получили какой ни какой, но баланс в качестве сглаживания и получаемой картинке. да ни без греха, но в целом картинка становилась куда приятнее глазу. и все это можно с примера найти на youtube (не уверен что есть на тех платформах, которыми вам разрешено пользоваться)
деревня ты. простой пример любые провода на средне — дальних фонах. сам кабель есть, он проходит рендер, но из-за не совершенства алгоритмов вывода изображения, он или исчезает (пока ты не подойдешь ближе) или же мерцает или выводится только частично. для DLSS же этот провод есть, и он его честно выводит. и не важно, какое у тебя разрешение. да, качество выводимой картинки будет зависеть от того, в какое итоговое разрешение ты выводишь. если это 1080, то да, картинка будет иметь шероховатости. которых еще больше в нативе. в 1440 уже сильно лучше, а если целевое 4к, то там все отлично и даже лучше чем в нативе! опять таки, есть куча видеороликов с примера, ищите. только не нужно в пример приводить первые итерации dlss, где алгоритм был еще не так хорош.
просто в голос! любая игра, это набор костылей (смотрим любой разбор графики, в любых играх), особенно в тех местах, которые касаются теней, затенения, само затенения и освещения в целом. и только rtx, дает настоящие, физически корректные тени (с некими ограничениями ввиду ограниченной мощности железа). нужно только научится им правильно пользоваться
это не ради обиды — это та самая часть тела которой они обращены к потребителю и как следствие…
Твой пример с Crysis, Gothic 3 и Oblivion — это классическая подмена понятий. Да, в то время игры опережали возможности железа. Но это были отдельные случаи, а не систематическая практика, как сейчас. Разница в том, что тогда это было связано с прорывом в технологиях, а сейчас — с недостаточным прогрессом в производительности. Ты сравниваешь яблоки с апельсинами. Тогда разработчики действительно пытались создать что-то новое, не оглядываясь на текущие возможности железа. Сейчас же производители железа обещают нам "скачок", который на деле оказывается пшиком, а потом предлагают костыли вроде DLSS, чтобы скрыть свои недостатки.
1060 была исключением, которое подтверждает правило: производители железа не обеспечивают достаточный запас производительности на будущее. И твои сравнения с Core2Duo здесь неуместны. Core2Duo действительно совершили прорыв, но этот прорыв был обусловлен технологическими ограничениями того времени. Сейчас таких ограничений нет, но производители железа сознательно замедляют темпы роста производительности, чтобы максимизировать свою прибыль.
Если для комфортной игры на максимальных настройках приходится использовать DLSS, то это прямое доказательство того, что производительность железа недостаточна. Твои вопросы про "отличить средний пресет от высокого" — это демагогия. Мы говорим не о том, что каждый игрок должен видеть разницу между всеми настройками, а о том, что существует разница, которую видят те, кто её ищет. И эти люди платят деньги за возможность играть на максимальных настройках. И они имеют на это право.
Твои рассуждения про "прошлые итерации сглаживания" и "6 кадров" — это опять попытка увести разговор в сторону. Мы говорим о сегодняшнем дне, а не о том, как было раньше. И тот факт, что TAA лучше, чем MSAA или FXAA, не оправдывает использования DLSS. TAA — это метод сглаживания, который работает в нативном разрешении. DLSS же — это апскейлинг, который снижает исходное разрешение. Это принципиально разные подходы.
DLSS не "честно выводит" провода. Он аппроксимирует их, используя алгоритмы. И чем дальше объект, тем сильнее эта аппроксимация. И твои утверждения о том, что "в 4к всё отлично и даже лучше чем в нативе" — это просто нонсенс. DLSS никогда не будет лучше нативного разрешения. Он может лишь скрыть некоторые недостатки, но он никогда не сможет создать изображение, которое будет лучше оригинала.
Есть одно существенное отличие между стандартным набором "костылей" и DLSS. Никто не пытается выдать SSAO за революционную технологию, которая "улучшает качество изображения". Никто не кричит на каждом углу, что низкополигональные модели — это "прорыв в графике". Эти "костыли" воспринимаются как необходимое зло, как компромисс, на который приходится идти ради производительности.
А вот DLSS — это совсем другая история. Его нам преподносят как инновацию, как "магию", как "решение всех проблем". Нам рассказывают сказки о "восстановлении деталей", об "улучшении качества изображения", о "революционных алгоритмах", о том, как “суперкомпьютеры сутками делают технологию лучше”. Всё это под соусом агрессивного маркетинга, который пытается убедить нас, что DLSS — это не костыль, а лекарство от всех болезней.
DLSS — это маркетинговая уловка, которая пытается скрыть недостаточную производительность железа.
DLSS — это не "инновация", а всего лишь временное решение, вызванное нежеланием производителей железа обеспечить достаточный прирост производительности.
А ведь на старте продаж, 4090 спокойно можно было в днс купить. Насколько помню, там в районе 150 было, palit или aorus, не помню уже. То есть вообще без проблем. А многие ещё нос воротили и искали версии получше, и я в том числе )
Вы оба не правы. Сделать игру которая тормозит на любом железе — не прорыв. И сейчас можно легко сделать такую игру, которое даже какая нить RTX 6090 не потянет. Можете поиграть, в инди проекты, хорроры. Там нихрена особо нет графики никакой, но тормозит даже на топовом железе. Если этого будет недостаточно, можете пойти поучиться сами игры делать. Напихаете в проект кучу ненужной физики, будете использовать сложные для вычисления коллайдеры, вместо простых где можно, так же напихаете дофига высоко полиогональных обьектов, не оптимизируете код и будет у вас тормозить игра.
Если вспомнить времена когда трава была зеленее, то вспомните как выглядели проекты раньше и какое железо стоявшее на сеге, ps1 было и игры нормально игрались, и сравните с аналоговыми проектами, которые имеют такую же графику как те проекты что были тогда, и какое железо они требуют сейчас.
я даже не знаю как реагировать когда такое пишет ОН.
а ОН уже “Великий магистр”
Тогда понятно, ушел в угол плакать… от счастья… на наших глазах вырос такой эксперт. Гордость переполняет.
На счет что они оба неправы не знаю, бог их рассудит)), а вот на счет всего остального полостью поддерживаю!
130-135к , я еще помню давал совет подождать — цена упадет…
заскринил и запомнил: советы не спрашивать
А если по делу, деньги есть, лучше лишние, берите не раздумывая то что вас устраивает, кто знает что будет завтра. Особенно если есть возможность сбагрить то что у вас уже есть.
А вот если хотите обновиться, но железо относительно свежее, то может оно того и не стоит.
Ни фига себе… 130k! А кто-то наверное всё ждёт и ждёт, смотрит на цены и вспоминает тебя “добрым” словом ))
а, вот из за кого я все еще жду
для таких случаев надо какую-нибудь отмазку иметь, чтобы у подъезда потом не подкараулили
А то один вот сказал публично что выкупит $ по 40 и чтобы все запомнили, все и запомнили этот твит
вот, вот.
Офиц. ответ: ты просто его ни так понял.
Я думаю тут отмазки не прокатят. Если кто-то действительно затаил на Фри злобу из-за того совета, и хочет действовать, то скорее всего человек уже всё для себя решил, и Фри уже никакие слова не помогут.
@Фри смотри, с подъездами поакуратнее будь.
да господи, возьми любой год, любую игру (ну ладно не любую, хватало поделок на коленке, которые ничего из себя не представляли) и посмотри тесты на ультра на актуальном железе тех лет. там везде топы в нативе в актуальных на те времена разрешениях не тянули игры в ультра в 60…
сколько себя помню, с самого первого ПК который появился дома в 1994 году, никогда не получалось играть в максимальных настройках. всегда чего-то не хватало. а Кризис, Готику 3 и Обливион привел как яркий пример (но опять не то, как всегда — это другое)
ты уж определись чего ты хочешь или пусть не смотрят или все же несли ответственность
нужно было кричать и кидать помидоры, что производители железа не могут в Кризис в 1080 в 60 на ультра на актуальном железе. мы тут же переобулись и норм, они старались, а RTX, который без костылей считает свет и тени, отражения, это ерунда и маркетинг! так еще и производители железа должны! DLSS и был введен для того, что бы компенсировать потери все еще тяжелой технологии для расчета в реалтайме в 60+ на 2к+ дисплеях. и если чуть-чуть подумать (прости что заставляю это делать, но мир ПК такой, да, руки развязаны, но головой думать все же нужно) то можно получить отличный баланс в картинке и фпс на своем (актуальном rtx3060+) железе
ну хоть согласен что 1060 исключение. но выводы в корне не верные. почему, я уже не один раз написал, но ты игнорируешь. продолжай
если они не видят, это чьи проблемы? люди которые играют на самом топ железе, играют на ультра в любом проекте с соответствующей производительностью. если разработчик уделил должное внимание оптимизации UE5 (актуальный движок на сегодня. но как показала практика, далеко не каждый этим занимается, вот незадача)
то есть, лучше, когда их нет? да? я чет не понял
ага, как скажешь, только вот dlls 4, смог вывести то, чего не видно в нативе. да, с этим не справлялась 3 редакция, но разве делала хуже? надписи как не было, так и нет. у-у-у, проклятые технологии!
рога в воротах застряли? ты находишь оправдания костылям, как необходимому злу, и тут говоришь что dlss зло, потому что оно убирает… костыли! то есть, ты предпочитаешь костыли. так и запишем. ок
потому что люди не умеют работать с инструментом. корень таких проблем реклама UE5 — что больше не нужно парится, движок все сделает. но он не делает ровным счетом ничего. уметь с ним работать ни кто не отменял. это бич современной индустрии, но виноваты конечно производители железа с их rtx и dlss =) верю, да… (нет)
Вот что бывает, когда слишком много смотришь маркетологов.
В марте 2023 года, в том же ДНС можно было взять 4090 за 130к от Палит. Я как раз в то время покупал 4080 за 100к, а были ещё варианты за 90к+. Я тогда ещё размышлял, — “а нужна мне 4090? Стоит 30-ку докидывать? Я ведь не собираюсь в 4К гейминг заглядывать и буду на 1440Р сидеть, а там и 4080 за глаза хватит”. Какой же я был тогда наивным дурачком, надо было тогда 30-ку докидывать и в хвост не дуть. А теперь какой-нибудь Индиано Джонс с полной трассировкой пути, даже в 2к мою 4080 нагибает
Можно было бы в то время разбить свинью-копилку, выгребсти збережения, и купить штук 5-10 4090 по 130, ну и новенькие на авито сейчас выставить. Ну кто ж знал ) Зато сейчас можешь вообще не париться, как и другие владельцы 4080, смысла менять на что-то ниже 5090 вообще нету. А вот на выходе 40-линейки, cмысл менять 3080 на 4080 был. Это неудачное поколение, напоминает 20-е. Хотя нет, 20-е хоть новые технологии предлагало.
ну у меня лично смысл был менять 1060 6гиг на 6950 16гиг) производительность возросла на 400%, а смысл менять 3080 на 4080 ну не знаю может для кого то и был, для кого то и 4090 на 5090 найдется.)
Ну там где-то 50% прирост, вполне норм. Ну да, а ещё больший смысл 960 на 4080 )
А вот что получит владелец 4080, если захочет обновиться на 5080? Вопрос риторический.
ну если кто то, ка кто, смог дотянуть на 960й (играя во все новинки) до выхода 4080 то да это офигенно) вот у меня лично 1060 уже реально начала плохо себя чувствовать с новинками, по этому и решил заменить ее. Нынешняя карточка еще вполне справляется в 2к разрешении, так что думаю еще годик другой в 1080р будет вывозить, ну а там уж придется опять менять(.
3 фэйк кадра и лайк от Хуанга.
Да я и не парюсь, меня 4080 в целом полностью устраивает и думаю спокойно досижу на ней до 60хх поколения, а там видно будет. На 5090 вообще не рассчитываю, адекватных цен по этой карте, как когда-то были на 4090 ждать не стоит. Максимум может цена 5080 со временем устаканится, но в ней для меня тоже смысла мала, как и владельцам 4090 от 5090. Поэтому 4080 хватит как минимум спокойно дожить без серьёзных компромиссов до 60хх поколения, тем более 4К разрешение я не использую.
Да ничего. Уже опубликовали первые тесты и там разница между 4080 и 5080, меньше чем между 4090 и 5090. В некоторых тестах разница аж 7%. Это вообще смех. Они выпустили по факту 4080 Ti.
Да, люди не умеют работать с инструментами, но это проблема не только UE5. Это проблема и на юнити есть. Я не поставил галочку Preload Audio Data, на одном файлике, и теперь когда файл впервые воспроизводится в игре, происходит фриз на секунду. Это один несчастный звуковой файлик, причем что аудио файл был в формате wav который не требуют декодирования для воспроизведения. Причем другой файлик эту галочку не требует, и ставить галочку на каждый файлик нельзя. Но факт есть факт. 1 файлик — 1 фриз. Файликов десятки тысяч в играх, которые требуют самых разных настроек.
По поводу прогресса я уверен, в том, что прогресс в играх, касательно графики и физики, давно обходит возможности железа. Сделать игру красивой с кучей волосинок, с кучей разрушаемости, частиц пыли, земли, песка и т.д — Проблем нет. Железо просто не потянет. И так уже очень давно.
всему свое время. RTX раньше недели считался, а сейчас 30-60 раз в секунду. + времена изменились, отношение людей изменились. выдал игру которую не тянет ни одна железка 10+ лет назад, ты совершил прорыв, революцию в графике и тд. выпустил сейчас — але, гараж! а оптимизация где?!? на моей 1060 в ультра должно летать! руки из мягкого места!
Акции NVIDIA на премаркете упали на 13,93%, до $122,76, свидетельствуют данные NASDAQ на 13:53 мск 27 января. Таким образом, по подсчетам «РБК Инвестиций», еще до начала основной торговой сессии капитализация компании сократилась в моменте почти на $500 млрд.
К 15:44 мск падение замедлилось до 11,42%, акции торговались по $126,34.
Спад в акциях начался на фоне роста популярности китайского стартапа в сфере искусственного интеллекта DeepSeek, передает Bloomberg. Речь об R1 — модели искусственного интеллекта, которая превзошла новейшую версию О1 от OpenAI по многим параметрам. Совокупное сокращение капитализации крупных компаний, работающих в той же сфере, что и NVIDIA, Bloomberg оценил более чем в $1 трлн.
прогнозирую резкое подорожание якобы-геймерских видюх
Вышли независимые тесты. Всё в общем-то ожидаемо.