RTX 3090 будет поставляться с 24 гигабайтами встроенной памяти, RTX 2080 — с 10 гигабайтами
Ресурс Videocardz подтвердил спецификации встроенной памяти в грядущих картах RTX 3090 и RTX 3080 от NVIDIA.
Согласно внутренним источникам издания, у GeForce RTX 3090 будет 24 гигабайта памяти GDDR6X, у 3080-ой модели — 10 гигабайт.
Журналисты отмечают, что пока нет никакой информации о том, станет ли NVIDIA выпускать Ti-версию, так что 3090-я модель наверняка будет заменять и ее, и Titan, являясь флагманом всей линейки. Графический процессор GA102-300-A1 поддерживает 5248 ядер CUDA или 82 SM, что на 20% больше, чем у RTX 2080 Ti. Предполагается, что шина памяти составит 384 бита с пропускной способностью 1 ТБ/с. Скорость памяти карт RTX 3090 и 3080 наверняка составит около 19 Гбит/с.
RTX 3080 включает в себя процессор GA102-200-KD-A1, который представляет собой урезанный SKU, имеющий те же 4352 ядра CUDA, что и RTX 2080 Ti, а также 68 SM.
Напомним, что официальный анонс состоится 1 сентября. Ранее стало известно, что новые карты могут потребовать новый переходник для питания.
матерь божья
Разработчики игр окончательно и бесповоротно ещё больше начнут класть болт на оптимизацию.
На что могут пойти 24гб видео памяти? Сейчас редко какая игра требует 6гб. Ну 12, представим 15 — это максимум, даже с учётом следующей пятилетки.
(в шапке 2080)
После старта PS5/SEX требования к количеству памяти сразу же вырастут вдвое.
Бод такую видяху колда еще гигов 200 нарастит, под текстурки
С таким цена на железо сам бог велел консоль покупать.
Это нишевый продукт и на него не будут ориентироваться. Или в твоем мире все побегут покупать 3090?
И что значит “оптимизация”? Игры должны продолжать запускаться на двоем 2ядра, 2 гига из эльдорадо?
В 4К игры уже сейчас могут выжирать больше 10гигов. Можешь смело это умножать на 2, как сказал Сержант.
А ведь ещё 8К не за горами..
@haywire
Просто это не будет актуально еще очень много времени. Статистика в процентах из открытых источников (https://gs.statcounter.com/screen-resolution-stats/desktop/worldwide) использования разных разрешений экрана на десктопах:
1366x768 23.28
1920x1080 20.57
1536x864 7.37
1440x900 6.99
1600x900 4.5
1280x720 4.22
1280x800 3.32
1280x1024 3.01
1024x768 2.86
1680x1050 2.45
768x1024 1.63
1360x768 1.44
800x600 0.83
360x640 0.77
1093x615 0.36
360x720 0.34
834x1112 0.33
2560x1440 2
1920x1200 1.05
2048x1152 0.48
Other 12.21 — тут, конечно, не очевидно какие разрешения, но не думаю, что поголовно в 4-8К
на чем основано такое мнение?
Известно на чем. Ткнули пальцем в небо.
Да, по сути будет актуально только для харкдорных геймеров с широким карманом. Собственно, и видеокарта специально для них.
На опыте предыдущего перехода между поколениями. Посмотри на спеки новых консолей — ровно в два раза больше памяти. Думаешь, разрабы не будут её использовать?
Да там наверняка 2-3Гб будут зарезервированы под нормальную работу системы. Какое-то количество памяти будет использоваться под обычное ОЗУ. Поэтому 10Гб — это еще с запасом на ближайшие пару лет. Если, разумеется, речь идет о консольной графике. Опыт предыдущего поколения это как раз и показывает. Что даже видях с 6Гб вполне достаточно для подавляющего большинства игр.
Консольки реально обосрались. Пихать 16Гб на ближайшие 5 лет — это такое. Я надеялся, что будет минимум 24Гб. Вот тогда видяхи с 16-20Гб на борту были бы актуальны.
С переходом прошлого поколения консолей как раз не было резкого скачка в потреблений видеопамяти. Бум в потреблений как раз вызвал приход разрешения 4К в массы. Вот он реально стал кушать много.
Щас бы xx80 на пару лет брать
И когда появились видяхи с 6гб, напомни? В каком году?
Я отлично помню как сидел на печ570 с 1.3гиг врам, на всё её хватало. Потом вышла AC Unity — она и всё, что выходило после неё требовало уже 3-4 гига для высоких настроек. Ок, поменял 570 на 970 с 4гб. Через год выходит вторая Ларка, которой нужно уже 6гб для максимальных текстур XD столько на тот момент было только у 980ti
Да, но на ПК так никто не играет)
Куда столько? Это тебе не винда) Хотя на боксе может и она, не уточнял.
Примеры в посте привёл.
Все твой примеры связаны как раз в основном с приходом 4К, когда начали делать текстуры высокого разрешения, как раз под 4К.
Ассасин вышел в 2014, какой к черту бум 4К? Там и текстуры толком не отличались в зависимости от настроек.
С Ларкой, допускаю, но для обычных текстур нужно было 3-4 и это даже не в два раза больше, чем раньше. Все игры некстгена минимум требовали 2гб (по системкам) , когда раньше и 0.5 хватало.
И что? В свое время выпускали 980 4Гб и что? Хайэнд подчиняется все той же амортизации в плане актуальности в играх.
Тогда когда в этом появилась необходимость. В начале первые несколько лет вообще 4Гб хватало.
Чего это? Почти все игры первой и начала второй волны на ПК не получают никаких преимуществ. Т.е. все играют в одно и тоже. Это потом уже на ПК и текстуры четче, и разрешение выше, и фпс выше, и всякие мульки начинают внедрять.
Уже на Пс4 для игр доступно только 5.5Гб из 8. В следующих консолях заявлено куда больше сервисов работающих в фоне. Поэтому уменьшение зарезервированной под нужды системы памяти вряд ли будет.
Ну как бы с 9-ой линейки уже двигали разрешение 4К, у меня даже на коробке 970 красовалась данная надпись. Плюс Ассасин Унити только ленивый не пнул за оптимизацию, кривой порт это не пример. Ну и 2гб карты уже давно востребованы были, ещё до прихода консолей. У меня GTX660 2Гб версия была.
И её сегодня вполне хватает. Вот только 9хх — поколение выходившее уже после некстгена, в отличие от 3ххх, поэтому нет у меня уверенности что оно будет таким же долгожителем, а 10гб станет стандартом. Но, как говорится, рад буду ошибаться
Неправда. Те же две игры, которые я привёл, на ПК выглядят значительно лучше консольных собратьев. Я уж молчу про всякие эксклюзивные nvidia плюшки.
Впервые слышу. А 970 от какого производителя? У меня чёт нет такого на коробке MSI. Смешно уже. У этой карты вообще никогда не было потенциала для 4К.
Порт быстренько причесали, потребление памяти от этого не изменилось. Да и между весом текстур и производительностью/багами нет прямой зависмости
Да, но не были жизненной необходимостью
Юнити была кривой игрой и в плане производительности. И ПК не получил толком никаких плюшек. Те отличия, которые там были были обусловлены общей сыростью технологии. Убики банально не ожидали, что новое поколение окажется таким медленным, т.е. специально для ПК там никто ничего не делал. А Ларка — это уже нормальная игра второй волны, которая полностью использует потенциал коробокса. Ты вспомни первую ларку, которую перенесли на ПС4 с фичами, которые таки не выпустили для ПК версии =/ Притом, что там еще и производительность подняли. Так что, правда правда.
Потребление видео памяти определяется по общему знаменателю, а это консоли. Кстати, 5.5Гб доступны в Про версии ПС4, поэтому 10-12Гб на ближайшие 2-3 года более чем достаточно.
Дождаться выхода новых консолей и мултиплатформы и после карты брать
Очень интересная видеокарта. Но зачем? Для узкой среды разработчиков? Для стендов?
Лучше бы доступнее свой продукт сделали.
от нвидии там плюхи были. HBAO+ отличная штука, во всех играх его врубаю, если есть.
Там ещё мыльное сглаживание было, увы это уже не вина юби. Почти все игры на консолях мыльно сглаживаются. Возможность отключать это мракобесие считаю серьёзным преимуществом перед консолями (толку от эпичных текстур, если всё равно всё в мыло превращается?) , и она с первого дня существовала
Ээ..я вообще не вкурсе был. Зачем сказал? =/ Реально пропасть между версиями.
п.с. вспомнил, что у меня есть мыловарня)) надо будет купить, короче
надеюсь.
У GeForce GTX 770 максимальное разрешение 4096x2160.
Это фактическая поддержка. В реальных условиях обе карты лососнут тунца, можно только в старые игры играть. И то не все
В этой статистике не сильно числа меняются. В 15м году 1920 — 18%. Думается мне, что эта статистика в большинстве своем о всех десктопах. Использующихся для игр может процентов 10% среди них и наберется. Львиная доля десктопов — просто оборудование не для игровых целей где разрешение дело десятое. Какая-то часть офисные машины.
Хотя на мой взгляд 4К разрешение слишком уж превозносится. Большинству вполне комфортно и на 1920 играть, больше от качества контента зависит, чем от физического разрешения.
Да что вы говорите? В лок 30ФПС и средние настройки вполне себе могла карта тянуть в 4К разрешении на то время игры. Посмотрите тесты в интернете, если не верите. У меня сейчас на коробке у 2000 серий ничего не написано про 4К, это разве говорит, что я не могу играть в 4К? Именно с 900 серий, Nvidia начала пропёхивать 4К в массы.
Смысле не было? Зачем тогда выпускали карты среднего сегмента с 2Гб на борту? Просто так? И это до прихода новых консолей.
Тем более, что 4К на РС уже пару лет как нормально существует а на консослях(с оговорками) он только нормальный появится, с честным 4К и нормальным разрешением текстур. Грубо говоря то, что мы сейчас видим на РС в 4К с тем потреблением видеопамяти, то примерено на том же уровне останется, плюс минус пару гб может прибавиться, от улучшения картинки в целом.
Интересно, верю конечно. Только зачем играть на средних? Повышение графических настроек даст больший эффект для глаз, чем банальное повышение разрешения. 4К нужен тем, кто привык выкручивать настройки в потолок и ищет новых впечатлений и/или владельцам огромных диагоналей.
На сегодняшний день 4К стал обыденностью, поэтому и не пишут (наверное)
Затем, что нвидии постоянно нужно что-то новое выпускать. Было бы странно с их стороны не улучшать потихоньку характеристики
Какието сплетни собираете, новые карты будут 2100 версии, а то что 24 гигами это титаны для спец-компаний
Не знал, обхожусь 1080р. Хотя странно, та же 2080 с 8гб, а она позиционируется для игры в том числе в 4К.
Думаю, пока за горами, за высокими такими. На Full HD переходили довольно долго, и просидели на нём… до сих пор сидим. 2К, только с дорогущими топами или в старенькие/инди. 4К редко вывозят самые мощные видюхи. Тут до 4К ещё ползти и ползти, про 8К можно не вспоминать. 2К, вот это уже вполне реально, глядишь через поколение — другое и бюджетные предложения будут справляться, станет нормой.
Какие 8к, сейчас 4к 2080ti с 60фпс не вывозит практически во всех новинках, а 8к это в 4 раза больше картинка чем 4к, соответственно видяха должна быть в 2-3 раза мощнее чем 2080ti при равной графике, это будет через черт знает сколько лет.
Для большинства игр 8-ми хватит. Я просто говорю, что уже существуют игры с непомерными аппетитами, в которых как правило много “избыточных” настроек для энтузиастов — Breakpoint, например. Она поджирает памяти под 10 гигов и периодически захлёстывает за это значение в процессе игры
Надеюсь, за горами оно и останется. Бессмысленная штука. Но решать не мне — разрабы ещё в прошлом году начали заговаривать на эту тему, телевизоры 8К уже здесь.
как бы уже сейчас игры едят 10+ гигов видеопамяти, резидент ейвил 7, гирзы 5 , хорайзен, финал фентези 15, кал оф дьюти и т.д. и все это в 1440р. между качеством текстур и занимаемым их объемом прямая зависимость, причем качественные текстурки не влияют на производительность, если они влазят в память. первая ларка 2013 в районе 6 гигов видео жрала, 2015 — 8,5 в последней текстуры даунгрейднули до 6,5, чтобы несчастные страдальцы бетатестововых карт 20хх с 8 гигами могли лучи включить. все почему то забывают, что лучи уже в текущих проектах дополнительно хавают 1-2 гига, с увеличением их количества объемы будут только расти. и жаль что 3080 будет кастратом с 10 гигами, надеялся хотя бы на 20, а так у нвидии остается только 3090 играбельной. посмотрим на ответ амд.


П.С. а есть игры в которых текстуры регулируются автоматически — серия кол оф дьюти например или гирзы 4 — чтобы школьники выкрутив настройки в пол не видели тормозов в игре на ходу меняется разрешение текстур, вроде и максималки, а мыло мыльное 