С какой вдруг стати? Даже на 3090 чтобы играть в 4к нужно длсс включать. Точнее в 4к по сути только на 3090 и можно поиграть, с длсс.
да, все так, нвидиа классические продаваны - придумали проблему и продают людям для нее решение.
сделали rtx и для него dlss как решение чтобы можно было хоть как-то играть с этим rtx.
а без rtx оказывается что любая более-менее карта тянет 4к, но это очень неудобная истина.
Ибо под ИИ вполне может идеальнее подходить иная архитектура, которая не особо нужна для обычного графического ускорения.
но вот до это же отлично все юзали видеокарты для нейронок и получали свои нереальные ускорения в сравнении с процами.
однако юзали для тренеровки, а вот использование натренированной сетки вполне быстро работало и на процах и на мобильниках.
Во-вторых, кто тебе сказал, что Нвидия вместо тензорников КУДА бы напихали?
ну это был риторический вопрос, само собой нвидиа напихать может только за щеку
Теоретика на уровне веры в то, что "оставшиеся ресурсы ГПУ будут равны полноценному железу чисто под ДЛСС". Даже по скинутому ролику понятно, что АМД наверняка будет использовать более простой алгоритм, чтобы не сильно нагружать ГПУ - у них вариантов нет. Иначе придется еще сильнее снижать рендер.
все зависит от того как они спроектировали нейронку и нейронка ли там вообще.
можно обучить нейронку и будет производительность Х, а потом оптимизировать и будет 10Х.
или можно обучить нейронку, разобраться как работает и написать алгоритм, который будет 1000Х.
в этом деле потребляемые ресурсы не коррелируют с качеством.
Скажи прямо: ты просто, как любой противник ДЛСС, веришь в "Светлую и добрую АМД и все у нее лучше", чем довольствуешься реальными фактами и логикой? Логика пока не на стороне ФСР. Даже первые РЕКЛАМНЫЕ демонстрации не впечатляют.
у меня видеокарта зеленая и проц синий, не помню когда в последний раз держал что-то старое, может лет 15 назад.

я не верю в амд - я вижу классических продаванов, которые втюхивают своё говно людям, которые свято уверены что им теперь без этого говна не прожить и остальным тоже нужно говно.
Так не зависит, что они это будут обрабатывать. А что лучше: загрузить ОТДЕЛЬНЫЕ ядра или те, которые графику обрабатывают? Эмпирически подход Нвидии более продвинутый, ибо позволяет делать БОЛЕЕ СЛОЖНЫЕ алгоритмы и сильнее нагружать железо, ибо оно отдельное. ЭТО ОБЪЕКТИВНЫЙ ФАКТ.
дело в том, для чего используется это дело.
т.е. для тренировки сетей - да, лучше максимум оптимизированное.
но для использования сетей не нужны эти мощности, там возможно эти тензоные ядра и на 1% не загружаются от dlss.
вон там ue5 презентовали, показывали как некст ген графика может в некст ген детализации быть с рейтрейсингом без поддержки всяких rtx
и все работает на топовых видеокартах, хотя раньше всякие nvidia всем пытались доказать что лучи не могут без особых rtx ядер работать, а на обычных видеокартах будет 5 фпс.
на деле же оказалось что это конкретно реализация nvidia rtx сосет по производительности без rtx ядер, а вот люди забыли про эти мантры nvidia и у них все нормально без rtx.