Nieuws
Illustratie van een Nvidia-gpu in een laptop.

Nvidia claimt dat DLSS 2.3 beter is dan spatial upscaling

Nvidia opent het vuur op AMD's FSR-upscalingtechnologie

Geschreven door Tom Kauwenberg op
In een gelekte demonstratievideo van Nvidia claimt de gpu-gigant dat de 2.3-versie van Deep Learning Super Sampling (DLSS) beter is dan vormen van 'spatial upscaling'. Nvidia valt daarmee vooral concurrent AMD aan, wiens FidelityFX Super Resolution (FSR) recentelijk lanceerde als weerwoord.

De demonstratievideo zou vandaag officieel moeten verschijnen, maar werd gisteren al kortstondig aangetroffen op YouTube als 'verborgen' video. Nvidia-programmeur Bryan Catanzaro vertelt in de presentatie over DLSS' driejarige bestaan en hoe de technologie doorevolueert. 

De video zou AMD en hun technologie niet direct als slechter bestempelen — laat staan volledig bij naam noemen — maar AMD's technologie wordt in zij-aan-zij-weergaven wel vergeleken met verschillende modi van DLSS 2.3. Daaruit zou moeten blijken dat DLSS 'slimmer' is in het interpreteren van niet-bestaande pixels.

Zij-aan-zij-vergelijking van een spatial upscalingtechnologie (vermoedelijk AMD's FSR) en DLSS 2.3 in Chernobylite.

Nvidia's upscalingtechnologie maakt gebruik van kunstmatige intelligentie, terwijl alternatieven — waaronder FSR — vaak voorspelling doen over niet-bestaande pixels aan de hand van bestaande frames. Volgens Catanzaro kan de temporale informatie van meerdere frames resulteren in een scherper plaatje; soms zelfs scherper dan het 'native' incalculeren van al die pixels. 

Zelf biedt Nvidia al langer een eigen spatial upscalingtechnologie aan, die al jaren ingebakken zit in Nvidia-drivers. In de video claimt Catanzaro dat ook die technologie scherper is dan die van hun concurrenten. Daarnaast zou Nvidia's ruimtelijke upscaler ook afgenomen zijn door televisiefabrikanten.

Vergelijkingen van verschillende spatial upscalingtechnologieën, waaronder AMD's FSR en Nvidia's eerdere (pre-DLSS-)technologie.

Nvidia heeft de gelekte video inmiddels volledig verwijderd, al moet deze binnenkort alsnog officieel verschijnen. Mogelijk worden er, wegens het eerdere uitlekken, nog aanpassingen gedaan in de precieze inhoud van de presentatie.

Dit artikel delen:

Lees meer

Call of Duty-cheaters kunnen in alle CoD-games verbannen worden Halo Infinite behaalt 272 duizend gelijktijdige spelers op Steam
5

Reacties op: Nvidia claimt dat DLSS 2.3 beter is dan spatial upscaling

  • Om te reageren moet je ingelogd zijn. Nog geen account? Registreer je dan en praat mee!
  • avatar

    MikkelE30

    • 16 november 2021 14:01
    Spatial Upscaling is vele malen beter omdat het geen proprietary meuk is!

    Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.
  • avatar

    Draven

    • 16 november 2021 14:23
    @MikkelE30

    Voor mij al een reden om voor AMD te gaan.
    Het is wel jammer dat ze Nvidia nog net niet kunnen bijbenen zoals ze bijv nu doen met hun processors.

    Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.
  • avatar

    oropher

    • 16 november 2021 18:31
    @MikkelE30
    Dat zal best, maar DLSS is iets hardwarematigs; iets wat gewoonweg niet kan op AMD kaarten.
    Vandaar dat de kwaliteit van DLSS dus ook vele malen hoger ligt.
    Ik heb zelf een paar keer FSR geprobeerd, maar de kwaliteit is echt slecht op gemiddelde resoluties.

    Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.
  • avatar

    MikkelE30

    • 18 november 2021 09:32
    @oropher Maar dit helpt toch niemand? Dit zorgt alleen voor slechte adaptie en dat het uiteindelijk gewoon verdwijnd.

    Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.
  • avatar

    oropher

    • 18 november 2021 11:10
    @MikkelE30 he ?
    Er is gewoon een optie voor AMD om ook hardwarematige deep learning upscale techniek te gaan toepassen op toekomstige grafische kaarten.
    Zolang ze dat niet doen gaat de gemiddelde gamer toch eerder een RTX kaart kopen.
    Volgens mij zijn er zat mensen met een RTX kaart (waaronder ik), dus ik zou niet weten waarom de adaptatie zo slecht zou zijn.

    Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.

 

Wanneer je een reactie plaatst ga je akoord met onze voorwaarden voor reacties.