Prochaine grosse sortie pour Ubisoft, Watch Dogs: Legion l'est aussi pour Nvidia, qui compte bien profiter du troisième épisode de la série pour prouver les bienfaits du Ray Tracing. L'implémentation du DLSS est evidemment aussi une fonctionnalité clef de la version PC, qui devrait permettre de jouer avec une qualité d'image de haut niveau sans devoir sacrifier de précieuses images par seconde. Voici donc un trailer mettent en avant la technologie, même s'il faut se contenter du 1080p et du 30 fps pour cette fois.
Tous les commentaires (22)
https://www.cowcotland.com/news/73191/les-annonces...
Les consoles auront peut être une techno similaire mais vu les perfs assez faible en int4 et 8 (or c'est ce type de calcul qui est largement prépondérant pour le dlss) des gpus rdna 2 dans les prochaines consoles comparées aux geforces rtx de Turing et donc encore plus comparé aux futures Ampères rtx3000, faudra pas compter sur le même résultat niveau performance. C'est surement pour ça qu'ils n'en ont encore pas du tout parlé alors que s'ils avaient l'équivalent du dlss2.0, ils n'auraient pas hésité à vanter la techno tant celle-ci est phénoménale comme tu le dis.
Je me demande si par exemple un Watch Dogs va proposer du ray tracing équivalent sur nextgen. Ça reste un jeu oldgen, s'ils n'arrivent pas à implanter le raytracing maintenant, ils n'y arriveront pas après.
Même si je suis toujours pas convaincu de l'avenir de cette techno. Voir pas du tout convaincu quand je vois des analyses techniques de trailer où on ne sait dire réellement si la scène propose du RT.
Je ne m'inquiète vraiment pas pour trouver l'équivalent ou presque. Ca n'aura peut-être jamais de nom et ça sera utilisé par les grands studios de devs sur console.
Nvidia fait les calculs avec ses unités hardwares de tensor cores, spécialisées dans le type de calculs nécessaires aux algos d'IA. CEs calculs sont effectués beaucoup plus vite que si fait en software et ebaucoup plus vite que si effectué par les unités de calculs classiques des gpus.
RDNA 2 pourra faire ce type de calcul principalement les int4 et int8 mais les perfs seraient pas top comparés aux perfs avec les tensor cores d'nvidia. Comme Sony et Ms n'ont pas communiqués dessus, c'est un signe que si on a quelque chose de similaire au dlss, cela ne se fera pas avec la même rapidité.
Ca rendra pas les jeux Xbox Series X ou Ps5 moins jolis ou inintéressant mais faudra pas s'attendre à des miracles niveau visuel. Si ils pouvaient déjà normaliser le 60 fps plutôt que de tenter d'imposer la résolution 4K à tout prix ce serait déjà un très bon point.
Ils ont annoncé qu'il y aurait le support du RT en hardware. C'est pas du tout pareil et ils n'ont donc jamais fait demi tour.
Si tu tiens le 60 fps en 4K, forcément cela signifiera que les graphismes ne feront qu'une amélioration modérée par rapport aux graphismes d'aujourd'hui.
Les consoles peuvent utiliser d'autres technos que le dlss pour gagner en perf sans dégrader les graphismes, notamment le Variable Rate Shading et dans une moindre mesure le mesh shading.
A voir comment cela mis à contribution!
*e - démo datant de 2018 : https://on-demand.gputechconf.com/siggraph/2018/vi...
Visuellement très réussi ce WatchDog RTX. Ensuite pourquoi Microsoft ,Sony et Nvidia n'ont pas travaillés ensembles, il y a la question du coût mais pas que. Pentar0o l'explique bien sur sa chaine Youtube : le titre de la vidéo : Pourquoi Nvidia n'est pas dans la PS5 et la prochaine Xbox ? C'est intéressant .
Visuellement très réussi ce WatchDog RTX. Ensuite pourquoi Microsoft ,Sony et Nvidia n'ont pas travaillés ensembles, il y a la question du coût mais pas que. Pentar0o l'explique bien sur sa chaine Youtube : le titre de la vidéo : Pourquoi Nvidia n'est pas dans la PS5 et la prochaine Xbox ? C'est intéressant .
Après, les outils utilisés pour opérer l'upscale sont différents. Nvidia ont poussé plus loin, utilisé le deep learning pour mettre au point leurs algos, mis en place des outils spécifiques qui s'occupent de ça etc...et ils progressent. Le DLSS avait des résultat variables, le DLSS 2.0 va corriger ça, et la techno va continuer d'évoluer. C'était ça mon discours. Nvidia s'engouffre là dedans, ils ne sont surement pas les seuls. Chier une image 8k à 60fps, ça va finir par sérieusement gonfler les dev et bouffer des ressources énormes inutilement si un algo permet d'alléger la charge pour un affichage aussi propre voire plus.