Avis ASUS OC Radeon R9-290x DirectCU II – Présentation

Heck Oui … l’ASUS OC Radeon R9 290x DirectCU II

Nous examinons la  ASUS  Radeon  R9 290x  DirectCU  II  OC  édition. Beaucoup de gars ont été en attente sur une  version de refroidissement personnalisé de ce produit. Armés de la dernière révision de la  DirectCU  II du refroidisseur et obtiendra cette puce Hawaï à base de processeur 2816 Stream avec et 4 Go mémoire GDDR5 fonctionnant le long d’une interface mémoire de 512 bits.Le  DirectCU  carte II sera équipé d’une conception de PCB entièrement personnalisé avec le  Digi +  VRM  avec la technologie Super Alloy Power et hauts C-Caps et de qualité  MOSFET . La carte est alimentée par la configuration de puissance + 6 broches à 8 broches et fonctionne de toute évidence à l’usine spécifications overclockés. La carte peut stimuler vers 1050 MHz et est cadencé à 5400 MHz (efficace) dans la mémoire GDDR5.

Certains mots-clés de cet examen comme un petit apéritif, 6 milliards de transistors sur un 438 mm 2 Die, bus mémoire de 512 bits avec 4 Go – 5.0 Gbps mémoire GDDR5, Ultra HD ready, 5,6 Tflops de puissance de calcul. Pas mal pour des mots-clés, hein? AMD est en partenariat avec le Battlefield d’EA 4, ce qui signifie que tant que les coupons sont disponibles, vous recevrez Battlefield 4 avec la carte pour certains UGS sélectionné. Ce serait une édition de luxe avec DLC et des armes supplémentaires. AMD se concentre également fortement au jeu en Ultra Haute Définition (UHD), ce sera donc un point dans notre examen ainsi. Serons-nous capables de jouer aux jeux les plus chauds à cette énorme 8.2 Mpixels avec une résolution de 3840×2160 @ 60 Hz.

La carte de l’édition ASUS OC DirectCU II est tordu un peu pour toi, il peut voir Boost vers 1050 MHz et est cadencé à 5400 MHz (efficace) dans la mémoire GDDR5. Ces cartes sont petites bêtes. Comme telle, cette révision en profondeur couvrira l’architecture de GPU îles volcaniques, Hawaii pour la série 290, nous allons référence ces cartes avec FCAT Frametimes, Ultra Haute Définition, et bien sûr, nous allons vérifier les performances du jeu avec les derniers jeux à venir pour alimenter les niveaux de chaleur et la consommation aussi. Il s’agit d’une revue, vous ne voulez pas manquer, avoir un coup d’oeil et puis la tête sur plus de la page suivante s’il vous plaît.

Photos du produit – AMD R9-290x

Avec une résolution de jeu recommandé la mise à 3840 x 2160 l’OC ASUS Radeon R9-290x DirectCU II a des caractéristiques comme AMD TrueAudio technologie, et 4 Go de mémoire. La carte est overclockée d’usine vers 1050 Mhz, mais plus important encore, il s’agit d’une carte qui a un bon refroidisseur, un refroidisseur que le GPU mérite.

 

 

Le cœur de l’OC ASUS Radeon R9-290x DirectCU II est bête à  6 milliards de transistors sur un 438 mm  Die et que le bus mémoire de 512 bits avec 4 Go de mémoire 5.0 Gbps GDDR5.

T il Radeon R9-290x a 2816 Processeurs de flux et une fréquence d’horloge jusqu’à 1050 MHz-pour ce modèle ASUS. Un massif de 4 Go de memoryis 512 bits monté sur il fonctionne à 5,4 Gbps. N’importe qui avec une résolution d’écran jusqu’à 2560×1440 à peut jouer à leurs jeux à de très bons réglages de qualité, et avec un petit tweak ou deux, Ultra jeu haute définition à ce Big Whopper d’une résolution appelée UHD – 3840 x 2160 pixels. Navires ASUS OC Radeon R9 290x DirectCU II avec la coutume rouge et or autocollants métalliques afin que vous puissiez décider qui autocollant pour sélectionner à partir, sinon vous laissez juste les autocollants enlevés en lui donnant un regard noir.

 

La solution DirectCU II de la carte est un refroidisseur à double fente équipée de ce ASUS appelle la technologie de ventilateur de cooltech, fondamentalement, il permet de pousser un volume accru d’air dans la chambre de dissipation thermique interne avec la surface de contact direct de dissipation de chaleur à l’aide de quatre 6mm et un seul ventirad 8mm. DirectCU II a deux ventilateurs, quatre caloducs nickelé avec au moins deux tuyaux de 10 mm, et un support de renforcement de PCB, ainsi qu’une contre-plaque.

 

Ici, nous pouvons voir les connecteurs, un plein DP, un HDMI et deux connecteurs DVI. Alors oui, Eyefinity fonctionne ici parfaitement bien ainsi. Il pourrait être une carte très intéressante à installer un bureau pas cher configuration multi-moniteurs de cette façon. Pas tellement pour le jeu cependant. AMD vous permet d’opter pour la route multi-GPU Crossfire avec en option. Vous pouvez jumeler deux en un PC et de les faire faire une séance d’entraînement décent. Comme mentionné précédemment, un pont Crossfire n’est plus nécessaire. Les données seront transférées sur le PCIE (de préférence 3,0) bus.

 

 

La carte a une consommation maximale de donner ou de prendre 280 ~ 290 Watts, AMD fait pas officiellement divulguer des informations spécifiques, mais nos mesures montrent effectivement ces chiffres en charge du jeu complet. La consommation globale d’énergie de la commission du ralenti à la charge est excellent vraiment, environ 10 watts en mode veille et lorsque le moniteur passe en mode veille seulement 3 Watt. c’est une jolie carte bien. 

À l’arrière de la carte, nous voyons un PCB assez propre, yup bloqué par la plaque arrière. Le PCB est personnalisé et est basé sur la technologie Super Alloy Power ASUS et est livré avec un DIGI + livraison d’alimentation VRM à 8 phases qui donne le noyau assez de puissance pour overclocker et de courir avec un maximum de stabilité. Le GPU reçoit 6 puissance phases dédiées BTW.
 

 

 
Vous aurez besoin de brancher la carte 290x à votre alimentation avec un 6 broches et un 8 broches PCIe connecteur de PEG. Nous recommandons une alimentation 550 ~ 600W pour commencer, avec une carte bien sûr.

 

Le dos de la carte est livré avec CAP SAP spécialisés qui augmentent la marge d’overclocking tout l’alliage de béton personnalisé étouffe aider à réduire le bruit de bourdonnement produit sur des variantes de référence. Vous repérez que la carte a été conçue pour ASUS ROG dispose ainsi, la tension points de lecture à l’arrière qui sont visibles à travers la plaque arrière.

Il ya aussi un double BIOS. Sur les cartes de référence pour un uber et le mode silencieux. Pour cette carte ASUS qui est éliminé à cause du refroidissement approprié. Donc voir les 2e BIOS comme un BIOS échoue de sécurité.

Them îles Again

Donc, au cours des deux dernières années, vous avez entendu sur plusieurs noms de code et qui peut être un peu déroutant. C’est très simple, dans le marché, nous avons d’entrée de gamme, grand public et des produits haut de gamme. Lorsque vous remarquez “Cap-Vert” qui est d’entrée de gamme, tels que la série actuelle 7700. Pitcairn serait le nom de code des produits grand public comme les 7800 cache sous, et Tahiti est le nom de code pour les GPU utilisés sur la plupart des cartes graphiques haut de gamme d’AMD. 

  • Niveau d’entrée = Cap-Vert = Radeon HD série 7700 / série R5
  • Niveau Mainstream = Pitcairn = Radeon HD série 7800 / série R7
  • Niveau haut de gamme = Tahiti = Radeon HD série 7900 / série R9
Nouveau sont les îles volcaniques
  • niveau Passionné Hawaii = Radeon R9-290 et 290x

Le segment entier de haut en bas a été publié au 1er trimestre 2012, mais la plupart des modèles 2013 sont respins, l’exception étant le R7-260X et les cartes graphiques R9-290/290X.

R7 240

  • Processeurs de flux 320
  • Fréquence d’horloge mise à 780 GHz
  • 499 GFLOPS calculer la performance
  • 1 ou 2 Go de mémoire à 4.6 Gbps / 128 bits
  • 30W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R7 250

  • Processeurs de flux 384
  • Fréquence d’horloge jusqu’à 1,05 GHz à
  • 806 GFLOPS calculer la performance
  • 1 ou 2 Go de mémoire à 4,6 Gbps
  • 65W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R7 260X

  • Processeurs de flux 896
  • Fréquence d’horloge jusqu’à 1,1 GHz à
  • 1,97 Tflops calculer la performance
  • 2 Go de mémoire à 6,5 Gbps / 128 bits
  • 115W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R9 270X (anciennement R7870 GHz / Pitcairn)

  • Processeurs de flux 1280
  • Fréquence d’horloge jusqu’à 1,05 GHz à
  • 2.69 Tflops calculer la performance
  • 2 ou 4 Go de mémoire à 5.6 Gbps
  • 180W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R9 280X  (anciennement R7970 GHz / Tahiti)

  • Processeurs de flux 2048
  • Fréquence d’horloge mis à 1 GHz
  • 4.1 Tflops performances de calcul
  • 3 Go de mémoire à 5.6 Gbps / 384 bits
  • 250W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R9 290  (Hawaii Pro)

  • Processeurs de flux 2560
  • Fréquence d’horloge jusqu’à 947 MHz à
  • 4.9 Tflops performances de calcul
  • 4 Go de mémoire à 5.0 Gbps / 512 bits
  • 250W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

R9 290x  (Hawaii XT)

  • Processeurs de flux 2816
  • Fréquence d’horloge mis à 1 GHz
  • 5.6 Tflops performances de calcul
  • 4 Go de mémoire à 5.0 Gbps / 512 bits
  • 250W TDP
  • PCI-E 3.0
  • API – DirectX 11.2 / OpenGL 4.3 / Mantle

La Radeon R9 290 et 290x

Oui, les gars ont attendu pendant un long moment maintenant. AMD est enfin publie la série R9-290, le but de ces GPU est de rivaliser avec les GeForce GTX 780 et Titan de NVIDIA. Dans la phase initiale, il y aura deux 290 cartes disponibles, la R9-290 et le 290x. Le premier étant un produit de traitement de encounting 2560 Shader, le second a un énorme 2816 processeurs de shader. Ayons un coup d’oeil à un aperçu rapide:

Le processeur Hawaii a un énorme 6,2 milliards de transistors tous montés sur un 438 mm 2  Taille du Die. À 28nm AMD appliqué l’architecture GCN nouveau, mais vous apprendrez qu’il ya eu quelques modifications au niveau de la mémoire cache que le cache L2 de 1 Mo est maintenant par exemple. Plus sur cela plus tard cependant. La plus forte SKU sera le 290x qui emballe 2816 processeurs de shaders, suivie par la 280 avec 2560 processeurs shader. 

 

Carte Radeon HD 7970 GHz Radeon R9 290 Radeon R9 290x
Processus 28nm 28nm 28nm
Transistors 4.3 milliards 6,2 milliards de dollars 6,2 milliards de dollars
Horloge de moteur 1,05 GHz > 947 MHz > 1 .00 GHz
processeurs de flux  2048 2560 2816
Calculer le rendement 4.3 Tflops 4.9 Tflops 5.6 Tflops
unités de texture 128 160 176
Texture Fillrate 118,4 GT / s 160 GT / s 176 GT / s
POR 32 64  64
Pixel Fillrate 29,6 GP / s jusqu’à-64 Gp / s  jusqu’à à 64 GP / s
Z / Stencil 128 256 256
Mémoire Bit-Interface 384-bit 512 bits 512 bits
Type de mémoire 3GB GDDR5 4 Go GDDR5 4 Go GDDR5
Data Rate 6.0 Gbps 5.0 Gbps 5.0 Gbps
Bande passante mémoire 288 Go / s 320,0 Go / s 320,0 Go / s

Une étape intéressante d’AMD est le passage à un bus mémoire 512 bits. Personne ne s’attendait vraiment à ce que dans le passé AMD simplement une fois utilisé sur un de leurs produits. C’était l’ATI Radeon HD 2900 XT tout le chemin du retour en 2007, l’une avec la conception d’anneau bus. Ils retournèrent à 256 et bus 384 bits parce que le bus 512-bit tout simplement était complexe et en utilisant un grand nombre de fils / traces sur le PCB. Il genre de fait sens en ce moment à faire la transition vers de 512 bits. La GDDR5 utilisée est moins cher que les formats de mémoire actuellement disponibles, et les 5.0 Gbps moins cher, en fait, permet d’économiser sur les coûts globaux d’adaptation vers la mémoire graphique 4 GB. AMD utilise huit 64 bits contrôleurs de mémoire d’accumulation vers 512 bits. Combiné avec la mémoire graphique pointant à 5.0 Gbps cela apportera un Go / s de bande passante mémoire 320 vers la carte graphique. Nous allons examiner l’architecture GCN sur une page séparée si.

PowerTune 

À partir de Hawaï AMD a également mis en oeuvre un dispositif ‘Turbo’ un peu comme la technologie de suralimentation de NVIDIA sur l’ensemble de leurs produits.

Cela signifie qu’il n’y a pas plus d’une horloge fixe sur ces cartes. La fréquence du GPU sera obtenir une ligne de base et la fréquence maximale, la carte horloge haut / bas en entre ces deux valeurs en fonction de la puissance absorbée / limiteurs, la performance et de la chaleur. En retour, la carte sera gestion adaptative contrôle du ventilateur, la fréquence d’horloge et tensions (dynamiques). AMD a toujours été beaucoup plus réservée à la différence entre le début et la fréquence maximale, de sorte que la différence entre les valeurs ne sera pas très grand.

technologie 28nm

L’architecture de GPU est resté le même. Comparables aux produits de dernière génération, AMD utilise toujours la technologie de procédé 28nm, les cartes sont PCIe gen 3 compatible et il ya eu des changements importants sur la consommation d’énergie. Nous allons aborder toutes les caractéristiques séparément, bien sûr. Avec le lancement de la série R7 et R9, vous verrez aussi Eyefinity mise à jour vers la version 2.0 DDM; audio est maintenant entièrement pris en charge (pour entendre le son sur le moniteur réel, il a joué off), le mode 5×1 du paysage est introduit, et vous pouvez maintenant créer résolutions personnalisée multi-écrans.
 

Intéressant, c’est que AMD maintenant mis en œuvre prochaine génération multipoint numérique audio avec le fractionnement du canal à puce. Donc, si vous avez installé Eyefinity avec trois écrans les six haut-parleurs dans vos moniteurs allez maintenant être configuré comme avant gauche milieu / droite / canaux. Très intelligent.
 

Eyefinity a également reçu une petite mise à jour. Vous pouvez maintenant mélanger et assortir n’importe quel moniteur (moniteurs similaires) la production et créer une configuration Eyefinity. Donc, si vous avez trois des mêmes écrans que vous pouvez brancher un HDMI, un DVI et un DP. C’est le genre de flexibilité que nous aimons beaucoup bien.

Le connecteur Crossfire désertion?

Permettez-moi de traiter cette question tout de suite, Oui et Non, pas pour les produits de rafraîchissement pour l’instant, mais à partir de la Radeon R9 290 et 290x les ponts Crossfire vais disparaître.
 

Voici un fait amusant – ce pont Crossfire nous savons tous et a appris à aimer est lentement éliminé, en commençant par R9-290/290X. Dans un futur proche ponts Crossfire seront chose du passé comme AMD va lancer Crossfire sur le bus PCI Express. Surtout avec des normes telles que PCI-E Gen 3.0 il ya beaucoup de bande passante là, mais même à Gen 2.0, il ne devrait vraiment pas être un problème.

Pour la configuration des cartes R290 en Crossfire, PCIe Gen 3.0 est recommandé. Nous effectuerons des tests d’inondation de bus sur Gen 3.0 à un stade ultérieur. Que faire si vous n’avez pas la compatibilité PCIE 3.0? Eh bien, le bus revient à Gen 2.0 qui ne sera probablement pas faire plus alors une différence marginale comme il est vraiment difficile d’inonder même deux ports x8 Gen 2.0. BTW, c’est un mythe que Crossfire avec 290 carte ne fonctionnerait pas sur Gen 2.0 fentes.

Vrai Audio

AMD a présenté le suivant comme un assez grand fonctionnalité. Jusqu’à présent, cependant cette nouvelle fonctionnalité a été reçu avec un peu de scepticisme que la plupart des utilisateurs amateurs de PC ont déjà une carte son dédiée. Quoi qu’il en soit, l’immersion audio est un facteur clé pour AMD comme ils sont en train de mettre un pipeline audio dans les derniers GPU. Maintenant abord, s’il vous plaît comprendre que AMD vrai audio est uniquement disponible à la R7 260X et la prochaine Radeon R9-290 et R9-290x. À côté de cela, les futurs produits à base de silicium nouvelle obtiendront aussi. Mais pas le reste de la série R7/R9 que ces produits sont respins de GPU plus anciens comme Pitcairn et Tahiti. 

 

Et AMD met en œuvre un moteur audio entièrement programmable, technologie Audio vrai. Les gars, vous savez shaders programmables pour visuels non? Dans une certaine mesure qui s’applique maintenant pour l’audio ainsi, d’améliorer les effets audio (voix en temps réel et des canaux audio dans votre jeu opposés à ce qui est possible avec les CPU d’aujourd’hui) permettant directionnelle (surround) audio sur l’entrée. Pour ce faire AMD injecté DSP dans le GPU qui peuvent faire de la magie sur les canaux audio. 

Pour les connaisseurs:

  • Il ya plusieurs cœurs de DSP optimisés Audio
  • Instruction Tensilica HiFi2 EP ensemble
  • Soutien Tensilica Xtensa SP FLOAD
  • Les DSP ont 32KB instructions et de données caches
  • 8 Ko de RAM zéro pour l’exploitation locale.

Alors oui, un processeur audio est à bord du 260X et la série 290. Par exemple entourer stéréo pourraient être virtualisés. Il n’y a pas assez de puissance CPU restant à courir mécanismes audio complexes et c’est là que les coups de pied de technologie audio po Donc de qualité professionnelle est maintenant plus proche de l’ordinateur avec cette nouvelle technologie audio. Essayez d’imagerie de haute qualité réverbérations, traitement audio dédié audio Chambre Simulation vraie 3D. Les développeurs de jeux peuvent utiliser ce qu’on appelle un plugin audio Wwise pour obtenir tout ce cours sur le processeur AMD vrai Audio DPS. Cela va aider à la charge du CPU. Quelques effets audio simples peuvent utiliser jusqu’à-14% de votre CPU, cela est maintenant déchargé de la carte graphique. C’est toujours de bonnes choses. Mais pas disponible pour le R9-270 et 280 si.

Le moteur graphique de l’Architecture

Bon, comme toujours, je garde les choses les plus complexes pour le dernier dans la liste de la technologie. Si cela vous semble un peu trop irritable, alors vous voudrez probablement sauter cette page s’il vous plaît.

AMD dernières cartes graphiques architecture de base est maintenant commercialisé sous le GCN, qui est court pour l’architecture Core Graphics suivante et le bloc de construction de l’architecture a beaucoup changé pour éliminer certaines inefficacités vu dans l’architecture VLIW. GCN est dans son essence la base d’un GPU qui fonctionne bien dans les deux tâches graphiques et informatiques. Pour le côté de calcul de choses, le modèle de l’unité GCN Compute a été introduit, il est conçu pour une meilleure utilisation, à haut débit et multi-tâches.Performance, par exemple, la performance, la performance. Chaque CU, a la construction de bloc, pour Hawaii, il est identique à l’ancien modèle utilisé dans la série 7000.
 

Votre cluster Shader de base est appelé un GCN Compute Unit, nouveau ces unit sont 100% semblable à ceux utilisés dans la série 7000 et fonctionnalité:

  • Non VLIW-Design
  • 16 unités SIMD larges
  • 64 KB registres / unité SIMD

Maintenant, si nous prenons 4 de ces unités SIMD, ils formeront la base d’une part de Calcul (CU). 4×4 = 16 pour chaque unité SIMD est de 16 unités de large, quatre fois par unité de calcul signifie que chaque unité de CU dispose de 64 processeurs de shaders. Ici nous avons appris que l’un cluster de shaders a 64 processeurs de shaders. Jusqu’à présent, vous êtes avec moi hein?

  • AMD R9-290x a 2816 processeurs de shaders

Donc, si une grappe de CU dispose de 64 processeurs de shaders alors un 290x dispose de 44 unités Calcul signifie 64SIMDs x 44 UC = 2816 processeurs de shader (pour la R9-290x).

  • Le moteur a des moteurs deux moteurs double Geometry / Asynchronous Compute
  • 16 rendre backends / 64 ROPs de couleurs par cycle d’horloge / 256 Z / Stencil ROP par cycle d’horloge
  • liens du moteur à 1024 Ko R / W de cache L2 (Upto16 64 KB L2 cache partition)
  • Hawaii GPU a mis à 44 Unités Calculer
  • 4 processeurs Géométrie (4 primitives par cycle d’horloge)
  • 64 Pixel sortie / horloge

Le Core Unit Compute Suivant Graphiques (CU) a environ la même puissance en virgule flottante par cycle d’horloge que le précédent (c. Cayman). Il a également la même quantité d’espace de registre (pour les unités vectorielles). Chaque UC a aussi ses propres registres et la part de données locale. L’architecture GCN a 16 de large processeurs vectoriels, encore une fois, pour un total de 4×16 = 64 opérations par cycle d’horloge. GCN a également un processeur scalaire.
 

Donc, la puissance en virgule flottante théorique reste plus ou moins le même par UC, mais GCN sera plus efficace car elle ne nécessite pas de parallélisme au niveau des instructions. GCN est tout au sujet de la création d’un bon GPU pour les graphiques et les fins de calcul. A la fin de la canalisation, on voit huit contrôleurs mémoire de 64 bits chacun, accumulée vers un bus large de 512 bits. Combiné avec GDDR5 à 5.0 Gbps cette livrera la série 290 de 320 Go / s de bande passante mémoire.

PCIe Gen 3

Toutes les cartes de toute la AMD Radeon R7 à R9 gamme sont PCI Express Gen 3 compatible qui offre un taux de transfert plus rapide 2x que la génération précédente, cette offre des capacités pour la prochaine génération de solutions de jeux extrêmes. Donc, contrairement aux fentes PCI Express actuelles qui sont à Gen 2, le PCI Express Gen 3 aura deux fois la bande passante disponible et qui est de 32 Go / s, l’amélioration de l’efficacité et de la compatibilité et comme telle, elle offrira de meilleures performances pour PCI actuelle et la prochaine génération Exprimez-cartes. Pour le rendre encore plus compréhensible, passant de PCIe Gen 2 à Gen 3 double la bande passante disponible pour les add-on les cartes installées, à partir de 500 Mo / s par voie de 1 Go / s par voie. Ainsi, un x16 Gen 3 PCI Express est capable d’offrir 16 Go / s (ou 128Gbit / s) de bande passante dans chaque direction. Cela se traduit par 32GB/sec largeur de bande bidirectionnel. Vous avez besoin d’un PCI-E 3.0 carte mère compatible et le processeur bien. 

Consommation 

Le R9-290x a un TDP de 275 watts (de tirage de puissance maximale) et que la dernière est vraiment un peu. AMD s’est cependant concentrée sur des états de repos ainsi, lorsque vous êtes en mode bureau par exemple en 2008 sur 55nm une carte graphique serait élaborer à 90 Watt. Cela a changé de façon spectaculaire sur les nœuds de 40 nm et produit vers une meilleure ~ 20 Watt. Un nouveau précédent a été modifiée avec le lancement initial R7000 même si, comme en mode veille de bureau les cartes graphiques ne consomment que 2,7 watt. Ainsi, lorsque le GPU est inutilisé plus de 95%, il peut presque fermer 99% de lui-même vers le bas, même le ventilateur tourner vers le bas et se désactiver (qui est un peu bizarre quand vous voyez d’abord il vraiment). Donc ce qui se passe là-bas, vous pourriez demander? Eh bien, dès que le système passe en état de veille longue et applications ne sont pas en train de changer activement le contenu de l’écran, le GPU passe à l’état de puissance ZeroCore. Dans l’état d’alimentation ZeroCore, le noyau de GPU (y compris les unités moteur 3D / calcul, le multimédia et les moteurs audio, les écrans, les interfaces mémoire, etc) est complètement éteint. État ZeroCore Power maintient un bloc très petite commande de bus pour s’assurer que le contenu de GPU est encore visible pour le système d’exploitation et du BIOS. L’activation de la fonction ZeroCore alimentation est commandée par le conducteur. Le pilote sur son extrémité surveille le contenu d’affichage et permet au GPU de saisir la puissance ZeroCore, dans la condition que le GPU passe de temps de repos et les demandes de travail ultérieures ne sont plus soumis au moteur. Si toutes les applications mettent à jour le contenu de l’écran, technologie ZeroCore puissance peut périodiquement réveiller le GPU de mettre à jour le contenu de la mémoire vidéo et de mettre le GPU de nouveau dans l’état ZeroCore Power. En outre, les applications telles que Windows 7/8 gadgets de bureau sont architecturés pour minimiser l’activité et économiser de l’énergie à l’état inactif longtemps. Ces applications sont actives en mode écran à afficher du contenu dynamique comme la météo, les flux RSS, les symboles boursiers, l’état du système, etc, mais aussi avoir l’intelligence de suspendre les mises à jour et de l’activité lorsque le système passe longue inactivité. Ces applications ne seront pas réveiller le GPU de l’état ZeroCore Power à longue inactivité. J’ai un immense respect pour la nouvelle technologie, il est un véritable exploit. Donc TDP sage, la R9-290x ne poussez à 275 Watt quand il culmine pendant les jeux, mais 2,7 Watt en mode veille.

Eyefinity

Une des plus grandes réussites de la série Radeon a été l’introduction de Eyefinity. Eyefinity vous permet d’utiliser plusieurs écrans en bureau et le mode de jeu. Généralement vous avez besoin des mêmes écrans et les résolutions, Eyefinity 2.0 changements qui. Vous êtes en mesure de créer des résolutions de ces jours.

Plus la bande passante du signal de surveillance est créé avec la Radeon HD 7000 / Radeon R7 et R9 cartes de la série ainsi, vous pouvez créer résolutions de 16k x 16k. Cela pour un fait vous permet de configurer dites cinq écrans en mode 5.1 Paysage avec 1920×1200, 2560×1600 et maintenant même Ultra HD 4K x 3840 2160  moniteurs. Vous les gars commencent maintenant à comprendre pourquoi le R9-280X a 3 Go de mémoire graphique et la série R9-290 même 4 Go; énormes résolutions nécessitent d’énormes framebuffers. Et pour la configuration mentionnée ci-dessus avec 3840 x 2160 moniteurs qui se résument à 11520 x 2160 pixels, c’est une résolution de 24 Mpixels – ÉNORME. Plus tard cette année pilotes Catalyst d’AMD vont soutenir les résolutions personnalisées précités ainsi. 

 


Amélioration de Tessellation

La dernière itération de l’architecture dans la AMD Radeon GPU dispose de la dernière génération Tesselator (Gn 9) dans sa Geometry Engine. Ceci comporte des optimisations telles que; augmenté sommet réutilisation, des améliorations hors puce tampons et les grands paramètres des caches. Cela contribue à améliorer la performance à tous les facteurs de tessellation jusqu’à 4x le débit de dire que les AMD Radeon HD 6900 graphiques de la série (Gen 8). 

Radeon HD 7970

3D Stereo – HD3D

Tout d’abord permettez-moi de dire cela, la fonction de 3D Stereo obtiendra élargi pour Eyefinity ainsi. Donc, avec la prochaine mise à jour de pilote que vous aurez la possibilité de jouer à des jeux en 3D sur plusieurs moniteurs. Mais il ya beaucoup plus intéressant nouvelles. AMD étendu sur la spécification HDMI 1.4a et va maintenant soutenir cadre emballage pour la 3D stéréo. Et qui permettra une plus grande fréquence d’images. Les GPU de la série R9 seront et sont les premiers à soutenir 3GHz HDMI avec support cadre d’emballage pour la 3D stéréo. Voir généralement, vous seriez limité à HDMI 1.4a restrictions. Par exemple, les résolutions les plus élevées pour les jeux 3D sont 720p60 ou 1080p24. Vous ne pourriez pas faire 1080p60. La nouvelle spécification permet que la prise HDMI, vous pouvez configurer l’écran en 1080p et obtenir un bon 60Hz par oeil, donc 120 Hz au total. Dans le passé n’était pas possible que via HDMI vous obtiendrez 24/30 Hz (et donc FPS) par œil en 1080p. Ce qui est génial si vous êtes un fan de convulsions. Pour HD3D jeu vous serez tributaire d’un partenaire externe comme DDD pour votre expérience de jeu 3D bien.

Direct X 11.2

Tout nouveau line-up d’AMD seront compatibles avec DirectX 11.2 que le matériel est compatible, cela signifie aussi l’ensemble de la série AMD R9 sera compatible après une mise à jour du pilote. C’est un peu prématuré de parler même vraiment, DX 11.2 doit être libéré aux côtés de Windows 8.1

 “Aujourd’hui, AMD est le seul fabricant de GPU pour offrir entièrement compatible DirectX 11.1 soutien, et le seul fabricant à soutenir Ressources carrelés Tier-2 dans une pile de produits de transport», a déclaré AMD dans un communiqué. La fonctionnalité hors concours semble être des ressources de tuiles Direct3D, ce qui permet aux développeurs d’utiliser facilement les deux GPU et RAM système pour les textures en magasin. C’est énorme pour la console, pas tant pour les cartes graphiques haut de gamme bien.

Projet Mantle

Certains d’entre vous les gars peuvent probablement se souvenir Voodoo Glide API 3Dfx dans le bon vieux temps? À l’époque, 3Dfx créé leur propre API comme ils ne pouvaient pas accomplir avec DirectX ce dont ils avaient besoin qu’il fasse. Au fil du temps DirectX a encore pris de l’API primaire de façon trop extensive API principalement axé sur la compatibilité la plus large possible.Comme vous l’avez appris, AMD ces jours injecte leurs processeurs et APU dans les consoles de jeu, ainsi, y compris ceux en attente. La plus grande plainte de développeurs de jeux, c’est qu’ils ont à développer des jeux pour consoles et le port en arrière vers le PC, ce qui est une très coûteuse en temps et de ressources chose à faire pour n’importe quelle entreprise. Il ronge morceaux de l’argent provenant des budgets qu’ils ne veulent pas vraiment passer. Gardez cela à l’arrière de votre esprit.

AMD a introduit Mantle. Manteau pourrait être mieux décrit comme une API graphique similaire à OpenGL ou DirectX, mais sans la surcharge vaste, essentiellement pour rendre la vie plus facile pour les programmeurs. Mantle est propre API compatible DX HLSL d’AMD dans laquelle les développeurs de jeux peuvent aborder avec GPU avec la manière de tête beaucoup moins plus rapidement. À côté de cela en utilisant Mantle, les développeurs peuvent ouvrir le GPU complètement et gagner le maximum de celui-ci.

 

En tant que tel manteau est une chose très importante pour AMD, le moteur Frostbite va le soutenir, nous avons entendu des rumeurs sur CryEngine et imaginer que le moteur Unreal appuiera aussi. Si cela se produit alors une grande partie de jeux à venir pourrait être Mantle compatible. L’API de bas niveau de manteau, jumelé avec les pilotes graphiques Mantle, offre aux développeurs l’accès direct à Core Graphics Suivant AMD (GCN) Les caractéristiques matérielles de GPU, qui auraient permet aux développeurs d’atteindre un niveau beaucoup plus élevé de performance du matériel optimisé que ce qui est possible avec OpenGL et DirectX . En fait, AMD affirme Mantle peut émettre neuf fois plus nombreux appels de tirage par seconde que ceux “de haut niveau”, API spécifique non-matériel. C’est un grand bond en performance.

AMD indique que ce sera:

  • Une amélioration majeure de la performance au cours de la génération actuelle
  • Ajouter de nombreuses nouvelles fonctionnalités graphiques pour permettre aux développeurs de jeux
  • Déclenche d’importants investissements dans la technologie du moteur de jeu

manteau de projet est au stade de la bêta, mais lors d’une présentation GPU 14 Tech Days, une annonce a été faite que Frostbite 3 aurait le soutien de manteau. Le premier jeu de course sur Frostbite 3 à bénéficier de Mantle sera Battlefield 4 qui va faire un patch en Décembre qui va activer le support de manteau. 

Cela pourrait être une bonne chose pour la plate-forme PC, mais il ya toujours un «mais»; voir la bonne chose ici est que cela permettra de meilleures performances tout en tirer le meilleur parti des processeurs graphiques. La mauvaise chose est que les développeurs ont encore besoin de coder les jeux pour  NVIDIA  et Intel sur  DX  de toute façon, aussi prometteur que cela semble à la fin il pourrait résumer vers plus de travail pour les développeurs, pas moins.

 

Installation du matériel

Installation de l’une des cartes AMD Radeon est vraiment facile. Une fois que la carte est insérée dans le PC assurez-vous de brancher le moniteur et bien sûr tous les connecteurs d’alimentation externes comme 6 et / ou 8-pin connecteurs d’alimentation PEG. De préférence, vous obtenez une alimentation qui a ces connecteurs PCIe de PEG natif (les convertir à partir d’un périphérique Molex connecteur anno 2013, nous pensons est un no-go).

Une fois cela fait, nous démarrerons dans Windows, installer les derniers pilotes AMD Catalyst et après un redémarrage tout devrait fonctionner. Aucune configuration supplémentaire n’est nécessaire ou nécessaire, sauf si vous souhaitez modifier les paramètres, pour lesquels vous pouvez ouvrir le Catalyst Control Center.

 

Consommation

Ayons un regard sur la façon de pouvoir tirage nous mesurons avec cette carte graphique installée. La méthodologie: nous avons un dispositif de surveillance en permanence la consommation électrique de l’ordinateur. Nous soulignons simplement le GPU, pas le processeur.La puissance avant et après nous dire à peu près combien carte puissance d’un graphique est la consommation en charge. Notre système de test est basé sur une puissance faim six-core Intel Core i7-3960X Extreme Edition Sandy Bridge-E configuration basée sur la plate-forme de chipset X79. Cette configuration est overclocké à 4,60 GHz sur tous les cœurs. À côté de cela, nous avons des fonctions d’économie d’énergie désactivés pour cette carte mère et le processeur (pour assurer des résultats cohérents de référence). Nous allons calculer la consommation de puissance du GPU ici, pas la consommation totale d’énergie de l’ordinateur.

Consommation ASUS Radeon R9-290x

  1. Système en IDLE = 123W
  2. Puissance du système avec GPU en PLEIN Stress = 400W
  3. Différence (charge GPU) = 277W
  4. Ajouter puissance IDLE moyenne ~ 10W
  5. Subjective obtenu la consommation de puissance du GPU = ~ 287 Watts

Rappelez-vous que la puissance du système est mesurée du côté de la prise murale et il ya d’autres variables comme PSU efficacité énergétique. Donc, c’est une valeur calculée pas une mesure précise, mais un très bon.

Ci-dessus, nous avons un tableau de la consommation de puissance relative. Là encore, la Puissance montré est la carte avec le GPU (s) a souligné à 100%, montrant que le tirage au sort de la puissance de crête de GPU, pas la consommation d’énergie de l’ensemble du PC et non la consommation moyenne de puissance de jeu non plus.

Consommation  TDP en KWh prix du kWh 2 heures jour 4 heures par jour
TDP Carte graphique mesurée 0287 0,23 0,13 0,26
         
Coût 5 jours par semaine / 4 heures jour € 1,32      
Coût par mois € 5,72      
Coût par année 5 jours semaine / 4 heures jour / € € 68,65      
Coût par année 5 jours semaine / 4 heures jour / $ $ 90,62      

Voici la recommandation d’alimentation de Guru3D:

  • AMD R9-290x – Sur votre système moyen de la carte vous oblige à avoir un Watt bloc d’alimentation 550 ~ 600.
  • AMD R9-290x  Crossfire – Sur votre système moyenne, les cartes vous obliger à avoir un Watt bloc d’alimentation 800 comme minimum.

Si vous allez à overclocker le GPU ou processeur, nous ne recommandons que vous achetez quelque chose avec un peu plus d’endurance. Il ya beaucoup de bonnes UPE là-bas, s’il vous plaît ne jetez un oeil à nos nombreux commentaires de l’UAP que nous avons des charges d’UPE recommandées pour vous de vérifier là. Qu’arriverait-il si votre alimentation ne peut pas faire face à la charge:

  • Mauvaise performance 3D
  • Jeux s’écraser
  • Réinitialisation spontanée ou arrêt imminent de la PC
  • Congélation pendant le jeu
  • Surcharge PSU peut l’amener à briser

Passons à la page suivante où nous allons examiner les niveaux de chaleur du GPU et les niveaux de bruit en provenance de cette carte graphique.

Les températures de la carte graphique

Donc, ici, nous allons jeter un oeil à des températures GPU. Première place, IDLE (bureau) des températures.

Tout l’ensemble en dessous de 50 degrés C est considéré comme correct, rien en dessous de 40 degrés C est très agréable et au-dessous de 30 degrés C – CEWL. Mais ce qui arrive quand nous sommes jeu? Nous tirons un formulaire de demande de jeu comme intense à la carte graphique et de mesurer la température la plus élevée du GPU. 

Donc, avec les cartes entièrement souligné nous avons gardé des températures de suivi et noté les pic (pas moyen) de la température du GPU.

  • ASUS Radeon R9 290x  DCUII OC – La température sous contrainte de jeu lourd pour la carte stabilisé à environ 77 ° C, beaucoup mieux que 94 degrés C pour le modèle de référence bien!
Vous remarquerez également que de longues peines soulignant n’entraîne pas en plus vers le bas pointage. Les creux dans le tableau sont les changements de scène BTW. S’il vous plaît assurez-vous que votre PC est bien ventilé, à tout moment, ce sera sérieusement vous aider sur les températures globales de GPU.

Les mesures de température d’imagerie thermique

Un nouvel ajout à notre avis sera l’intégration de Forward Looking Infra Red images thermiques de matériel. Au cours des dernières années, nous avons essayé de comprendre ce que la meilleure façon possible est de mesurer les températures sur le matériel. Plusieurs options sont disponibles, mais la meilleure chose à faire est de visualiser la chaleur provenant du produit ou du composant testé. L’inconvénient de matériel d’imagerie thermique est simple, la caméra FLIR de avec un peu de coûts de résolution décents mis à 10.000 EUR. Ainsi nous sommes passés sur elle pendant une longue période.

Avec une caméra d’imagerie thermique une lentille spéciale concentre la lumière infrarouge émise par l’ensemble des objets dans la vue.Cette lumière focalisée est balayée par un réseau en phase d’éléments détecteur infrarouge. Les éléments détecteurs de créer un profil de température très détaillée appelée un thermogramme. Cela prend seulement environ un trentième de seconde pour le réseau de détecteurs pour obtenir les informations de température pour faire le thermogramme. Cette information est obtenue à partir de plusieurs milliers de points dans le champ de vision de la matrice de détecteurs. Le thermogramme créée par les éléments de détection se traduit par des impulsions électriques. Les impulsions sont envoyées à une unité de traitement de signal, une carte de circuit avec une puce dédiée qui traduit l’information à partir des éléments dans des données pour l’affichage. L’unité de traitement de signaux envoie les informations à l’écran, où il apparaît que différentes couleurs en fonction de l’intensité de l’émission infrarouge. La combinaison de toutes les impulsions de tous les éléments crée l’image.

Pourquoi un mouvement vers imagerie thermique?

Une nouvelle tendance par exemple triche est que les fabricants sont peaufiner leurs produits avec un autre décalage, ce qui signifie que parfois (et nous avons vu ce que une ou deux fois) la température rapportée par un logiciel de surveillance est souvent plus bas que le produit est en réalité. Grâce à l’imagerie thermique cela devient cela devient une chose du passé que nous pouvons chercher les points chauds sur le circuit imprimé indiquant par exemple GPU mais aussi la température VRM ainsi que la façon dont la chaleur est distribuée à travers un produit. Nous espérons que vous apprécierez cette nouvelle technologie car elle ne nous a coûté un bras et une jambe pour être en mesure de mettre en œuvre. 

Ci-dessus vous pouvez voir la carte graphique dans des conditions de repos. Nous positionnons notre point de mesure dans le domaine de la filière de GPU à l’arrière de la carte. Vous pouvez voir que c’est très bien, environ 33 degrés C.  

Une fois que nous commençons à souligner le GPU les thermiques changent rapidement. Maintenant, nous pouvons mesurer thermiques dans le 10e d’un degré précis vraiment, malheureusement, la plaque est le blocage de la zone GPU / PCB, nous ne pouvons pas prendre une bonne lecture pour le GPU. Vous remarquerez que la zone VRM légèrement à gauche de la position M2 tourne 87 degrés C, je m’attendais à un peu mieux mais ce n’est pas trop mal. 

 

Lorsque nous positionnons la caméra thermique vers l’extérieur, nous pouvons voir que, malgré tout ce que nous disons et chose à propos de la glacière, il n’est pas épuisante air assez chaud significative à l’intérieur du PC. Le point le plus chaud est le gaz d’échappement réels et en haut de la carte, il ya un peu de chaleur résiduelle de PCB détectée. Donc oui, c’est assez agréable de refroidissement.

Niveaux carte graphique de bruit

Lorsque les cartes graphiques produisent beaucoup de chaleur, généralement que la chaleur doit être transporté loin du noyau chaud aussi vite que possible. Souvent, vous verrez des solutions de fans actifs massives qui peuvent effectivement se débarrasser de la chaleur, mais tous les fans de nos jours à faire le PC un fils bruyant d’un pistolet. Rappelez-vous que le test que nous faisons est très subjective. Nous avons acheté un mètre dBA certifié et allons commencer à mesurer le nombre de dBA proviennent du PC.Pourquoi est-ce subjective demandez-vous? Eh bien, il ya toujours du bruit en arrière-plan, des rues, de la HD, PSU fan etc, donc ce n’est par un mile ou deux une mesure imprécise. Vous ne pouvez obtenir une mesure objective dans une chambre de test de son.

Le système auditif humain a des sensibilités différentes à des fréquences différentes. Cela signifie que la perception du bruit n’est pas du tout égal, à chaque fréquence. Bruit à des niveaux mesurés importantes (en dB) à hautes ou basses fréquences ne sera pas aussi ennuyeux que ce serait quand son énergie est concentrée dans les fréquences moyennes. En d’autres termes, les niveaux de bruit mesurés en dB ne reflètent pas la perception humaine réelle de l’intensité du bruit. C’est pourquoi nous mesurons le niveau de dBA. Un circuit spécifique est ajouté à l’indicateur de niveau sonore pour corriger sa lecture à l’égard de ce concept. Cette lecture est le niveau de bruit en dB. La lettre A est ajoutée pour indiquer la correction qui a été faite dans la mesure. Fréquences inférieures à 1 kHz et 6 kHz ci-dessus sont atténués, tandis que les fréquences comprises entre 1 kHz et 6 kHz sont amplifiés par la pondération.

Niveaux sonores typiques
Jet décollage (200 pieds) 120 dBA  
Chantier de construction 110 dBA  Intolérable
Shout (5 pieds) 100 dBA  
Poids lourds (50 pieds)  90 dBA  Très bruyant
Urban street  80 dBA  
Automobile intérieur  70 dBA  Bruyant
Conversation normale (3 pieds)  60 dBA  
Bureau, salle de classe  50 dBA  Modéré
Salon  40 dBA  
Chambre la nuit  30 dBA  Calme
Sstudio diffusion  20 dBA  
Bruissement des feuilles  10 dBA  À peine audible

Il ya beaucoup de différences dans les mesures entre les sites. Certains vont même jusqu’à placer le 10cm dBA mètre de la carte ou directement à la fontaine. Pour nous cela n’a pas de sens. Considérant ce n’est pas là votre oreille se trouve, nous le faisons à notre manière.

Pour chaque test dBA nous fermons le PC / châssis et de passer l’arme à feu de 75 dBA cm de distance du PC. Environ la même proximité que vous aurez à partir d’un PC dans une situation du monde réel. Ci-dessus, le IDLE (mode bureau) où les résultats du GPU n’a guère de faire quelque chose. Les résultats Idle sont brillants.

La carte de référence dans un état entièrement souligné (dans le jeu) colle à 43 dBA, l’ASUS atteint seulement 40 dBA, qui doit être considéré comme silencieux. Vous pouvez peut-être entendre un débit d’air de peu de tiby provenant du ventilateur, mais c’est tout. 

Environnement de test et équipement

C’est là que nous commençons la partie de référence de cet article, mais laissez-moi d’abord de vous montrer notre système de test ainsi que le logiciel que nous avons utilisé.

Carte mère

MSI Big Bang XPower II (MS-7737) – examen

Processeur

Core i7 Extreme 3960 (Sandy Bridge-E) @ 4,6 GHz sur les six noyaux – examen

Cartes graphiques

AMD Radeon R9-290x (édition ASUS OC DirectCU II)

Mémoire

8192 Mo (2x 4096 Mo) DDR3

Bloc d’alimentation

1200 Watt Platinum Certified Corsair AX1200i – examen

Moniteur

Dell 3007WFP – QHD jusqu’à 2560×1600 
ASUS PQ321 natif moniteur 4K UHD à 3840 x 2160 – examen

logiciel de système d’exploitation liées

Windows 7 64 bits SP1 
DirectX 9/10/11 exécution utilisateur final ( téléchargement ) 
AMD Catalyst 13.12 Beta (télécharger ) 
série NVIDIA GeForce dernières 331,93 ( télécharger )

Suite logicielle de référence

  • Metro Last Light
  • BioShock Infinite
  • Tomb Raider
  • Battlefield 4
  • Medal of Honor Warfighter
  • Crysis 3
  • 3DMark 11
  • 3DMark 2013
  • Hitman Absolution

Un mot sur les “FPS”

Que cherchons-nous dans le jeu, la performance sage? Tout d’abord, évidemment Guru3D a tendance à penser que tous les jeux doivent être joués à la meilleure qualité d’image (IQ) possible. Il ya un dilemme si, IQ interfère souvent avec la performance d’une carte graphique.Nous mesurons ce FPS, le nombre d’images d’une carte graphique peut rendre par seconde est élevé, plus il est le plus couramment votre jeu va se voir.

Les cadres d’un jeu par seconde (FPS) est une moyenne mesurée d’une série de tests. Ce test est souvent une démo de temps, une partie enregistrée du jeu qui est une représentation 1:1 du jeu réel et son expérience de gameplay. Après avoir forcé les mêmes paramètres de qualité d’image, cette fois-démo est ensuite utilisé pour toutes les cartes graphiques de sorte que la mesure réelle est aussi objectif que possible.

 

Images par seconde Gameplay
<30 FPS Gameplay très limité
30-40 FPS Moyenne encore très jouable
40-60 FPS Bon gameplay
> 60 FPS Meilleur gameplay possible

 

  • Donc, si une carte graphique gère à peine moins de 30 FPS, le jeu n’est pas très jouable, nous voulons éviter cela à tout prix.
  • Avec 30 FPS en place à environ 40 FPS vous serez très capable de jouer le jeu avec peut-être un petit bégaiement à certaines parties graphiquement intensives. Dans l’ensemble une expérience très agréable. Correspondre à la meilleure résolution possible de ce résultat et vous aurez la meilleure qualité de rendu par rapport à la résolution, hey vous voulez tous les deux d’être aussi élevée que possible.
  • Quand une carte graphique fait 60 FPS en moyenne ou supérieure, alors vous pouvez être assuré que le jeu sera probablement jouer très facilement à chaque point dans le jeu, mettez chaque réglage possible dans le jeu IQ.
  • Plus de 100 FPS? Soit vous avez une carte graphique MONSTER ou un jeu très ancien.

Surveillance de l’installation

Avant de jouer à des jeux, la mise en place de contraste et de luminosité les niveaux de votre moniteur est une chose très importante à faire.J’ai réalisé récemment que beaucoup de gars ont mis en place votre moniteur de manière incorrecte. Comment le savons-nous? Parce que nous recevons quelques courriels de temps en temps nous dire que le lecteur ne peut pas distinguer entre les cartes de référence (couleurs) dans nos commentaires. Nous avons réalisé, si cela se produit, votre moniteur n’est pas correctement mis en place.

Que cherchez-vous?

  • Barre – Ce modèle de test simple est régulièrement espacées de 0 à 255 niveaux de luminosité, sans profil incorporé. Si votre moniteur est correctement configuré,  vous devriez être en mesure de distinguer chaque étape , et chaque étape doit être visuellement distincte de ses voisins par la même quantité. En outre, les différences de marche foncé finaux devraient être environ la même que la différence de pas de lumière de gamme. Enfin, la première étape devrait être complètement noir.
  • Les trois blocs inférieurs – La boîte la plus à gauche est une boîte noire avec au milieu une petite boîte une teinte plus claire que le noir. La case du milieu est une place bordée par un carré gris central. La boîte blanche extrême droite a une petite boîte “gris” qui devrait à peine visible.

Vous devriez être en mesure de distinguer toutes les petites différences, alors seulement vous Monitor est configuré correctement le contraste et la saturation sage.

DX11: Hitman Absolution 

Agent 47 est de retour et il est inscrit dans un désordre sanglant. IO promet le jeu sera plus accessible aux nouveaux joueurs, mais conserver la mécanique hardcore qui ont fait Hitman l’un des meilleurs tireurs de furtivité à la première personne sur PC. les détails de l’intrigue comprennent Agent série protagoniste 47 assassiner son ancien gestionnaire Agence internationale de contrat, Diana Burnwood, tôt dans le match. L’un des principaux antagonistes est Blake Dexter, un nouveau caractère de la série. Le personnage est doublé par Keith Carradine.Dans cet article nous allons regarder à DirectX 11 les performances graphiques de classe.

 

  • DirectX 11
  • Paramètres de haute qualité
  • 2x MSAA
  • 16x AF
  • Référence interne

Configuration système requise Hitman Absolution vont varier considérablement selon les paramètres graphiques, mais un PC modeste seront requis pour exécuter le jeu à des valeurs intermédiaires ou mieux. Hitman Absolution est construit sur le nouveau moteur de jeu Glacier 2, et aura des exigences du système de variables. Nouveau dans nos tests aura des résultats Ultra Haute Définition. Nous leur adressons plus tard dans l’article ainsi. Mais UHD va devenir une chose populaire à l’avenir, d’où nous avons commencé maintenant de les intégrer avec les cartes haut de gamme. 

C’est la 5ème jeu de la série Hitman, et le premier à être construit sur ​​le nouveau moteur Glacier 2, faite par le développeur IO Interactive. Hitman Absolution est rude avec photo paramètres de haute qualité et 2x MSAA activé. Donc vous désactivez simplement MSAA et vous remarquerez que vos framerate sauts vers le haut de manière significative. Rappelez-vous que ce graphique est basé sur WQHD qui est la résolution de 2560×1440 enthousiaste préféré ces jours.

DX11: Tomb Raider

Lara Croft est de retour et a la distinction d’être l’un des vrais petits groupes stars du jeu, une icône tout aussi important que Mario ou Sonic.Mais à bien des égards, elle a toujours pris la deuxième place aux tombes titulaires des jeux elle habite, avec des tentatives pour étoffer son personnage certains des moments les plus faibles dans une série vénérable de jeux.

Ce test a notamment permis la suivante:

  • DX11
  • Mode de qualité Ultra
  • FX AA activé
  • 16x AF activé
  • Qualité de cheveux normale (TressFX handicapés)
  • Sur Tessellation
  • SSAO Ultra

 

Nos notes sont des taux de trame moyenne si vous avez besoin de prendre une marge à l’esprit pour FPS inférieure à tout moment. En tant que tel, nous disons 40 FPS dans la résolution de votre moniteur préféré pour ce jeu devrait être votre minimum, tandis que 60 FPS (images par seconde) peut être considéré comme optimal. Encore une fois, vous l’esprit que nous avons commencé, y compris 4K Ultra Haute Définition (3840×2160) en standard dans les sessions de référence.

Nous laissons TressFX (de l’animation de cheveux fluide) désactivé car il faut un trop grand impact sur les performances pour les cartes d’entrée de gamme et milieu de gamme. Mais ouais premières performances de rendu bestial est assez spectaculaire putain vraiment.

 

DX11: Medal Of Honor Warfighter

Medal of Honor Warfighter (MOH Warfighter) est un jeu de tir à la première personne du même développeur Danger Close Games et édité par EA. Il est à la fois un mode solo et multijoueur. Le gameplay de Warfighter comprend six classes différentes qui sont Assaut, Sniper, Démolitions, Point Man, Heavy Gunner, et Spec Ops. Il utilise un système d’équipe de tir où deux personnes doivent travailler ensemble et il ya certains avantages à travailler en équipe. “soutien-actions” retour en Warfighter, et ont maintenant un plus grand impact sur le gameplay et la façon dont on s’approche de situations. Aussi, lorsque l’on acquiert un kill-série, le joueur a le choix sur l’un ou l’autre, les grandes tuer carambolages auront de plus grandes récompenses

 

Medal of Honor Warfighter utilise le Frostbite 2 sur la base de tuiles-Shading différé. Cette technique se décompose l’écran en tuiles et utilise un shader DX11 de calcul pour déterminer ce que les lumières sont utilisées dans chacun des carreaux. En utilisant un shader de calcul d’abattre les lumières qui ne sont pas utilisés dans une mosaïque, les calculs d’éclairage peut être fait beaucoup plus rapidement, et plus de lumières peuvent être utilisés ensemble dans la scène. Eyecandy … c’est ce qui rend le jeu vraiment génial. Pour nos tests de performances graphiques, nous appliquons le mode de qualité Ultra interne et 4xMSAA. DX11 est activé. 

Medal of Honor Warfighter est fixé à réglages Ultra de qualité d’image et a MSAA 4x activé.  Rappelez-vous le tableau comparatif est basé sur une résolution de 2560×1440.

DX11: BioShock Infinite 

BioShock Infinite est un jeu de tir jeu vidéo à la première personne et le troisième opus de la série BioShock.Auparavant connu sous le nom «Projet Icare”, il est développé par Irrational Games et a été libéré dans le monde entier sur le Microsoft Windows, PlayStation 3 et Xbox 360 plates-formes le 26 Mars 2013. BioShock Infinite ne fait pas partie de l’histoire de précédents jeux BioShock, mais certainement comporte des concepts et des thèmes de jeu similaires.

La version commerciale de Windows accueille textures haute résolution au-delà des versions de la console, et prend en charge les cartes vidéo capables de gérer DirectX 11 en plus de DirectX 10, permettant à de nouvelles améliorations graphiques pour le jeu. 

Nous testons BioShock Infinite à:

  • DirectX 11
  • Mode de qualité Ultra avec DDOD activé
  • FXAA activé

BioShock Infinite est testé avec FXAA à des réglages ultra de qualité. Vous remarquerez cadres taux assez exceptionnelles comme le moteur Unreal 3 graphique n’est pas que la taxation à tous, encore une fois, vous êtes à la recherche d’une résolution de 2560×1440 ici. 

DX11: Battlefield 4

Un des plus grands jeux de presse de l’année doit être Battlefield 4, qui combat jeu immersive qui va vous souffler de vos chaussettes. Battlefield 4 est construit sur le moteur Frostbite 3. Le moteur Frostbite permet des environnements plus réalistes avec plus élevées résolution des textures et des effets de particules. Un nouveau système “de l’eau en réseau» est également introduite, permettant à tous les joueurs dans le jeu pour voir la même vague en même temps.

Tessellation a également été remanié. Un Alpha procès s’est ouvert le 17 Juin, 2013 invitations par courriel au hasard pour Battlefield 3 joueurs le jour avant. Parmi les nouveautés, une amélioration de la fonction de destruction beaucoup où les bâtiments peuvent être complètement détruits (comme dans Bad Company 2, seulement à un niveau beaucoup plus élevé et détail), un meilleur système d’éclairage, de nouvelles animations, un nouveau système de temps de la marque, et plus encore. Nous utilisons un terme qui se trouve dans le niveau de VIP atteindre, avoir un coup d’oeil où nous enregistrons:


C’est l’enregistrement de la scène que nous utilisons pour nos benchmarks.

Pour tous nos tests de performances graphiques, nous appliquons les paramètres de qualité comme indiqué au 2xMSAA avec tous les paramètres graphiques de qualité fixées à Ultra. Nous avons confirmé que DX11 est activé. Cependant, certaines cartes milieu de gamme aura du mal dur à ces paramètres. Il y aura des niveaux qui sont un tout petit peu plus rigoureux, il y aura des niveaux et des sections de manière plus facile. Nous pensons que ce niveau est la meilleure représentation du moteur de jeu bien.

 

Notre essai a permis:

  • DX11
  • Mode Ultra
  • 2x MSAA activé
  • 16x AF activé
  • HBAO activé
  • Niveau: Reach les VIP

Nous testons en mode de qualité Ultra en tant que politique. Sur un âne 31 “Ultra Haute Définition coups de pied moniteur de jeux … et bien les cartes graphiques obtenir leurs ânes coups de pied que je veux dire. Un seul 780 Ti / Titan ou 290x est le strict minimum, vous aurez probablement finir par désactiver MSAA qui apportera vous dans les 40’ies FPS sage. 

** Nous avons mis à jour nos résultats de BF4 pour le 290x comme il y avait une erreur dans ce à 2560×1440. À côté d’une faute de frappe, les dernières revsions de pilotes ont également stimulé la performance globale du titre.

La mère de toutes les résolutions pour les joueurs PC anno 2013 est WQHD aka QHD qui est 2560×1440. Un mélange parfait d’une belle 27 “surveiller fonction de la densité de pixels est agréable ce qui est tout au sujet.

 

DX11: Metro Last Light

Metro Last Light (anciennement Metro 2034) est un jeu de tir jeu vidéo à la première personne développé par le studio ukrainien 4A Games et édité par Deep Silve. Il a été libéré en mai 2013. Le jeu se déroule dans un monde post-apocalyptique et propose un gameplay orienté vers l’action avec une combinaison d’éléments d’horreur de survie. Auparavant annoncé comme Metro 2034, le jeu est la suite de Metro 2033, et bien que l’auteur Dmitry Glukhovsky a apparemment travaillé avec les développeurs, il n’a aucun rapport avec le livre Metro 2034.Initialement, le jeu devait être publié en vertu de THQ et devrait être publié au milieu de 2012, il a été annoncé le 2 Février 2012, que le jeu serait retardée jusqu’à ce que le premier trimestre de 2013, 1 Mars 2013, le jeu a été nouveau retardé jusqu’au mois de mai. Après la fermeture de THQ en Janvier 2013, la propriété intellectuelle a été acquis par l’éditeur de jeux vidéo Deep Silver.

Metro Last lumière prend en charge un certain nombre de caractéristiques de pointe DX11 avec la dernière génération de cartes graphiques DX11. Les utilisateurs avec des cartes DX11 connaîtront Profondeur avancée d’effets sur le terrain ainsi que la pleine Tessellation sur des modèles de personnages. Nous mesurons en mode DX11 seulement. Ci-dessus sont des chiffres de performance basées sur les différents paramètres de résolution d’image. paramètres de qualité de l’image sont maxed, nous sommes en mode DX11, le jeu utilise l’anti-aliasing AAA standard, nous ne permettons pas super échantillonné AA. Nous avons filtrage de texture à 16xAF, Montion Blur et tesselation à la normale. 

Dessus d’une comparaison de plusieurs cartes pour lancer le jeu à 2560×1440 maximisé. C’est assez impressionnant perf là.

DX11: Crysis 3

Le titre populaire est de taille, d’un point de vue graphique. Qu’est-ce que vous avez vraiment besoin? Par conséquent, comment peut-elle se produire sur une sélection de différentes cartes graphiques? Nous allons couvrir toutes ces bases et ensuite plus si vous savez ce que le choix de faire soit la carte graphique ou les paramètres en jeu sage.

Ci-dessus, le temps démo que nous utilisons pour mesurer la performance de jeu, c’est un enregistrement générique pas spécifiquement fait avec la solution de carte graphique testé dans cet article. C’est la Bienvenue sur le niveau Jungle. Le test appliqué assez rigoureux, dur et je n’avais vraiment adapté pour haut de gamme DX 11 cartes graphiques de classe de 2012 et 2013 en combinaison avec nos réglages de qualité d’image.

Crysis 3, nous appliquons tout. paramètres de qualité de l’image:

  • DirectX 11
  • Paramètres très haute qualité
  • FXAA Activé
  • Bienvenue sur le niveau Jungle

Et ci-dessous un tableau comparatif, une carte à 25×14 obtiendra un battement très approximative de la partie. Et aussi permettez-moi d’affirmer le mode Texture DX11 / HQ et Ultra paramètres ne sont pas obligatoires, mais en tant que joueur PC je suppose que vous voulez quelque chose de mieux que la qualité de la console, non? Toutes les cartes de niveau amateur sont assez proches les uns des autres.

Ainsi, nos paramètres de qualité d’image sont un peu trop pour cette carte. Vous aurez besoin de descendre de Ultra en mode haute qualité avec de préférence pas AA pour être en mesure de jouer le titre avec des performances plus rapides. C’était à prévoir, bien sûr.

 

DX11: 3DMark 11

3DMark 11 est la dernière version de ce qui est probablement la série la plus populaire, la carte graphique de référence. Conçu pour mesurer les performances de votre PC de jeu s??, 3DMark 11 fait un usage intensif de toutes les nouvelles fonctionnalités de DirectX 11, y compris la tessellation, shaders de calcul et de multi-threading. Reconnu par les joueurs à travers le monde pour donner des résultats précis et sans parti pris, 3DMark 11 est la meilleure façon de tester cohérente et fiable DirectX 11 sous les charges de jeu comme.

Ce seront les exigences :

  • 3DMark 11 nécessite DirectX 11, une carte vidéo compatible DirectX 11 et Windows Vista ou Windows 7.
  • OS: Microsoft Windows Vista ou Windows 7
  • Processeur: 1.8 GHz dual-core Intel ou AMD CPU
  • Mémoire: 1 Go de mémoire système
  • Graphique: DirectX 11 carte graphique compatible
  • Espace disque dur de 1,5 Go
  • Audio Windows Vista / Windows 7 Carte son compatible

test graphique 1

  • Basé sur la scène Deep Sea
  • Pas de tessellation
  • Éclairage lourd avec plusieurs feux de coulée d’ombre

test graphique 2

  • Basé sur la scène Deep Sea
  • Tessellation moyen
  • Éclairage moyen avec quelques lumières de coulée d’ombre

test graphique 3

  • Basé sur la scène de haute Temple
  • Tessellation moyen
  • Une ombre au lancer léger

test graphique 4

  • Basé sur la scène de haute Temple
  • Tessellation lourd
  • Beaucoup de lumières de coulée d’ombre

Physique test

  • Simulation physique de corps rigide avec un grand nombre d’objets
  • Ce test fonctionne à une résolution fixe quel que soit le programme choisi

Nous testons 3DMark 11 en mode performance qui donnera une bonne indication de la performance de la carte graphique dans le bas, milieu de gamme et le segment haut de la carte graphique de gamme. L’application est DirectX 11, ce qui signifie que tant de cartes sont compatibles.

 

Alors 14K points pour le R9-290x, pas mal. Voici où un Core i7 plus rapide 3960X@4.6 GHz aide vraiment. Ci-dessous également les résultats en mode X.

DX11: 3DMark 2013

Le nouveau 3DMark comprend tout ce dont vous avez besoin pour votre matériel de référence. Avec trois tous les nouveaux tests que vous pouvez banc tout de smartphones et tablettes, PC portables et PC à la maison, les derniers haut de gamme, les ordinateurs de bureau de jeu multi-GPU. Et ce n’est pas seulement pour Windows. Avec 3DMark vous pouvez comparer vos scores avec les appareils Android et iOS trop.

Et nous ne pouvons pas laisser l’édition 3DMark 2013 de cours. Voici les résultats 3DMark Firestrike. Feu Strike est la nouvelle vitrine DirectX 11 de référence conçu pour les PC de jeux de haute performance. Il est le plus ambitieux et technique de référence de Futuremark jamais, avec des graphismes en temps réel rendus avec précision et de complexité au-delà de ce qu’on trouve dans d’autres points de repère et des jeux d’aujourd’hui.

Oh salut là avec vos points de 10k, comment tu fais?!

 

Nous allons examiner dans les pages suivantes dans cadre d’analyse de l’expérience avec une technologie de référence appelé FCAT. Fondamentalement avec les graphiques présentés, nous essayons de vous montrer des anomalies graphiques comme bégaie et défauts dans un graphique tracé. Dernièrement, il a été une nouvelle mesure introduite, les mesures de latence. Fondamentalement, il est à l’opposé de FPS.

  • FPS mesure essentiellement la performance, le nombre d’images rendues par seconde qui passe.
  • Frametime aka enregistrements d’expérience de cadre pour la plupart des mesures et expose anomalies – ici nous regardons combien de temps il faut pour rendre une image. Mesurez que chronologiquement et vous pouvez voir des anomalies comme des pics et des creux dans un graphique tracé, indiquant quelque chose pourrait être éteint. 
temps de cadre 
en millisecondes
FPS
8.3 120
15 66
20 50
25 40
30 33
50 20
70 14

Nous avons un article détaillé ( lire ici ) sur la nouvelle méthodologie utilisée FCAT, et il explique aussi pourquoi nous n’utilisons plus FRAPS.

Frametime – Fondamentalement, le temps qu’il faut pour rendre une image peut être contrôlé et identifié par un numéro, c’est la latence. Un cadre peut prendre dire 17ms. Une latence plus élevée peut indiquer un framerate lent, et les pics de latence étranges indiquer un bégaiement, gigue, tics essentiellement des anomalies qui sont visibles sur votre écran.

Ce que ces mesures montrent?

Mais fondamentalement, ce que ces mesures montrent des anomalies sont comme de petits pépins et bégaie que vous pouvez parfois (et s’il vous plaît ne lire que bien, parfois) voir à l’écran. Ci-dessous je tiens à courir à travers quelques titres avec vous. Rappelez-vous que moyen FPS importe plus que les mesures de frametime. C’est juste une page ou deux de plus d’informations que à partir de maintenant, nous allons vous servir.

Expérience Tomb Raider Frame analyse

Ci-dessus un graphique percentile des 30 secondes @ 2560×1440. Ici, nous traçons FPS et le plaçons dans le cadre de percentiles. Cette méthode pourrait être utilisée pour déterminer FPS moyenne ainsi.

Vérifiez le marqueur de 50%:

  • R7-260X fait environ 29 FPS  en moyenne dans cette séquence de scène
  • GTX 780 fait environ 74 FPS  en moyenne dans cette séquence de scène
  • R9-290x ne environ 87 FPS  en moyenne dans cette séquence de scène

Il s’agit en fait repérer sur les scores enregistrés précédentes. Mais laisse maintenant regarder à l’image de latence.

Est au-dessus de la carte testée à une résolution d’écran de 2560×1440 (QHD). Vous remarquerez qu’ici échelle frametime en millisecondes est plus élevé pour les cartes plus lents, et plus faible pour les cartes rapides. Faible latence signifie une carte graphique peut presser plusieurs cadres dans une seconde. Comme vous pouvez le voir de toutes les cartes testées il n’y a pas bégaie enregistrées. C’est vraiment aussi bon qu’il peut obtenir. Ceci est presque la perfection.

Avec ce tableau, inférieure = mieux. Pointes énormes au-dessus de 40ms – 50ms peuvent être considérés comme un problème ou indiquent un faible framerate. Spikes qui tombent peuvent être des images saccadées.

Hitman Absolution analyse de l’expérience de cadre

Ci-dessus un graphique percentile des 30 secondes @ 2560×1440. Ici, nous traçons FPS et le plaçons dans le cadre de percentiles. Cette méthode pourrait être utilisée pour déterminer FPS moyenne ainsi.

Vérifiez le marqueur de 50%:

  • R7-260X fait environ 25 FPS en moyenne dans cette séquence de scène
  • GTX 780 fait environ 58 FPS en moyenne dans cette séquence de scène
  • R9-290x ne environ 57 FPS en moyenne dans cette séquence de scène

Mais laisse maintenant regarder à l’image de latence.

Sur ces 30 secondes terme toutes les cartes graphiques parvient à rester à un débit de rendu très constant avec une latence relativement faible pour les deux cartes les plus rapides. Nous ne pouvons pas détecter d’éventuelles anomalies visibles comme les pépins et bégaie.C’est à nouveau un très bon résultat vraiment.

Pour ceux qui ne comprenez pas ce que vous cherchez à, ce qui précède est une scène rendue, les 30 premières secondes de la Hitman intégré de référence. Avec ce tableau, inférieure = mieux. Pointes énormes au-dessus de 40ms – 50ms peuvent être considérés comme un problème comme un bégaiement ou indiquent un faible framerate. Pour les trois cartes c’est un résultat parfait.

BioShock Infinite analyse de l’expérience de cadre

Ci-dessus un graphique percentile des 30 secondes @ 2560×1440. Ici, nous traçons FPS et le plaçons dans le cadre de percentiles. Cette méthode pourrait être utilisée pour déterminer FPS moyenne ainsi.

Vérifiez le marqueur de 50%:

  • R7-260X fait environ 21 FPS en moyenne dans cette séquence de scène
  • GTX 780 fait environ 63 FPS en moyenne dans cette séquence de scène
  • R9-290x ne environ 58 FPS en moyenne dans cette séquence de scène

Mais laisse maintenant regarder à l’image de latence.

Sur cette deuxième course de 30 cartes graphiques tous gérer un bon résultat. Malgré un ou deux très petites pointes nous ne pouvons pas détecter un bug ou bégaiement qui est important ou de longue durée. Pour ceux qui ne comprenez pas ce que vous cherchez à, ce qui précède est une scène de gametime enregistrée pendant 30 secondes. 

Avec ce tableau, inférieure = mieux. Pointes énormes au-dessus de 40 ms à 50 ms peuvent être considérés comme un problème comme un bégaiement ou indiquent un faible framerate. Nous voyons un pic, mais honnêtement rien à craindre que l’intrigue générale est extrêmement lisse. 

Concluant sur FCAT, les résultats montrent une expérience de cadre très synchrone. Il est aussi bon qu’il va obtenir.

Jeux à 3840×2160 FPS Performance Avec Jeux modernes

Donc, sur cette page que je veux vous montrer un aperçu des performances de rendu avec une série de cartes graphiques haut de gamme et de niveau Passionné. Dans les charts nous ajoutons les dernières cartes Radeon, puis sur le côté de NVIDIA, une GeForce GTX 780 et GeForce GTX Titan, ce sont les seules cartes que vous devriez utiliser avec une configuration HD Ultra comme cela de toute façon que vous voulez au moins 3 Go de mémoire graphique par carte . Au fil du temps ces cartes s’accumulent, donc s’il vous plaît comprendre que la suite de deux fonctions pages comme une indication de ce que nous avons besoin dans le pas si loin avenir.

  • DirectX 11
  • Paramètres de haute qualité
  • 2x MSAA
  • 16x AF
  • Référence interne
Encore une fois, pour les cartes GPU simples, si vous désactivez AA vous gagnerez jusqu’à à un tiers de la performance qui rend les jeux assez jouable. 

  • DirectX 11
  • Mode de qualité Ultra avec DDOD activé
  • FXAA activé
BioShock est le seul titre où NVIDIA gagne beaucoup de terrain au récemment

  • Medal of Honor Warfighter est fixé à Ultra Qualité d’image
  • MSAA 4x activé (différé) 

  • DX11
  • Mode de qualité Ultra
  • FX AA activé
  • 16x AF activé
  • Qualité de cheveux normale (TressFX handicapés)
  • Sur Tessellation
  • SSAO Ultra

Nos notes sont des taux de trame moyenne si vous avez besoin de prendre une marge à l’esprit pour FPS inférieure à tout moment. En tant que tel, nous disons 40 FPS pour l’ensemble devrait être votre minimum, tandis que 60 FPS (images par seconde) peut être considéré comme optimal. 

 

 

  • Des effets de profondeur de champ
  • Tessellation complet sur les modèles de caractères
  • Le mode DX11
  • paramètres de qualité de l’image sont maxed
  • AAA anti-aliasing 
  • 16xAF, Motion Blur et Tessellation à la normale

  • DirectX 11
  • Paramètres très haute qualité
  • FXAA Activé
  • Bienvenue sur le niveau Jungle

  • DX11
  • Mode Ultra
  • 2x MSAA activé
  • 16x AF activé
  • HBAO activé
  • Niveau: Reach les VIP

S’il vous plaît permettez-moi d’ajouter que Battlefield 4 semble incroyable en Ultra HD. La gamme 50 FPS à 3840×2160 n’exige une très puissante solution multi-GPU. Mais oui GTX 780 (Ti) SLI ou R9-290 (X) Crossfire pourraient effectuer extrêmement agréable. 

Overclocking de la carte graphique

Comme la plupart d’entre vous le savent, la plupart des cartes vidéo, vous pouvez appliquer une simple série de trucs pour booster un peu les performances globales. Vous pouvez le faire à deux niveaux, à savoir peaufiner en permettant registre ou BIOS hacks, ou tout simplement d’altérer la qualité d’image. Et puis il ya l’overclocking, qui vous donnera les meilleurs résultats possibles de loin.

Que devons-nous?
L’un des meilleurs outils pour l’overclocking NVIDIA et ATI videocards est notre propre AfterBurner qui travaillera avec 90% des cartes là-bas les graphiques. Nous pouvons vraiment recommander,  télécharger ici .

Où devons-nous aller?
Overclocking: En augmentant la fréquence de la mémoire et du GPU de la carte vidéo, nous pouvons faire la carte vidéo d’accroître ses cycles de calcul d’horloge par seconde. Il semble difficile, mais il peut vraiment être fait en moins de quelques minutes. J’ai toujours tendance à recommander aux utilisateurs novices et les débutants, de ne pas augmenter la fréquence tout supérieure à 5% sur la base et de la mémoire.  Exemple:  Si votre carte fonctionne à 600 MHz (ce qui est assez fréquent de nos jours), alors je suggère que vous ne pas augmenter la fréquence plus haut que 30 à 50 MHz.

Les utilisateurs plus avancés pousser la fréquence souvent beaucoup plus élevés. Habituellement, lorsque vos graphiques 3D commencent à montrer des objets tels que des points blancs (“neige”), vous devez reculer 10-15 MHz et en rester là. Habituellement, lorsque vous êtes overclocking trop dur, il va commencer à montrer des objets, des polygones vides ou il sera même geler. Trouver attentivement cette limite et puis redescendre au moins 20 MHz à partir du moment vous remarquez un artefact. Regardez attentivement et bien observer. Je ne saurais vraiment pas pourquoi vous avez besoin d’overclocker la carte testée aujourd’hui de toute façon, mais nous allons encore le montrer.

 

Comme vous le remarquerez, dans le nouveau pilote, vous pouvez overclocker en changeant juste le curseur sur GPU horloge et limite de puissance. Ensuite, en outre, vous pouvez modifier manuellement Temps et horloge de base.

Nous ne vous recommandons pas d’overclocker avec le panneau de contrôle Catalyst . Nous avons essayé et échoué lamentablement, car une fois l’OC est appliqué, il sera rétabli pendant démarrage de Windows. Dans notre cas, l’overclock a entraîné dans un accident d’écran noir, et à chaque démarrage, le CO se appliqué à nouveau avant que nous puissions atteindre le panneau de commande pour activer par défaut. En fin de compte nous avons fini de réinstaller une image de sauvegarde du système d’exploitation que même une restauration du système ne serait pas nous sortir de ce petit trou noir.

En bref, utiliser quelque chose comme Afterburner ou un outil de votre choix. 

Original Cet échantillon Overclocké 
Horloge de base: 1000 MHz Horloge de base: 1050 MHz Horloge de base: 1175 MHz
Horloge mémoire: 5000 MHz Horloge mémoire: 5400 MHz Horloge mémoire: 6184 MHz

 

Nous avons trouvé un petit tweak qui apportera à votre fréquence d’impulsion vers presque 1175 MHz stable. Nous avons appliqué:

  • Target Power 150%
  • GPU horloge 1175 MHz
  • Fréquence de la mémoire 1546 MHz (x4)
  • Tension 100 Mv
  • La commande du ventilateur RPM @ 50%

Avec la limite de puissance de la carte physique, vous allez voir toutes les cartes se terminant à peu près à ce coup de pouce overclock et fréquence. Nous avons maintenant un indice de performance en nos mains sur le dessus de l’overclock d’usine, avoir un coup d’oeil aux résultats quand overclocké.  

 

Pour tous les jeux overclockés ci-dessus, nous avons utilisé les mêmes paramètres de qualité d’image comme indiqué avant. Globalement, nous avons été en mesure d’obtenir un autre 5% peut-être la performance de 10% sur cette carte graphique. 

Final Words & Conclusion

Maintenant, vous savez juste que je peux jeter toutes sortes de superlatifs à vous les gars, mais je peux être bref ainsi. Il s’agit de la Radeon R9-290x nous attendions qu’elle soit, période.

Un refroidissement suffisant, des performances extrêmes, silencieux et tweakable sont les mots-clés ici. Et bon, il est livré d’usine cadencé plus rapidement que référence et il est un bon morceau moins cher qu’un GTX 780 Ti ainsi que vous obtenez plus de mémoire graphique (4 Go). BELLE! Ayant beaucoup chevaux pur cru sous le capot apportera des options pour la table. Vous jouez à vos jeux à 2560×1440 et film sur chaque paramètre de qualité que vous pouvez penser. Même alors, les cartes vont faire un excellent travail. Pour quelques-uns d’entre vous qui ont déjà fait le pas vers UHD 4K ou jeux à 3840 x 2160 où ces cartes ne font sens. L’édition ASUS OC Radeon R9 290x DirectCU II est souvent aussi rapide ou plus rapide qu’un GeForce GTX 780 Ti et certainement plus rapide qu’un Titan, tout cela va être un prix une bonne partie inférieure. Alors que dans les moyens de Retrospect (même à ce niveau de prix) le rendement de l’argent. Les prix vont s’asseoir à 499 ~ 539 EUR (TTC pour cette carte graphique plutôt shweeeeet).

Refroidissement et bruit

Où la référence refroidi produits doivent être considérés comme vraiment moyenne, le DirectCU II fait faire ses promesses intéressant sur tout. ASUS appliqué leur dernière révision de la solution de refroidissement DirectCU II. Cette révision est une solution dual-slot semble grand.Le PCB est personnalisé et je peux repérer simplement des composants de qualité, belles. Les regards, bien pour le refroidisseur à son design tout en noir, vous vous obtenez de décider si oui ou non d’appliquer des autocollants de couleur. Mais oui, tout noir est une option aussi. Nous avons appliqué les rouges. Deux ventilateurs subtiles et silencieuses combinés avec un soupçon de rouge en fait un bon paquet en regardant bien. Great looking et très solide, je dois dire que bien, il ya une plaque de métal dans le haut de la carte et la carte ne peut pas plier lorsque vous êtes assis à l’horizontale dans le PC. Nous avons mesuré une température de 77 degrés C sur la carte de stress supérieur, venant de 94 degrés C sur les refroidisseurs de référence qui est plutôt doux. À côté de cela, la carte reste à être silencieux. Donc, ce qui est tout simplement mis une amélioration massive sur les cartes de référence.

En conséquence des températures de refroidissement de ces cartes à peine downclock non plus, donc plus un souci soit plus. Les petits creux des changements de scène et me prendre une capture d’écran en arrière-plan.

Consommation

Nous nous attendions à bien pire, la consommation d’énergie n’est pas mauvais mais pas bon non plus, la carte est évalué par nous ayant un TDP de 290 watts. C’est élevé, mais en perspective, il est de 30 à 40 Watts loin de Titan. Alors que certainement aurait pu être pire. Je pense que les consommateurs enthousiastes à ce niveau de performance ne me dérange tant que ça sur la consommation électrique et être indulgent. Que 290 Watt TDP sera également exécuter les solutions multi-GPU un peu plus compliqué. Avec deux cartes que nous pensons un Watt PSU 800 ~ 900 serait suffisant. Donc oui, c’est pas génial d’avoir un GPU consommant beaucoup de pouvoir, mais cela aurait pu être bien pire.

performance du jeu

L’AMD R9 290x dans la plupart des scénarios se produira à peu près au Titan ou GeForce GTX 780 Ti comme la performance, qu’il jolie kick ass pour un seul GPU avec une étiquette de prix plus agréable. Réaliste, je serais compare à la GeForce GTX 780. N’oubliez pas que vous recevrez une copie gratuite de Battlefield 4 aussi bien avec certaines références. Performance sage vraiment il n’y a pas un jeu qui ne fonctionne pas au sérieux bien à l’une des cartes, et c’est aux meilleurs paramètres de qualité d’image. Et vous faites tout avec une belle moniteur 30 “bien sûr, à 2560×1440/1600. Que je veux dire BioShock infini à des niveaux de qualité Ultra est encore suintait 60 + FPS là. Ou que dire de Hitman Absolution 67 + FPS en 2560×1600 haute qualité et 2xMSAA? C’est vraiment belle performance. Et surtout pour ceux qui ont le jeu ultra haute définition à l’esprit, la 290/290X fera configuration de sens en Crossfire. Ce serait un sweet spot et vous auriez 4 Go de mémoire graphique par GPU.

Overclocking

Overclocking puis, une chose ou deux ont changé, les nouveaux modes de boost par exemple. Cependant, dans la conception actuelle des niveaux de refroidissement normales, vous pouvez atteindre près de 1 200 MHz sur le GPU. La mémoire peut être cadencé juste au-dessus de 6000 MHz (efficace). Dans l’ensemble de la carte qui apporte une autre performance de 5 à 10% par rapport aux fréquences d’horloge de référence. C’est un assez bon tweak, aussi je dois noter que ASUS usine d’overclocking de la carte un peu à 1050 MHz sur la base de GPU et 5400 MHz sur la mémoire.

Un peu d’un avertissement, il semble que AMD encore appliquer automatiquement l’overclock au démarrage. être prudent avec ça? Pousser trop loin et avec les réglages pré-appliqués, il est possible que la carte serait bloquer lors du démarrage de Windows / start. Assurez-vous donc que vous savez ce que vous faites.

 

Final

Des produits tels que le ASUS OC Radeon R9 290x DirectCU II est le matériel que nous avons attendu. Après quelques semaines de rapports sur les températures et les problèmes qui lui sont liés, nous nous sentons AMD a fait un choix en moyenne avec les refroidisseurs de référence du 290x, je veux dire que c’est une excellente carte, mais l’objectif de température de 94 degrés C est un soupçon gênant. L’ASUS OC Radeon R9 290x DirectCU II élimine cependant tous que, grâce au refroidisseur DirectCU II. En fait, vous aurez même plus de réserve d’être réellement en mesure de réellement overclocker la carte. Une victoire pur à mon avis. Dans les produits haut de gamme comme le montre aujourd’hui fera le segment de passionné ensemble va baisser un peu dans la tarification. Je m’attends à ce que dans les premières semaines après la sortie de ce produit, le prix sera plus gonflé en raison de la forte demande et peu disponible, mais une fois DirectCU II se trouve à 499 EUR, c’est là qu’il fera la différence. En tant que tel, nous ne pouvons que conclure que le ASUS OC Radeon R9 290x DirectCU II est un produit sérieux attrayant, avec son grand volume de 4 Go de mémoire graphique et les performances brutes de rendu, il va sûrement vous offrir une grande quantité de performances de jeu dans votre PC. Les niveaux de chaleur, et les niveaux de bruit ne sont plus un compromis efficace et ont été éliminés. Cela rend la carte un concurrent sérieux contre line-up de NVIDIA.

Ouais, c’est le 290x qui sont refroidis personnalisé qui fera la différence, ce ASUS OC Radeon R9 290x DirectCU II est un parfait exemple de ce qui doit la 290 et 290x vraiment être. En tant que tel l’édition ASUS OC Radeon R9 290x DirectCU II est très agréable, recommandé et totalement approuvé par Guru3D.com

Oh, et essayer de l’imagerie cette carte dans un «régulier» 290 100 euros moins cher révision qui est simplement une petite encoche lent – yummie ;) 

Recommandée Téléchargements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s