Se connecter / S'enregistrer
Votre question

Comment choisir ma carte graphique: tout ce qu'il faut savoir [TUTO]

Tags :
  • Tutoriel
  • Matériel
Dernière réponse : dans Matériel informatique
31 Janvier 2007 23:27:50

Topics complementaires

Je vous donne un lien vers un topic complémentaire sur PresencePC fait par Benoit P.


Vous y trouverez entre autres de nombreuses informations sur différentes cartes graphique notamment un classement des cartes graphiques en fonction de leurs performance ainsi qu'un classement en fonction de leur consommation.

Il donne aussi des conseils d'achats, gardez à l'esprit qu'il s'agit de conseils généraux.


Voici aussi un lien vers le Guide Les Numeriques des cartes graphiques daté d'Avril 2008.



Aussi, si vous pensez pouvoir encore tirer un peu sur votre matériel actuel, quitte à le mettre a risque, vous pouvez tenter 2 choses:

- soit de l'overclocker
Ceci requiert peu de connaissances mais une certaine patience et il faut s'assurer de quelques détails avant d'aller trop loin, notamment la qualité de son alimentation.
Donc voici un lien vers un Tutoriel pour overclocker sa carte graphique(ATI ou Nvidia) réalisé par SamTech25.

- soit le "flasher"
Ceci requiert une connaissance assez pointue de son matériel, à ne pas pratiquer à la légère (certains membres qui s'y connaissent beaucoup mieux que moi ont déjà perdu des composants couteux suite à un mauvais "flashage")
Je mets tout de même le lien vers un tutoriel pour flasher sa carte graphique réalisé par Marijuo. A savoir que tous les composants ne peuvent être "flashés".



***



Petites informations avant de commencer:

Coté Matériel:

Pour les gens qui cherchent une carte en AGP: Les cartes AGP en 2007


Pour les gens qui cherchent des cartes en PCIe:
  • XP ne gère pas DirectX 10, il faut Vista ou Seven pour cela.
  • Les Radeons X*** et X1*** ainsi que les GeForces 6*** et 7*** sont déclinées en PCIe mais ne gèrent pas DirectX 10: elles se limitent à la prise en charge de DX9.
  • Par contre, toutes les cartes ATI series HD**** et Nvidia Geforce 8/9 et GTX/GTS supportent DirectX10 ou plus.
  • DirectX 11 est supporté à partir des HD5 équipée du GPU Trillian pour ATI (avec pour premières cartes les HD5870 et HD5850 sorties le 29 septembre 2009 officiellement) et du GF100/Fermi de Nvidia ( sorti officiellement le 26 mars 2010 avec les GTX480 et GTX470).


    Pour plus d'informations sur les cartes graphiques DX9/DX10: le topic de Marijuo sur les premières cartes DirectX10: R600 et G80


    Sinon, voici un topic ou sont référencées des informations techniques sur Intel, AMD, ATI et Nvidia fait par MaxGix.


    Cote logiciel:

    Citation :

    les premiers pilotes NVidia pour Windows XP Pro *64* bits ne sont pas compatibles avec le pack SP2 d'XP 64 qui a été publié par Microsoft en mars.

    Symptôme:
    écran bleu avec le message "the driver is mismanaging the system PTES" .

    Remède provisoire de l'époque: désintaller le pack SP2 en attendant que NVidia corrige le problème

    Autre remède: remplacer la carte par une carte ATI.

    Merci a Milmot pour l'information
    On peut aussi désinstaller les pilotes de la carte graphique et utiliser les pilotes Windows mais cela entraine une perte de performances dans les jeux.

    MAJ problème résolu depuis la mise a jour des pilotes, si vous rencontre ce souci, désinstallez les pilotes et téléchargez en une version plus récente
  • Autres pages sur : choisir carte graphique savoir tuto

    1 Février 2007 19:53:07

    Plan du Tutoriel:
    Cliquez sur un titre de partie pour être redirigé automatiquement
    I ) Mais comment la choisir?

    II ) Déterminer le port de connexion à la carte mère
    1/ Via un port PCI:
    2/ Via un port AGP:
    3/ Via un port PCIe (PCI express):


    III ) La mémoire graphique

    IV ) Le processeur graphique

    V )Le nom de la carte graphique

    VI ) Les technologies équipant les cartes graphiques
    1/ Hypermemory/Turbocache, le partage de mémoire entre carte graphique et le système central
    2/ DirectX
    3/ SLI et Crossfire et leurs dérivés


    VII) L'alimentation de votre ordinateur

    Conclusion
    1 Février 2007 22:40:51


    CHOISIR SA CARTE GRAPHIQUE


    réalisé par Dafen.

    Ce tuto a été crée par une personne qui aime jouer. Par conséquent il est plutôt orienté vers des cartes graphiques récentes et performantes.

    Si vous vous contentez de faire du traitement de texte et de l'internet, une carte à 50€ peut tout à fait suffire!
    Cependant ce tuto comprend certaines informations qui s'avèrent importantes même pour un utilisateur non joueur.




    parce que vos derniers jeux n'arrêtent pas de ramer, que vous ne pouvez y jouer qu'avec des résolutions basses, vous avez décidé de changer de carte graphique !
    Mais comment la choisir pour tirer le maximum de performances de votre machine ?
    Contenus similaires
    2 Février 2007 20:21:33

    I )Mais comment la choisir?

    Il y a en fait plus de critères qu'on ne pourrait le penser:
    - votre budget
    - le port de connexion à la carte mère
    - le processeur graphique
    - le nom de la carte graphique
    - la mémoire intégrée à la carte graphique


    Je vais donc tenter de vous indiquer comment choisir au mieux sa carte graphique.

    Annexe:
    Il est aussi possible, au lieu de changer la carte graphique, d'augmenter ses performances en réglant certains paramètres, notamment en augmentant la fréquence de fonctionnement du processeur graphique ou et/ou de la mémoire graphique. La carte est alors surcadencée (overclock) et on observe un gain de performances plus ou moins important.

    Toutefois, c'est une mesure qui nécessite un peu d'expérience, qui inclue certains risque (notamment la perte pure et simple du matériel).
    Mais on a un matériel plus performant à un cout nul.

    Pour plus d'informations, voici un Tutoriel pour overclocker sa carte graphique réalisé par Samtech


    3 Février 2007 18:13:46

    II )Déterminer le port de connexion a la carte mère

    Il existe aujourd'hui 3 façons de brancher une carte graphique à une carte mère.
    Sur les machines plus anciennes, il existe d'autres connectiques qui ont disparu des machines "grand public" au début des années 90 donc je n'en parlerai pas.

    * * *



    1/ Via un port PCI:


    Ce sont les ports blancs que l'on trouve sur la carte mère.



    On trouve généralement des ports PCI 32 Bit sur nos cartes actuelles, il faut savoir que le port PCI se décline aussi en version 64 Bit.

    pour le 32 Bit:

  • Le connecteur PCI 5V qui est celui de la norme originalement conçue. Correspond aux révisions 1.0 et 2.0, fonctionne à 5V.
  • Le connecteur PCI 3.3 V, destiné aux ordinateurs portables. Correspond à la révision 2.1 et supérieur. Le port est alors dit "universel" car prend en charge 5V et 3.3V. A partir de la révision 2.3, le support des cartes 5V est abandonné.

    le 64 Bit:

    Le port 64 Bit n'ayant pas été exploité pour les cartes vidéos, je ne le mets qu'à titre indicatif.



    On trouve de moins en moins de cartes graphiques en PCI pour 2 raisons essentielles:
    - Elles sont de moins en moins utilisées, remplacées peu à peu par le port AGP puis le port PCIe
    - La qualité graphique obtenue avec une carte en PCI est médiocre en général du fait du "faible" taux de transfert entre carte graphique et carte mère: un port PCI fonctionne à 33Mhz pour les 5V et 33 ou 66Mhz pour les 3.3V ce qui donne une bande passante trop faible pour que les meilleurs processeurs graphiques puissent être correctement utilisés sur ce port.


    * * *



    2/ Via un port AGP:

    C'est le port marron, si l'on en a un.
    Voici les différentes variantes:


    Lors de son introduction en 1997, c'était la première fois qu'un port sur une carte mère était entièrement dédié à une carte graphique.
    Son nom indique d'ailleur cette utilité: Accelerated Graphic Bus = Port Graphique Accéléré (sous entendu "par rapport au PCI")

    Le taux de transfert supérieur a permis le développement de nouvelles carte graphiques plus puissantes.
    De plus, au cours du développement et des évolutions technologiques, on a vu la norme de l'AGP changer: on a eu à la suite 3 normes de port AGP.

    Connecteur AGP 3,3V/1,5V :


    Le port 3.3V correspond aux premiers ports AGP: AGP 1.0 en AGP X1 et X2
    Le port 1.5V correspond aux cartes à la norme AGP 2.0 (avec AGPX1, X2 et X4) et 3.0 (avec l'AGP X4 et X8)


    Notez que la différence entre ces 2 normes est aussi physique: le détrompeur ne se situe pas au même endroit

    Cela a poussé à la création d'une 3ème norme pour la phase de transition: le connecteur AGP universel.

    Peu répandue, cette dernière version, tourne en 1.5V ou 3.3V
    Elle supporte le débit de l'AGP 2.0, on peut donc lui associer une carte graphique AGP X1, X2, X4 ou X8.


    Ces différences de ports AGP sont aussi liées à des différences de taux de transfert:
    AGP 1X = 266 Mo/seconde
    AGP 2X = 500 Mo/seconde
    AGP 4X = 1 Go/seconde
    AGP 8X = 2 Go/seconde

    Le taux de transfert se calcule simplement: la référence est le port PCI 32bit cadencé à 66Mhz.
    On utilise donc la formule:
    taux de transfert AGP en Mo= (coef. multiplicateur AGP X 66 Mhz X 32 Bit] ) / 8


    Faites le calcul avec les valeur au dessus, j'ai un peu arrondi les résultats...


    Au cours des évolutions technologiques, le Port AGP 1.5V s'est imposé et donc on trouve des cartes graphiques généralement conçues pour ce port. Il n'y a donc pas de soucis de compatibilité physique.
    Toutefois, l'évolution des technologies a permis une évolution du taux de transfert et donc à amener certains "décalages" entre carte mère et carte graphique au niveau du taux de transfert. Sachez donc qu'en resumé, votre carte mère peut accepter des carte graphiques de norme égale ou inférieure à celle de son port AGP.

    Exemple:
    - une carte mère avec un port AGPX4 pourra supporter une carte graphique AGP X4 et X2
    - une carte mère avec un port AGPX8 pourra supporter une carte graphique AGP X8 et X4. l'AGPX2 ne fonctionnera pas !
    en général

    De plus, les cartes graphiques AGP X8 sont aussi conçues pour fonctionner en AGP X4, on peut donc monter une carte AGPX8 sur un port AGPX4 sans soucis.
    Pour faire simple:


    Pour de plus amples informations sur la norme AGP, vous pouvez vous référer à ce sujet sur les compatibilités/incompatibilités pour les cartes 2D/3D au format AGP sur Hardware.fr.

    * * *



    3/ Via un port PCIe (PCI express):
    Cela concerne les cartes mères produite à partir de 2004 avec un ou plusieurs emplacement(s) PCIe

    Apparue en 2004 avec le chipset Intel 925X et le nForce4 pour Nvidia, c'est la norme la plus récente pour les cartes graphiques. Elle se décline en plusieures formes:
  • PCIe X1
  • PCIe X2
  • PCIe X4
  • PCIe X8
  • PCIe X12
  • PCIe X16
  • PCIe X32

    Celle qui nous intéresse est la norme X16.Il est noir ou le port bleu en général. Je prend l'exemple de la P5B Deluxe qui a 2 port PCIe X16, un port PCIeX1 et 3 port PCI:

    Notez aussi la présence d'un port PCIeX1 entre le port PCIe X16 noir et le port PCI le plus à droite


    Pour le PCIe comme pour l'AGP, l'appellation indique une différence de taux de transfert mais en plus chaque forme à une taille spécifique.

    Les usages:
  • Les formes X1, X4 et X8 du PCI-Express servent généralement à accueillir d'autres types de cartes fille tel une carte son ou tuner TV bien que l'on puisse trouver des cartes graphiques pour ces formes.
  • Le PCIeX1 est destiné à un usage d'entrées-sorties à haut débit Le PCIeX4 et le PCIeX8 sont destinés à un usage sur serveurs



  • Enfin, le PCIeX16 est celui qui nous intéresse le plus ici
    - il mesure 89 mm de long
    - il sert principalement de port graphique


    PCIe sert ici à designer la technologie plus que le port en lui même.


  • PCIe 1.0, 1.1 et 2.0

    La norme PCIe évolue elle aussi et se décline maintenant dans sa version 2.0 .

    Alors qu'en est il de la compatibilité ?
    C'est le même principe que les ports USB: seul le taux de transfert change, il n'y a aucune différence physique comme on en trouve pour l'AGP.

    On peut donc associer une carte graphique avec un connecteur PCIe 1.0 sur une carte mère avec un port PCIe 2.0 ou inversement.
    Mais, comme pour l'USB, si on mélange PCIe 1.0/1.1 et 2.0, on restera avec les taux de transferts du PCIe 1.0/1.1

    En effet, il faut noter que le port PCIe 2.0 a une bande passante 2 fois plus importante que le PCIe 1.0 et donc offre la possibilité d'utiliser des cartes graphiques plus puissantes.
    Elle se décline aussi en plusieurs formes (X4, X8, X16 et X32).

    Un autre point important: le changement de la puissance fournie par le port PCIe.
    On passe de 75W pour le PCIe en 1.0 a 225W voire 300W pour le 2.0. Cela implique que les cartes graphique PCIe 2.0 qui ne comportent pas de port PCIe pour une alimentation supplémentaire comme la GeForce 9800 GT Green bien que cette carte ait une consommation diminuée.


    Pour plus d'informations, voici un article par Generation-NT et un autre par ZDNet.fr.

    Tous les périphériques et composants exploitant le PCIe produits à partir 2008 sont à la norme PCIe 2.0.



  • Le PCIe 3.0

    Annoncé en 2007, il étaitattendu pour 2010 mais finalement n'a été que normalisé durant cette année.

    Nous verrons probablement son arrivée sur le marché en 2011.


    Un résumé des ports principaux vus ici:



    Pour savoir quel port utilise votre carte graphique, allez dans:
    Panneau de configuration => Système => Matériel => Gestionnaire de périphérique => Carte graphique
    Regardez dans les "propriétés" si nécessaire

    Si vous ne trouvez pas grâce a ce moyen, téléchargez et installez PC Wizard
    Il est produit par les mêmes équipes qui ont conçues CPUID, GPUID et quelques autres logiciels populaires parmis les spécialistes en informatique.
    Dans le menu Affichage, cliquez sur la ligne où est indiqué le nom de votre carte graphique et les spécifications seront données dans la partie inférieure de l'écran.
    3 Février 2007 18:31:57

    III )La mémoire graphique

    Comme vous devez le savoir, une carte graphique est entre autre caractérisée par sa mémoire intégrée.


    * * *


    1er point important: le type de mémoire

    Il existe plusieurs types de mémoires intégrées car, similairement à la RAM, les technologies ont évolué et on a pu produire des systèmes de plus en plus performants.



    Ainsi, la mémoire se décline en plusieurs types :
    - La SDRAM, qui a équipé les premières générations de cartes graphiques.

    - La mémoire GDDR est l'appellation générale pour une technologie qui existe en plusieurs normes:
  • la GDDR 2 : Apparue avec la DDR II, elle est la première norme de GDDR conçue. Elle est sortie sur le marché avec la Geforce FX5800 en 2003. On la retrouve encore pour les modèles "entrée de gamme".
  • la GDDR 3 : amélioration de la GDDR2, elle gagne en fréquence et sa tension d'alimentation diminue. Elle a été conçue par ATI vers la fin 2003 mais c'est sur une carte du caméléon qu'elle est apparue pour la première fois en Mars 2004: la Geforce FX5700 Ultra qui a vu son contrôleur GDDR2 utilisé jusqu'ici remplacé pour prendre en charge la GDDR3. Elle est très largement utilisée mais se retrouve maintenant parmi les cartes "moyen de gamme" principalement.
  • la GDDR 4 : encore et toujours le même principe. Développée par Samsung, elle est apparue en Octobre 2005. elle est principalement réservée aux cartes graphiques haut de gamme.
  • la GDDR5 : développée et produite par Qimonda, Samsung et Hynix, elle a été produite dès Mai 2008 par Quimonda. Elle équipe principalement les cartes "haut de gamme" et "très haut de gamme".



    GDDR :Graphic Double Data Rate (memory)
    On retrouve ici l'utilisation de la technologie DDR, petit rappel: c'est un type de mémoire vive exploitant les fronts montants et descendants de la mémoire. La bande passante est donc doublée par rapport à la SD-RAM à fréquence équivalente.

    Toutefois, cela n'a aucun rapport avec la RAM installée sur la carte mère ! Le principe technologique est le même mais la forme et l'utilisation sont totalement différents.
    Il n'y a absolument aucun problème de "compatibilité" entre la GDDR et la carte mère:
    - la GDDR se trouve soudée sur la carte graphique et seule la carte graphique l'utilise.
    - la mémoire de la carte mère se trouve sur la carte mère et peut être utilisée par la carte graphique mais seulement pour les cartes graphiques entrée de gamme.


    Aussi, on note généralement une différence de performances entre 2 cartes graphiques identiques en tout point sauf le type de mémoire.

    Prenons la Geforce 7600 GS qui se décline en 2 versions: la première a de la GDDR2 et l'autre de la GDDR3
    A capacité égale, celle avec la GDDR3 sera plus performante.


    * * *


    2ème point important : la capacité de mémoire intégrée à la carte graphique.

    Les cartes graphiques sont produite par plusieurs constructeurs à partir des mêmes processeurs graphiques qui sont fournis par Nvidia ou ATI.
    Ainsi donc, on peut trouver 2 cartes graphiques identiques en tout point sauf la capacité de mémoire qu'elles embarquent.

    Il faut savoir que la capacité n'est que secondaire dans les performances de la carte: une carte avec 1 Go ne sera pas forcement plus performante qu'une carte avec 256Mo.


    Tout dépend du processeur graphique et de l'utilisation faite de la carte:
    - Une carte graphique sur un ordinateur utilisé pour de la bureautique ne sera pas exploitée à fond et donc ne nécessitera pas beaucoup de mémoire.

    - Une carte graphique sur un ordinateur conçu pour du multimédia sera un peu plus exploitée et donc nécessitera une quantité adaptée de mémoire par rapport à son processeur graphique.

    - Une carte graphique sur un ordinateur prévu pour les jeux aura besoin d'une mémoire relativement importante car lors des jeux, le processeur graphique sera très exploité et donc devra pouvoir traiter un maximum de données simultanément pour que l'utilisation soit la plus fluide possible.


    Cela dit, il faut que la capacité de mémoire ne soit pas disproportionnée par rapport aux performances du processeur graphique: une carte graphique entrée de gamme à 30€ ne pourra exploiter plus de 128Mo ou 256Mo quelle que soit son utilisation.


    Enfin, une mémoire graphique plus importante apporte bien un gain mais seulement pour les cartes graphiques haut de gamme et seulement si l'on utilise une résolution supérieure à 1600X1200 (écran 20" minimum ), et ce gain est faible.
    4 Février 2007 01:56:10

    IV )Le processeur graphique

    Communément appelé GPU pour Graphical Processing Unit, que l'on peut traduire "Processeur Graphique".
    Comme pour les processeurs que l'on met sur les cartes mère, il existe différents processeurs graphiques. Certains sont plus performants que d'autres, il faut donc bien le choisir.




    Il faut savoir que comme pour la mémoire, le choix du processeur graphique doit se faire en fonction de l'utilisation de l'ordinateur:

  • pour de la bureautique, on peut prendre une carte dite "entrée de gamme" avec un processeur graphique peu performant (on parle des cartes à moins de 50€ principalement voire de systèmes graphiques intégrés à la carte mère, les "chipsets graphiques").

  • pour du multimédia, il est préférable de s'orienter vers le "milieu de gamme" avec un processeur avec des performances correctes (entre 60 et 150€ grand maximum en général)

  • pour le jeu, le milieu de gamme est un minimum et il faut le processeur le plus performant possible (on trouve des cartes très correctes à partir de 100€, mais pour un joueur "accro", 150€ est une moyenne basse et certaines cartes coutent jusqu'à 600€...)

    Ceci dit, il arrive que des cartes dans les gammes de prix plus faibles aient des performances équivalentes a des haut de gamme.

    Pour déterminer quel processeur graphique est le plus efficace, il faut chercher des tests effectués par les sites spécialisés.
    Ces sites vont effectuer des tests en différentes situations et faire des comparatifs avec d'autres cartes présentes sur le marché.
    On peut citer PresencePC/Tom'sHardware, jmax-hardware, overclocking-masters, PCinpact, Hardware.fr et Clubic qui effectuent des tests régulièrement en fonction des sorties (il y a d'autres sites encore...).

    Ainsi, je vous conseille de regarder les noms des cartes disponibles en fonction de votre budget puis de rechercher des tests/comparatifs concernant ces cartes.
    4 Février 2007 05:58:22

    V )Le nom de la carte graphique


    Le nom d'une carte graphique est complexe malgré les apparences.

    Au cours des années, le système a changé mais Nvidia comme ATI ont gardé un système assez similaire et plus ou moins facile a comprendre.
    Je vais donc vous décrire les systèmes utilisés par les 2 concepteurs en fonction des séries de cartes qui sont sorties.

    Parmi ces séries, nous retrouverons:
    - ATI Radeon
    - ATI Radeon séries 9 et séries X
    - ATI Radeon HD
    - Nvidia Geforce séries 5/6/7/8/9
    - Nvidia Geforce GTS/GTX

    Le nom d'une carte graphique se compose généralement de 2 choses:
    - un nom de serie indiquant la position dans la gamme
    - un préfixe ou suffixe précisant la position dans la gamme



    ATI


    Les premières Radeon

    La première grande gamme de carte produite par ATI. Ce sont elles qui ont succédé aux ATI Rage/RagePro/RageXL qui ont fait les débuts de la marque.
    Les premières Radeon ont vu le jour en 2000: les Radeon 7000. Puis sont venues les Radeon 7500 et 8000. Elles n'existent qu'au format AGP et n'ont aucun intérêt maintenant.
    Je ne traiterai pas de celles-ci car trop anciennes.

    Les ATI Radeon séries 9 et séries X


    Ce sont les séries faites pour le grand public et qui ont connu plusieurs modèles, ainsi donc un système de classement a été mis en place:

    Le premier chiffre

    Il indique la génération de la carte graphique ainsi une Radeon 9600 est de la 9ème génération.

    ATTENTION
    Après la Radeon 9, plutôt que de commencer leur nouvelle gamme pas un 10 ATI a choisi de remplacer ce 10 par le symbole romain: X.
    Ainsi, les Radeon X sont la suite directe des Radeon 9.
    X1*** est donc la 11eme génération


    Le deuxième chiffre

    Il indique la position dans la gamme:
    - les 1, 2, et 3 composent l'entrée de gamme
    - les 4, 5, et 6 indiquent le moyen de gamme
    - les 7, 8, et 9 font le haut de gamme

    Le troisième chiffre

    Il y a 2 possibilités: 0 et 5
    les "0" indique que c'est le processeur graphique tel qu'il est sorti initialement.
    le "5" indique qu'il s'agit d'une révision du processeur graphique

    ainsi, le processeur graphique X1950 est une révision du GPU de la Radeon X1900.

    Les ATI Radeon HD


    Après l'arrivée de la HD dans le marché grand public, ATI a choisi de modifier le nom de ses nouvelles séries pour un effet plus commercial qu'autre chose.
    Ainsi, au lieu d'avoir une gamme Radeon X2**, ATI a choisi de remplacer le "X" par "HD".

    Les HD2** sont donc la suite directe des Radeon X1**.

    ATTENTION
    Malgrès le nom, toutes les Radeon HD ne supportent pas la technologie HD.

    Le système de classification reste le même pour les HD2**.
    Pour les HD3/4/5 toutefois, un détail change.


    Le troisième chiffre
    Il sert alors a indiquer la déclinaison du GPU et indique la position dans la gamme:
    - les 1, 2, et 3 sont les versions les moins performantes du GPU
    - les 4, 5, et 6 sont les versions intermediaires
    - les 7, 8, et 9 sont les versions les plus performantes.

    Ainsi, la HD4830, la HD4850 et la HD4870 sont toutes dérivées du GPU RV770 mais n'ont pas les mêmes caractéristiques et les mêmes performances.
    La HD4830 étant la moins performante et la HD4870 la plus performante.


    Les suffixes utilisés par ATI

    En plus d'avoir des cartes avec des GPU différents, ATI a aussi des cartes avec des déclinaisons différentes d'un même GPU.
    Ainsi, on a des X1950 Pro, X1950 XT et X1950 XTX. Ou alors des HD2400 Pro ou HD2400 XT.

    Il a été utilisé pour les séries Radeon 9, Radeon X/X1 et Radeon HD2.

    Du moins performant au plus performant:
    SE < 00 < GT < Pro < XT < XTX


    Toutefois, ce système a disparu avec les HD3**.



    Nvidia



    Les premières Geforce

    Nvidia a produit plusieurs gammes avant les Geforce 5 comme les Geforce2, Geforce 3 Ti et Geforce4 Ti4 mais ces cartes sont trop anciennes et je ne m'attarderai donc pas dessus.


    Les Geforce séries 5/6/7/8/9

    Tout comme pour ATI, un système de classification a été mis en place, système qui peut être porté dans les grandes lignes aux séries précédents.

    Le premier chiffre

    Comme chez ATI, il indique la génération de la carte graphique: une Geforce 9 est plus récente qu'une Geforce 8 elle même plus récente qu'une Geforce 7 et ainsi de suite.


    Le deuxième chiffre

    Il indique la position dans la gamme:
    - les 1, 2, et 3 composent l'entrée de gamme
    - les 4, 5, et 6 indiquent le moyen de gamme
    - les 7, 8, et 9 font le haut de gamme

    Le troisième chiffre

    Il y a 2 possibilités: 0 et 5
    les "0" indique que c'est le processeur graphique tel qu'il est sorti initialement.
    le "5" indique qu'il s'agit d'une révision du processeur graphique

    ainsi, le processeur graphique de la 7950 est une révision du GPU de la Geforce 7900.


    Les suffixes utilisés par Nvidia

    Tout comme ATI, NVIDIA a utilisé des suffixes pour indiquer les différentes déclinaisons d'un même GPU:

    Du moins performant au plus performant:
    TC < LE < 00 < GS < GT < GTO < GTS < GTX < Ultra


    Ainsi, la Geforce 6600 LE etGeforce 6600 GT dérivent du même GPU mais n'ont pas les mêmes performances.


    Attention pour les Geforce 8800 de chez Nvidia
    Nvidia nous a mal joué ses cartes la sortie des GPU compatibles DirectX10: ils ont sortis 2 cartes dès Decembre 2007 (la 8800 GTS et la GTX ).
    Puis quelques mois plus tards, ils ont sorti une Geforce 8800 Ultra qui a le GPU d'une 8800GTX mais des fréquences de fonctionnement plus élevées (en gros, c'est une 8800 GTX overclockée).
    La 8800 GTS se décline en version 320Mo et 640Mo, la GTX a 768Mo. Elles utilisent le processeur graphique G80.

    8 mois plus tard, Nvidia a sorti de nouvelles Geforce 8800: la GS, la GT et la GTS.
    Elles utilisent le G92 qui est plus récent et plus performant que le G80. Ces cartes auraient du faire partie de la série des Geforce9 mais Nvidia a choisi autrement.
    Le GS existent en version 384Mo et 768Mo.
    Les GT en version 256Mo, 512Mo et 1Go.
    Les GTS se déclinent en version 512Mo et 1Go.

    Ainsi, on se retrouve avec un classement:
    GS 384Mo < GT 256 < GTS 320Mo < GTS 640Mo < GT 512Mo < GTX 768Mo < GTS 512Mo < GTS 1Go = Ultra 768Mo

    Attention ! Ce classement n'est valable que pour les Geforce 8800



    Les Geforce GTS/GTX

    Après les Geforce 9, Nvidia a choisi de changer la classification de ses cartes:
    - les GTS composent la moitié inférieure de la gamme
    - les GTX composent la moitié supérieure

    Le chiffre indique ensuite la position de la carte dans la demi-gamme.

    Ainsi, on retrouve en bas de tableau les GTS230 par exemple et en haut les GTX275, GTX285 et GTX295 par exemple, dans cet ordre de performances.


    Le système en pratique: je prendrais 2 exemples: ATI Radeon X1900 GT et Nvidia GeForce 7900 GS

    Ces 2 cartes ont des performances similaires mais leurs noms sont très différents (non, je ne deviens pas gateux ;)  )

    Commençons par la ATI:

    - Radeon est le nom de la série

    - le "X" est utilisé pour dire que c'est la 10ème génération de Radeon, la X1900 est donc la 11ème génération.

    - le "9" désigne le processeur graphique, ainsi il existe des X1300, X1600, X1800, ...

    - les "00" indique que c'est la version de base.

    - le "GT" est un symbole utilisé par les constructeurs pour désigner la "déclinaison" dudit processeur: il existe ainsi une X1900 GT , X1900 XT et une X1900 XTX entre autres.

    passons à la Nvidia:

    - le "GeForce" indique ici la série

    - le "7" indique la génération.

    - le "9" indique le processeur comme pour. Il y a aussi des 7300, 7600, 7900...

    - les "00" indique que c'est la version de base.

    - le "GS" est un symbole utilisé par les constructeur pour designer la "déclinaison" dudit processeur: ainsi il y a aussi une 7900 GT, 7900 GTX, ....


    La marque du constructeur.

    Il est important de noter qu'il existe différents constructeurs pour les carte graphiques (on peut citer Asus, MSI, XTX, Gygabyte,...) mais qu'ils construisent des cartes à partir des processeurs développés par Nvidia ou ATI.

    On peut donc trouver une Asus X1300 (donc processeur graphique ATI) ou une Asus 7600 (donc équipée d'un processeur graphique développé par Nvidia)

    La qualité de la carte peut différer entre les constructeurs mais les performances globales sont les mêmes.





    Pour finir, voici un petit tableau classant les cartes graphiques en fonction de leurs performances (cliquez dessus pour agrandir ):





    Un récapitulatif Wikipedia sur les séries Radeon
    Un récapitulatif Wikipedia sur les séries Geforce
    4 Février 2007 20:36:28

    VI ) Les technologies équipant les cartes graphiques

    1/ Hypermemory/Turbocache: partage de mémoire entre carte graphique et le système central

    Turbocache pour NVidia
    Hypermemory pour ATI-AMD.

    Il s'agit en fait de la même technologie: elle permet à une carte graphique d'aller puiser de la mémoire vive du système et de l'utiliser comme mémoire graphique.
    On peut penser que l'ajout de mémoire va permettre un gain de performances mais il n'en est rien: cette technologie équipe essentiellement les cartes graphiques "entrée de gamme".

    Pourquoi ?
    Pour 2 raisons:
    - Cela permet de réduire la quantité de mémoire intégrée à la carte graphique et donc cela réduit les couts de productions et donc plus de bénéfices ou un tarif à l'unité moins élevé.
    - La mémoire utilisée par la carte graphique
    En effet, les cartes graphiques haut de gamme utilisent des normes de mémoire qui ont des performances très supérieures à la mémoire vive "normale".
    Il parait donc difficile d'associer les 2 types de mémoire sans perdre en performance. A contrario, les cartes graphiques d'entrée de gammes sont équipées de mémoire peu performante car moins couteuse et aussi parce que les processeurs graphiques équipant ces cartes ne sont pas très performants et donc n'ont pas besoin de mieux.


    De plus, le fait de prendre de la mémoire au système réduit la quantité de mémoire disponible pour le processeur du PC et donc peut brider ce dernier.


    La conclusion générale est que ce sont des technologie inutiles, jouant encore une fois sur l'idée reçue que plus il y a de mémoire, plus la carte graphique est performante.
    Evitez ces cartes, surtout si vous cherchez une carte graphique pour jouer.


    2/ DirectX
    Lorsqu'il y a des grands changements comme ce fut le cas avec la sortie de Vista, de nouvelles cartes graphiques (Nvidia Geforce8/9 et ATI Radeon HD2/3) et de nouvelles technologies comme une nouvelle version de DirectX , on est facilement perdu.

    Il faut donc savoir faire la part des choses:
  • Qu'est ce que DirectX?
    - pour les plus curieux: Wikipedia vous donnera tout

    - pour les plus pressés: c'est un ensemble de logiciels permettant la gestion de certaines technologies visuelles et physiques telles que les manettes et joypads. Il peut dans certains cas pallier à une absence physique de certaines technologies voire certains composants permettant ainsi de faire fonctionner des logiciels plus ou moins récents sur la plupart des PC.


  • Ai-je besoin d'une carte graphique DirectX10?
    - Si vous êtes sous XP: NON
    XP ne prend pas en charge DX10 et Microsoft ne semble pas avoir prévu de régler cela.
    Un groupe de programmateurs indépendants a lancé un projet pour pallier à cela mais cela reste encore a l'état de projet et , pour ma part, je doute que Microsoft les laisse faire. Microsoft a toutefois annoncé s'intéresser à une solution pour rendre compatibles XP et DX10 en passant par une émulation de ce dernier via les pilotes, mais pour l'instant on en entend peu/pas parler.
    - si vous êtes sous Vista: ça dépend
    Vérifiez vos logiciels: pour la plupart des tâches, vous ne devriez pas en avoir absolument besoin, c'est un petit plus si vous pouvez l'exploiter. Toutefois, certains logiciels le demanderont, dans ce cas, il vous faudra une carte graphique le prenant en charge.

    Les jeux sont un exemple de logiciels pouvant nécessiter la dernière version de DirectX, avec le temps ils sont donc optimisés pour exploiter la version la plus à jour mais restent rétro-compatibles dans la grande majorité des cas.
    Il existe cependant quelques exceptions, c'est pourquoi il faut bien lire les configurations requises pour les jeux avant l'achat.


    Une carte DirectX 10/11 est elle compatible avec XP?
    Oui !
    Mais elle sera bridee dans le sens ou, comme XP ne gère pas les versions supérieures à DirectX 9c, une cartes graphique neuve ne verra pas ses capacités exploitées à fond.
    Et donc, si vous avez un logiciel nécessitant une version plus récente que le 9c, même si votre carte graphique gère la version nécessaire,XP ne pourra faire fonctionner le logiciel.

    En ce qui concerne le DirectX 10: un dossier sur Presence PC devrait vous expliquer quelques petits trucs non développés ici.
    Et DirectX 11 arrive avec Windows 7 et sera compatble avec Vista


    DirectX est un logiciel en téléchargement libre.
    Voici quelques liens:
    DirectX 9
    Open GL
    , c'est un systeme "concurrent" de DirectX developpe par des particuliers et utilise, a la base, sous Linux
    Open GL sur Wikipedia




    3/ SLI, Crossfire et les dérivés


    Ce sont des solutions multi-VPU (Video Processing Unit) basé sur l'association de plusieurs cartes graphiques sur un même système, en opposition aux cartes avec 2 processeurs graphique comme la Nvidia Geforce 7950 GX² ou la ATI Radeon HD4870 X² qui sont des solutions multi-VPU en une seule carte. Appelé SLI chez NVidia et Crossfire chez ATI-AMD, il s'agit en fait d'une technologie qui existe depuis 1998 et qui a été développée par 3DFx à l'occasion de la sortie de la Voodoo2 sur port PCI.

    En 1998, Nvidia et ATI n'étaient pas les seuls producteurs de GPU: Matrox(Wikipedia en Anglais) et 3DFx(Wikipedia en Anglais) entre autres livraient une rude bataille pour les parts de marché et pour amener des innovations technologiques. Ces sociétés n'ont pas survécu au passage de millénaire: Matrox a abandonné le marché grand public pour se focaliser sur le marché professionnel tandis que 3DFx, en difficultés financières, a été racheté par Nvidia.
    Nvidia a alors ré-utilisé le principe technologique et a ressuscité le SLI en 2004. C'est alors la seule technologie multi-GPU sur le marché. ATI a répondu en sortant le Crossfire en 2005.


    Il s'agit la encore de technologies similaires: les systèmes de couplage de cartes graphiques.
    En pratique, on installe 2 cartes graphiques identiques dans le PC afin d'obtenir de meilleures performances.


    En théorie, on peut s'attendre a un gain de performance de 100%, la réalité est tout autre et le système se heurte à plusieurs obstacles:
    - la mauvaise gestion de 2 cartes par les pilotes de la carte mère
    - les limitations par la bande passante des ports PCIe qui sont nécessairement de taille X16 mais pas forcément cablés comme tels. Un port PCIe X16 peut être cablé de telle manière à n'avoir le débit que d'un port PCIe X4 tout en conservant une taille "normale".
    - le manque d'optimisation des jeux pour ces systèmes

    Tous ces points font que les solutions multi-GPU sont peu intéressantes car pour un cout doublement supérieur ou plus (car il faut une carte mère compatible et une alimentation suffisamment puissante), on obtient des gains de performance inférieurs à 50% en général.

    Toujours est il que ces technologies ont connu plusieurs évolutions:
    Nvidia

  • SLI
    Première norme multi-GPU sortie avec les Geforce 6, elle nécessite une carte mère compatible et 2 cartes graphiques Nvidia Geforce 6. La gestion du SLI a été apportée par les pilotes Forceware 80.**. La connexion entre les 2 cartes graphiques se fait via un "pont SLI" qui est un connecteur interne (il se branche sur les cartes à l'intérieur du boitier).



  • Quad SLI
    Le Quad SLI est une version améliorée du SLI qui permet d'utiliser des cartes graphique double-GPU en SLI. Apparu en 2006 avec la 9800 GX², on peut alors monter un système avec 4 GPU répartis en 2 GPU sur chaque carte graphique.



  • 3-way SLI ou Tri-SLI
    Annoncé en 2007, il s'agit d'une déclinaison du SLI ou l'on n'associe non plus 2 mais jusqu'à 3 cartes graphiques. Les permières cartes à bénéficier de cette avancée furent les 8800 GTX 768Mo/Ultra.



  • Hybrid SLI
    D'abord utilisé sur les plateformes portables, il s'agit de l'association de GPU différents. Jusqu'ici, le SLI demandait que l'on associe des GPU identiques: on ne pouvait par exemple associer une Geforce 6600 GT et une Geforce 7600 GS bien que ces cartes soient très similaires.
    L'Hybrid SLI a été conçu comme un système d'économie d'énergie: un portable est équipé d'une puce graphique intégrée à la carte mère et d'une carte graphique (sur le port MXM). Lorsque sur batterie, la puce graphique intégrée à la carte mère est utilisée car consomme peu, sur secteur la carte graphique prend le relais mais en plus se fait "assister" par la puce graphique. Cela permet d'obtenir un gain significatif d'après Nvidia, en pratique ce système reste très peu utilisé car encore peu présent sur les PC de bureau.
    Liste Nvidia de puces compatibles Hybrid SLI

    Et une petit FAQ sur le SLI.

    ATI

  • Crossfire
    Premier concurrent réel du SLI, il est apparu avec les Radeon X*00/X*50 (R420/423/430/R480). Il nécessite: une carte mère certifiée pour le Crossfire, une carte graphique et une carte graphique identique "Crossfire Edition" le tout relié par un câble externe:

    Lancé avec le chipset pour carte mère ATI Radeon Xpress200 Crossfire Edition, il possédait une "souplesse" que n'avait pas le SLI: on pouvait déjà mélanger les GPU. On pouvait par exemple mettre une Radeon X850 Pro avec une Radeon XT Crossfire Edition mais dans ce cas, il va y avoir mise à niveau des performances individuelles: la carte graphique la plus performante va s'aligner sur la moins performante d'où une perte de performance par rapport au maximum théorique.


  • Crossfire Logiciel
    Ceci est une amélioration de la prise en charge logicielle du Crossfire: apparu avec les pilotes Catalyst 6.11, il permet d'associer des cartes ATI tout à fait identiques. On s'affranchit donc de la nécessité d'une carte graphique "Crossfire Ready". Pour cela, il faut une carte mère supportant le Crossfire (donc à base de i975X, P965, AMD 580X/480X ou Xpress3200 Crossfire). Il est pris en charge par les cartes graphiques à base de R5**/RV5** soit les X1*00/X1*50.


  • CrossfireX
    Aussi apparue avec les cartes graphiques RV5**, cette évolution du Crossfire est significative notamment sur le plan matériel: le connecteur externe du Crossfire disparait, remplacé par un pont Crossfire qui se fixe sur des ports spécifiques des cartes graphique, à l'intérieur du PC.
    .
    Pour les Radeon X1*00/X1*50, HD2900 et HD3000, il est nécessaire de connecter les 2 ponts entre les cartes. A partir des séries HD3800 toutefois, un seul pont suffit.


  • 3-way/4-way Crossfire
    Au départ, ATI avait annoncé une évolution sous la forme du 4-Way Crossfire: 4 cartes associées sur la même carte mère (pour peu que la carte mère ait 4 ports PCIe X16 et supporte cette variante du Crossfire) mais au final, l'association de 3 cartes semblerait fonctionner. Lancé avec les cartes mère à base de chipset AMD 790 et des cartes graphiques HD38*0, il utilise toujours les mêmes connecteurs que le CrossfireX.



  • Hybrid Crossfire
    Partant sur le même principe que le Hybrid SLI. Elle est apparue en 2008 avec notamment les HD2400 et HD3400.


    Voici la liste des configurations Crossfire certifiées possibles par ATI

    Cela évolue toutefois au cours du temps et au fur et a mesure que ces solutions seront améliorées, on devrait voir des gains de performance venir.
    Pas tout de suite du moins....

    Voici un quelques liens utiles:

    Dossier sur les systèmes multi-GPU fait par Hardware.fr vous donnera une meilleure idée.
    Présentation du Crossfire par Clubic
    Présentation du Crossfire par Hardware.fr
    Article de test sur le Crossfire Logiciel par PC World France/MatBe
    ATI Hybrid Crossfire
    (Wikipedia en Anglais)" rel="nofollow" target="_blank">(Wikipedia en Anglais)
    Le SLI(Wikipedia en Anglais)
    Test du Tri-SLI ave des 8800 Ultra(en Anglais)
    L'Hybrid SLI testé par PuissancePC
    L'Hybrid SLI testé et analysé par Clubic
    Le Core i7: plateforme mélangeant la prise en charge du SLI et du Crossfire à 2, 3 ou 4 GPU
    (Tom's Hardware en Anglais)" target="_blank">(Tom's Hardware en Anglais)



    Articles interressants sur les cartes graphiques:
    3DFx, la retrospective en image
    23 ans de cartes ATI en images
    15 ans de cartes Nvidia en images
    8 Février 2007 18:21:51

    VII) L'alimentation de votre ordinateur

    La carte graphique, comme tous les périphériques de votre PC, a besoin d'être alimentée électriquement.

    Cette alimentation peut se faire :
    - soit simplement par le port de connexion, dans ce cas il suffit de brancher la carte graphique et elle tournera correctement
    - soit par le port de connexion et une connexion supplémentaire grâce à une Molex (type de prise sortant de l'alimentation et qui se connecte entre autre aux lecteurs CD/DVD et disque dur) ou une prise PCIe

    Il faut donc vous assurer que votre alimentation possède suffisamment de prises et que celles-ci soient adaptées.
    Sinon, il existe toujours la possibilité d'utiliser des adaptateurs:


    Une carte graphique sur laquelle il y a une prise d'alimentation complémentaire peut fonctionner sans que celle-ci soit reliée à l'alimentation mais lorsque le processeur graphique sera très sollicité, il peut y avoir des dysfonctionnements, des ralentissements voire une mise en veille de la carte graphique ou du PC ce qui peut amener à des dégâts physiques.



    Un autre point important concernant l'alimentation: la puissance de l'alimentation du PC.
    Les cartes graphiques sont parmi les périphériques les plus gourmands en puissance, il faut donc vérifier que votre alimentation peut fournir suffisamment de puissance à tout moment.

    Tout comme le processeur de l'ordinateur, la carte graphique consomme plus ou moins de puissance en fonction de son taux d'exploitation:
    - une carte "au repos" consomme très peu (moins de 50W généralement)
    - une carte "en utilisation moyenne" peut atteindre les 70-100W de consommation (en fonction des cartes)
    - une carte "à fond" peut consommer plus de 250W dans les cas extrêmes

    Ce sont des ordres de grandeur, les valeurs exactes changent d'une carte graphique à l'autre.


    Ceci démontre l'utilité de s'informer sur son alimentation et sur la consommation de la carte graphique que vous voulez acheter afin de déterminer si votre alimentation tiendra le coup ou non, si il faut aussi la changer ou non.


    Si votre alimentation est insuffisante,votre ordinateur sera mis à risque lorsque vous lancerez des applications lourdes qui vont demander une grosse partie des ressources au niveau du processeur et de la carte graphique (ex:un jeu vidéo) ce qui augmentera la consommation globale de votre configuration.

    Une surconsommation peut :
    - griller l'alimentation
    - faire s'éteindre subitement, soit totalement soit partiellement (par exemple, la carte graphique passera dans un mode "veille" ) le PC

    Cela peut éventuellement endommager physiquement l'ordinateur voire même griller certains composants.

    Changer d'alimentation est simple et fortement conseillé si vous mettez à jour de façon importante et/ou que vous ajoutez plusieurs périphériques à votre ordinateur . N'ayez donc pas peur de changer d'alimentation plutôt que de vous priver de la carte de vos rêves.

    Il vous faudra juste prévoir 50€ pour une alimentation correcte (maintenant, on recommande 400W minimum et de bonne facture).
    Il est fortement conseillé de ne pas lésiner sur l'alimentation, et de préférence opter pour un produit "de marque".


    Petites explications sur le fonctionnement d'une alimentation

    Il faut savoir qu'une alimentation qui tourne à son maximum en permanence à plus de chance de claquer, il est donc préférable de prévoir une petite marge de puissance: si vous savez que votre PC consomme 450W, prenez une alimentation de 550W par exemple.

    La puissance annoncée sur les alimentations est généralement la puissance maximale que peut générer l'alimentation en pic et non pas en continu. La puissance réelle dépend du rendement de l'alimentation:
  • une alimentation de bonne facture aura un rendement moyen de 70-80% minimum(les alimentations avec un logo "80Plus" sont les alimentations avec un rendement supérieur à 80%, donc les alimentations à prendre de préférence ).


    Si ils annoncent 500W, la puissance réelle en continu sera autour de:
    0.8X500 = 400W pour une 80%

  • une alimentation générique, pas chère, peut avoir un rendement moyen, aussi faible que 50%, mais en général entre 60 et 70%
    cela nous donne une puissance réelle entre 300 et 350W pour une puissance annoncée a 500W

    Pour vous aider, voici un test comparatif réalise par Matbe: 105 alimentations de 40 marques différentes testée. Ce test contient également de nombreuses explications sur le fonctionnement d'une alimentation et vous permet de mieux orienter vos choix.
    Et voici un test d'alimentations bas de gammes.
    8 Février 2007 18:32:44

    Conclusion

    Je vous ai ainsi expliqué les points les plus importants d'un changement de carte graphique.

    La démarche la plus simple à suivre reste celle que j'ai donnée plus haut:
  • 1/
  • Regardez les cartes graphiques disponibles en fonction de votre budget et votre matériel
  • 2/
  • Cherchez des test et comparatif
  • 3/
  • Vérifiez votre alimentation
  • 4/
  • Enfin, prenez celle qui est le plus adaptée à vos besoins ;) 

    N'oubliez pas de garder une configuration plus ou moins homogène:
    Il est inutile de mettre une carte graphique haut de gamme si le processeur de votre ordinateur n'est pas suffisamment performant pour l'exploiter.
    La carte graphique serait alors "bridée" .
    8 Février 2007 18:51:50

    no life p0waaAA mais bon ^^
    ça aide toujours ...

    bon par où est la sortie ?
    8 Février 2007 18:54:26

    Si on me paye ( + droit d'auteur et royalties) je veux bien faire une photo des ports PCI-E de ma P5W Dh.
    8 Février 2007 19:00:06

    ah tiens, Klez, pour une fois tu sers a quelque chose.... :whistle: 



    :D 


    Raon, j'ai deja la P5B Deluxe qui est mieux :D 
    et au pire je peux faire une photo de la P5B-E Plus qui est encore mieux que la P5B Deluxe :lol: 
    8 Février 2007 19:03:09

    Dafen@IDN a dit :
    ah tiens, Klez, pour une fois tu sers a quelque chose.... :whistle: 


    mais je vous emXXXXX !!! cher ami :) 
    11 Février 2007 00:41:04

    on boude mon tuto ?
    11 Février 2007 03:29:11

    Up :D  Il est tourjours très bien ton tuto. Encore bravo. ;) 
    13 Février 2007 18:40:43

    ca serait bien qu'il fasse plus de 1000 lectures...
    13 Février 2007 18:57:29

    ta oublié un truc important dans ton topic quel API ( si sa di comme sa ) elle suporte , par exemple DX10, DX8.1 , DX9.0 , enfin voila
    14 Février 2007 14:12:09

    et puis des bananes avec ?
    14 Février 2007 14:16:37

    toham@idn a dit :
    ta oublié un truc important dans ton topic quel API ( si sa di comme sa ) elle suporte , par exemple DX10, DX8.1 , DX9.0 , enfin voila


    osef :kaola:  ... pour l'instant seulement les 8800 gts/x supportent le dx10 (qui sert a rien du moins maintenant) sinon les cartes actuelle sont directx 9.0c ...apres le dx8.1 il reste archaique ... meme ma radeon 9600 pro supporte directx 9
    14 Février 2007 16:22:51

    pourquoi des bananes ?
    c'est bon les pommes...

    sinon, pour DirectX 10, sachant que le tuto a ete fait avant la sortie de Vista, j'avais pas pense que c'etait utile

    je vais peut etre mettre un mot sur DX pmais je vais pas rajouter 3 paragraphes pour un detail:
    il me suffira juste de dire que certains logiciels necessitent certaines versions de DX particuliere et donc de faire attention

    et peut etre expliquer pourquoi une DX9 ne peux supporter DX10
    a voir....
    18 Février 2007 02:10:26

    Je sais bien que tu l'aime ton tuto mais il ne répond pas aux questions de la majoritée des gens.

    Memes si tout le monde lit et comprend ils ont besoins de se faire aiguiller sur un choix!

    Si tu met des références à cet article

    Genre Haut de gamme : 8800 GTS
    Moyen de gamme : x1950 pro

    Des trucs comme ca sa peut vrm aider les gens surtout avec des prix.

    Sinon c'est tres bien expliqué et tout mais ce petit manque de références deproduits serait un bon plus ;) 
    18 Février 2007 02:17:25

    oui mais ca, c'est le boulot du topic "guidde matos"

    parce que moi, j'explique comment changer pour tout le monde
    si je met des references pour des produits, je devrais m'assurer de le mettre a jour au fur et a mesure des nouvelles sorties


    tel qu'il est fait, il est "intemporel" (bon j'aurais des MAJ a faire mais tous les 6 mois et toutes petites, contre tous les mois changer toutes mes references au fur et a mesure que le Haut de Gamme devient Milieu de Gamme puis Bas de Gamme..)

    tu vois ? :/ 

    je veux bien passer du temps dessus, mais pas autant

    et puis, si on suit ce tuto, il conseille si je me souviens bien, de chercher des tests et de regarder les prix des cartes

    donc ce que tu dis etre manquant est la
    sauf qu'il faut que le lecteur, et donc le potentiel acheteur, fasse un peu de recherche par lui meme

    je peux pas premacher tout le boulot ;) 
    18 Février 2007 02:21:23

    Non je comprend c'est une facon différente d'aborder le sujet.

    Mais c'est plus simple pour quelqun de se faire conseiller 3-4 modeles que de devoir lire une page et faire ses propres recherches non ?

    Moi jlis des reviews et des benchmarks c'est ca le must :p 

    Quand on comprend d'abord la différence entre AGP et Pci-E
    18 Février 2007 03:24:21

    c'est plus simple mais bon, met toi a la place de l'autre bonhomme: il en a peut etre marre de devoir toujours repondre au meme questions parce que les gens sont trop "faineants" pour lire une page (et encore, si on suit les etapes a la lettre, y'en a pour 5 minutes parce qu'on est pas oblige de suivre toute le tuto: si tu es en AGP, tu t'en fout du PCI et PCIe... )

    bon, disons que ce tuto est fait pour "limiter" tant que possible la repetition de topic "qu'est ce qu'il me faut"

    je n'ai aucune pretention d'eliminer ces topics, parce qu'ils sont utiles: les offres changent avec le temps donc un nouveau topic de temps en temps a des reponses differentes

    parce que je sais qu'il y a des gens qui ne liront pas le tuto

    et parce que meme si le tuto est la, il y a certains cas particuliers qui demandent une reflection plus avancee


    mais si au moins il permet aux gens de comprendre le materiel et de pouvoir s'orienter, c'est une victoire
    si les gens pouvaient comprendre qu'une carte a 30€ avec 512Mo de memoire c'est pas forcement le top apres lecture du tuto, meme si c'est la seule chose qu'ils comprennent, ca me va
    20 Février 2007 02:00:01

    Bientôt rendu à 1000 lectures. Demain ou dans quelque jours je crois.
    20 Février 2007 02:04:36

    si je comprend bien , apres 1000 lectures , le topic passe en mode "unique" .

    c'est ca??
    20 Février 2007 02:11:20

    ahh non jme suis trompé!

    don c'est quoi les critères pour qu'un topic soit "unique"
    20 Février 2007 02:14:37

    mhh....
    20 Février 2007 02:54:29

    Les critères c'est que le tuto sois très bien présenter, qu'il n'y ait aucune fautes. À part de ça il il aurait un ou deux trucs dont j'ai oublié. Le nombre de lecture d'un topic n'est pas vraiment important. Il y aurait un topic unique dans la section hardware qui permet de rajouter des tutos. Mais il faut demander à pastigo.
    20 Février 2007 11:55:15

    pour qu'il soit topic unique, faut qu'un modo le trouve suffisament interressant pour lui accorder 5 secondes et cliquer sur "Topi unique" dans la barre d'edition qui lui est accessible et qu'il valide

    mais pour ca, faut aussi qu'il le trouve utile et interressant
    27 Février 2007 18:37:28

    y a un truc je pige pas pourquoi, les modérateur ou admin ne les mettes pas en tuto en première page ???
    27 Février 2007 19:40:23

    ben alors il serre a quoi lol
    27 Février 2007 20:07:11

    tout simplement parce que, comme toi , une majorite des IDnautes n'utilisent pas la fonction de recherche integree au forum donc ils n'ont aucune chance de trouver ce topic la ou il devrait etre, c'est a dire le topic des tutos

    donc je l'ai copie dans un topic au titre suffisamment explicite pour qu'il puisse etre trouve rapidement
    27 Février 2007 20:22:47

    Dafen@IDN a dit :
    tout simplement parce que, comme toi , une majorite des IDnautes n'utilisent pas la fonction de recherche integree au forum donc ils n'ont aucune chance de trouver ce topic la ou il devrait etre, c'est a dire le topic des tutos

    donc je l'ai copie dans un topic au titre suffisamment explicite pour qu'il puisse etre trouve rapidement

    pour info :
    j'utilise la fonction cherché , le problème si tu tape pas le bon mots le moteur te marque qu'il a pas trouvé.
    donc reste une solution changé de site :p 
    27 Février 2007 20:25:48

    Il faudrait un moteur de recherche aussi puissant que ceui de GOOGLE
    28 Février 2007 01:29:58

    allez demander ca dans le coin des IDnautes

    mais bon, meme sans le moteur de recherche du site, tu en as un integre depuis toujours: tes yeux

    et en haut de page il y a un topic unique " les TUTOS informatiques"
    alors bon, c'est bien gentils de dire que le moteur de recherche est naze, c'est normal c'est un forum...., mais bon il faut faire des recherches simples: j'ai 2 topics tutos dans cette section
    je tape un seul mot (que je connais evidement) et je les retrouve tous les 2, pourtant ils sont sur 2 sujets totalement differents

    faut avoir le coup de mains :/ 
    1 Mars 2007 01:58:51

    Je sais pas vous, mais moi je me languis la future Nvidia 9950GX2 elle va roxer celle la ! :lol: 
    1 Mars 2007 18:14:16

    DOWN



    Faut faire des variantes un peu :D 
    2 Mars 2007 18:48:54

    A droite :D 
    2 Mars 2007 22:33:29

    ces soirées la !
    2 Mars 2007 22:37:24

    On drague on dance toi meme tu sais pourquoi ;) 

    2 Mars 2007 22:40:52

    Pour qu'on finisse ensemble toi et moi
    2 Mars 2007 22:45:24

    on aime tousssssss ces soirées la !
    2 Mars 2007 22:48:41

    Heu

    En fait, Yannick ca a un peu une dizaine d'années...
    2 Mars 2007 22:49:35

    P*tin c'est clair !
      • 1 / 7
      • 2
      • 3
      • 4
      • 5
      • Plus de pages
      • Suivant
      • Dernier
    Tom's guide dans le monde
    • Allemagne
    • Italie
    • Irlande
    • Royaume Uni
    • Etats Unis
    Suivre Tom's Guide
    Inscrivez-vous à la Newsletter
    • ajouter à twitter
    • ajouter à facebook
    • ajouter un flux RSS