Home Tests Hardware Overclocking : Comprendre ce qu'on fait...

Overclocking : Comprendre ce qu'on fait...

Imprimer Envoyer
Note des utilisateurs: / 68
MauvaisTrès bien 
Écrit par Pascal Thevenier   
Mercredi, 12 Janvier 2005 13:48
Overclocking : science plus inexacte que l'informatique qui consiste à perdre de très nombreuses heures pour tenter de gagner quelques millisecondes… Ce petit clin d'œil étant fait, l'overclocking consiste à faire fonctionner un composant à une fréquence plus élevée que celle certifiée par le constructeur. Il faut savoir que les processeurs et autres GPU sont généralement issus des mêmes chaînes de production et des mêmes galettes de silicium. En bout de production, le constructeur réalise des tests d'usine afin de qualifier les puces produites. Celles qui répondent aux essais les plus sévères finissent dans le haut de gamme, les autres, en milieu ou bas de gamme voire en rebut. Etant donné que les constructeurs sont obligés de garder une certaine marge de manœuvre pour garantir la qualité de leurs produits, pourquoi ne pas tenter d'exploiter cette réserve ?


Petits rappels…

La FAB 36 d'AMD, surréaliste...Toutes les sociétés qui produisent des processeurs n'ont pas leurs propres usines de production. AMD, IBM ou Intel disposent d'usines mais d'autres comme ATI ou NVIDIA sont appelés ''Fabless'' ou sans usine. Ces sociétés font alors appel à des spécialistes comme UMC ou TSMC qui se chargent de produire les puces. Une usine de production doit évoluer sans cesse pour suivre les nouvelles technologies de gravure et permettre de placer plus de transistors sur une même galette. Ainsi, l'évolution anodine des Pentium 4 de 180nm en130nm puis en 90nm a demandé des évolutions énormes dans l'appareillage de production avec des coûts peu communs. Une usine de production en 65nm comme celle d'Intel en construction à Leixlip près de Dublin coûte plus de 2 milliards de dollars... Elle produira tous les processeurs 65nm d'Intel le temps que le constructeur mette à niveau d'autres usines. Les autres ne sont bien entendu pas au chômage pendant ce temps et assurent par exemple la production de chipsets dans des technologies plus anciennes. Il faut également tenir compte des changements de technologies utilisées (aluminium, cuivre, SOI) qui demandent des aménagements importants sans pour autant que passer à une autre finesse de gravure. En outre, les machines de production connaissent des évolutions ne fusse que dans leurs réglages et tout naturellement, la qualité de la production évolue au fil du temps… Plusieurs conclusions touchant directement le potentiel d'overclocking ressortent rapidement de ce petit rappel :
1/ Un chip n'est pas l'autre : le premier peut parfaitement venir d'une usine rôdée et l'autre d’une chaîne en cours de mise au point.
2/ Un chip plus récent a de plus fortes chances de sortir d'une usine mieux optimisée.
3/ Les chips sont gravés sur des galettes de silicium. La qualité peut varier dans une certaine mesure.
Heureusement, pour retrouver leurs petits, les constructeurs (Intel et AMD) gravent des numéros de série sur leurs puces, ce qui permet de savoir où et quand ils ont été produits. Le cas échant, ils servent à identifier une série de processeurs ayant ou non un fort penchant pour l'overclocking. On est donc en droit d'attendre des potentialités comparables de processeurs issus d'un même batch. Mais il ne faut pas généraliser pour autant. Ce n'est pas parce que certains processeurs Pentium 4 s'overclockent bien que c'est systématique… Ceci conduit à une des premières lois de l'overclocking : Un processeur (GPU compris) n'est pas l'autre.

Appareils de production de FAB 36 (photolithographie).


Accumulation d'erreurs !

Un container de galettes de 300mm.Un ordinateur, ce n'est pas seulement un processeur. Sachant que chaque chip (puce mémoire, chipset, PLL, etc) est produit de manière comparable et que l'ensemble est monté sur une carte mère tributaire d'une alimentation elle même dépendante de la qualité de l'électricité du bâtiment, on comprend directement l'inexactitude de cette science un peu obscure. Il faut aussi s'interroger sur les choix de base. Pourquoi overclocker ? En général, parce qu'on a acquis des composants dans les possibilités de son budget mais qu'on aurait volontiers acheté plus puissant si le portefeuille était capable de suivre… Dans d'autres cas, par passion ou volonté de faire mieux que ce qui existe tel quel. Il existe bien évidemment une différence entre les composants d'entrée de gamme et des modèles ''high-end''. La différence de prix n'est pas toujours proportionnelle à l'écart de qualité mais elle existe réellement. Ainsi, une carte mère à 30€ n'a pas droit à un étage de puissance composé de même qualité : les mosfets et capacités ne sont pas comparables. Nous arrivons alors à une autre loi de l'overclocking : Les meilleurs résultats s'obtiennent avec un ensemble de bons éléments.


Les bons candidats…

Des containers de galettes de 300mm... Overclocker quoi ? En général, on s'attaque à la carte graphique et au processeur. Mais quel processeur et quelle carte graphique ? Overclocker un composant bas de gamme comme une Radeon 9250 ou une GeForceFX 5500 n'a pas de sens, peu importe la fréquence, ces composants sont trop peu performants. Il en va de même pour qui voudrait pousser un Pentium !!! 1GHz à 1.1GHz : Ce sera certes mieux, mais ça ne transfigure pas le PC. D'ailleurs, à moins d'overclockings exceptionnels, une mule ne devient pas un étalon. Il ne faut pas non plus perdre de vue que l'overclocking n'apporte pas de nouvelles fonctionnalités. Si un GPU ne supporte pas les Pixel Shaders 2.0, aussi overclocké soit-il, il ne fera jamais fonctionner une application qui en a besoin. Dans un registre comparable un processeur graphique qui a physiquement 4 pipelines à 300MHz n'égalera jamais un modèle 8 pipelines à 300MHz sauf éventuellement poussé à 600MHz... A l'inverse, opter pour un composant super haut de gamme n'est pas non plus judicieux. Les technologies ont leur limites… Si tous les Pentium 4 produits par Intel supportaient 4GHz, cette fréquence deviendrait rapidement celle de base. Le plus raisonnable est d'opter pour du milieu de gamme inférieur (GeForce 6600 GT) ou supérieur (GeForce 6800 GT) et viser les performances de la gamme au dessus : GeForce 6800 et GeForce 6800 Ultra dans notre exemple. Pareil avec les processeurs, un Pentium 4 3.2GHz ou 3.4GHz dans la gamme Intel ou un Athlon 3000+ ou 3200+ chez AMD sont de meilleurs candidats que des Pentium 4 3.8GHz ou des Athlon 3800+.
Production en volume de FAB30
Quels sont les gains ? En vertu de la première loi, on ne peut pas tirer de généralités. En pratique, on peut dire qu'un overclocking de :
10% est banal et à la portée de presque tout matériel.
20% demande des composants de marque et quelques connaissances
30% nécessite des achats très spécifiques et un complément en refroidissement
40% requiert souvent des investissements annexes importants
50% et plus sont parfois possibles avec certaines séries de composants
Le bon sens veut qu'il est inutile d'investir plus en système de refroidissement que le prix du processeur ou de la carte graphique supérieure… Sauf si on a déjà ce qui se fait de mieux !


Le chipset et les fréquences

Voici de manière simpliste les composants de base d'une carte mère avec les fréquences standardisées de fonctionnement pour un Pentium 4 ou un Athlon 64. Nous avons rassemblé le northbridge et le southbridge en un seul élément.

Fréquences : noir = moninale

  • Augmenter simplement le FSB
    Peu importe le processeur, la carte mère est centralisée sur un chipset qui distribue les fréquences générées par un circuit appelé le PLL (Phase-Lock Loop). Le PLL produit la fréquence du FSB ou Front Side Bus, elle est actuellement de 200MHz pour les Athlon 64 et les Pentium 4. Le fait que les Athlon 64 exploitent un bus HyperTransport totalement différent de celui des Pentium 4 n'a ici aucune importance. Sur base de cette fréquence et des réglages du BIOS, le chipset assigne la fréquence mémoire. On parle de mémoire en mode synchrone quand le FSB et le bus mémoire ont la même fréquence : 200MHz et 200MHz. Un mode asynchrone traduit une différence au niveau des fréquences de fonctionnement : FSB 200MHz et bus mémoire 166MHz ou FSB 166MHz et bus mémoire à 200MHz. La fréquence de l'AGP ou du PCI-Express est également dérivée du FSB. L'AGP est prévu pour fonctionner à 66MHz et le PCI-Express à 100MHz. La valeur du bus PCI est aussi dérivée du FSB et vaut 33MHz. En augmentant le FSB de 10%, on augmente la fréquence de tous les bus de 10%. C'est très simple… Il suffit presque de monter le FSB le plus haut possible.
    Le problème est que les bus PCI-Express, AGP et PCI sont prévus pour fonctionner respectivement à 100MHz, 66MHz et 33MHz et non à plus. Ils ne peuvent donc pas s'overclocker ? Si, bien entendu. Mais étant donné que ces bus donnent la cadence d'autres éléments, ces derniers risquent de déclarer forfait bien avant le processeur. Ainsi, le contrôleur de disque dur et la carte son sont tributaires de la fréquence du PCI. A plus de 225MHz de FSB soit 37MHz pour le PCI, le contrôleur de disque dur et/ou la carte son déclarent forfait. Dans le cas de la carte son, le PC devient muet. Avec le contrôleur de disque dur, le PC ne boot tout simplement pas… Sans compter qu'avec un FSB de 225MHz la mémoire doit aussi travailler à 225MHz (sauf prescription contraire dans le BIOS, nous y viendrons).


    Fréquences : vert = support quasi certain, orange = support probable, rouge = non supporté.

  • La fonction PCI Lock
    Elle permet de verrouiller non seulement la fréquence du PCI mais aussi celle de l'AGP à leur valeur nominale (à savoir 33MHz et 66MHz). Le PCI-Express dispose d'une fonction comparable. Actuellement, cette fonction semble présente sur les cartes mères. Mais la jeunesse de cette interface ne permet pas encore de tirer des conclusions. Le PCI Lock est une fonction capitale pour l'overclocking. Sans elle, ce sera probablement un des composants intégrés de la carte mère qui limitera l'overclcoking.


    Fréquences : vert = support quasi certain, orange = support probable, rouge = non supporté.

    Voici le hit parade des empêcheurs de monter en fréquence :
    1/ Carte son intégrée, elle devient muette. Solution : utiliser une Sound Blaster PCI
    2/ Interface réseau intégrée, plus de connexion réseau. Solution : une bonne NIC en PCI
    3/ Le contrôleur de disque dur, plus de boot… Solution : éventuellement un contrôleur PCI
    Sans PCI-Lock, il faut quasiment remplacer tout ce qui est intégré par des composants de meilleure facture. En parlant de facture, elle risque d'être lourde ! Au risque de nous répéter : Le PCI-Lock est donc capital.

  • Le bus mémoire
    Une fois le PCI-Lock activé, l'overclocking ne se reporte plus que sur la mémoire. La mémoire peut elle aussi être le facteur limitatif. En arrivant à un FSB de 230MHz, le processeur et la mémoire fonctionnent 15% plus vite que prévu. Le processeur peut généralement supporter plus… Par contre pour la mémoire, les choses sont très différentes. Les modules de DDR400 noname ont généralement de faibles aptitudes à fonctionner à plus de 210MHz. Ils deviennent alors le facteur limitatif. A l'inverse, des composants plus coûteux de grandes marques sont prévus pour fonctionner jusqu'à 250MHz sans problème, voire plus ! Pour continuer à faire monter le FSB sans être gêné par la mémoire, il faut obligatoirement passer en mode asynchrone. Contrairement au FSB qui s'ajuste à présent au 1MHz près, le bus mémoire est lié au FSB avec un rapport : 1/1, ¾, 4/3, etc. Généralement, on utilise un ratio de type 6/5. Pour un FSB de 200MHz, le bus mémoire tombe alors à 166MHz (DDR333), ce qui permet monter le FSB jusqu'à 240MHz sans être limité par la mémoire. Il est éventuellement possible de passer à un rapport de 3/2 pour éventuellement atteindre un FSB de 300MHz avec un bus mémoire de 200MHz. Revers de la médaille, à 250MHz, la mémoire est limitée à 166MHz.


    Fréquences : vert = support quasi certain, orange = support probable, rouge = non supporté.

    Avec des mémoires d'entrée de gamme, l'overclocking est limité à un peu plus de 210MHz (le maximum supporté par les modules en synchrone), soit il faut passer en asynchrone et alors perdre en performances. Avec des modules de bonne qualité, on peut monter jusqu'à 250MHz en synchrone tout en étant sûr que la mémoire n'est pas le facteur limitatif. Au-delà, il faut souvent désynchroniser également…


    Fréquences : vert = support quasi certain, orange = support probable, rouge = non supporté.



    Histoire de timings…

    Les modules de mémoire sont caractérisés par leur fréquence. La DDR400 fonctionne à 200MHz, mais outre cette valeur connue par tout le monde, il y a lieu de parler de timings. Les timings sont ces chiffres un peu étranges pour les néophytes qui pleuvent sur les forums : DDR400 22210 qui signifie en fait 2/2/2/10, soit les valeurs CAS, RAS to CAS, RAS et Cycle. La mémoire est une sorte de grande matrice ou de grand parking. Ces valeurs sont des temps d'attente avant de donner une information (voir aussi ces deux articles) :
    CAS : Column Address Strobe ou délai d'accès colonne
    RAS to CAS : délai entre les modes colonne et rangée
    RAS : Row Address Strobe ou délai d'accès rangée
    Cycle time : délai pour un nouveau cycle d'accès.
    Plus ces temps sont faibles, meilleures sont les performances. S'il est possible d'obtenir des timings corrects à 200MHz (2.5/3/3/8) avec des modules peu coûteux, il faut débourser beaucoup plus pour ceux qui supportent 2/2/2/5 à 200MHz. A plus de 250MHz, on est généralement limité à 3/4/4/8. La première chose à faire pour arriver à un bus mémoire élevé est de mettre des valeurs élevées à ces paramètres. Un module prévu pour fonctionner à 200Mhz en 2.5/3/3/8 peut généralement fonctionner à 220MHz mais en 3/4/4/10 par exemple. En augmentant la tension des modules de mémoire, il est possible de les faire fonctionner à des timings plus agressifs ou à de plus hautes fréquences. Par défaut, la DDR travaille en 2.5v et il est possible de pousser le voltage de 10% soit 2.75v. Au delà, les modules risquent de (sur)chauffer et il faut envisager des radiateurs ou une ventilation dédiée. Certains modules hautes performances ont de base une tension de 2.75v et peuvent encaisser plus de 3v…


    Avec des modules hautes fréquences (250MHz DDR500 3/4/4/8) en 6/5, la limite est le CPU.
    Fréquences : vert = support quasi certain, orange = support probable, rouge = non supporté.



    Quand le processeur est au bout…

    Quand le PCI-Lock est activé, que la mémoire est désynchronisée avec éventuellement des timings élevés, le facteur limitatif devient alors le processeur ! Il viendra un moment où il n'acceptera plus un FSB plus élevé. Une augmentation du voltage du CPU de l'ordre de 10% peut l'aider à grimper encore un peu. En contrepartie, il va chauffer plus et il reste alors à faire appel à un refroidissement plus performant. Bref, il faut alors investir pour ne parfois gagner que quelques MHz de plus… Avec des HSF conséquents (soyons matérialistes plus coûteux avec des prix de 40€ et plus) ou du WaterCooling, on peut ajouter plus de 10% à la tension nominale du processeur. Mais ici plus que jamais, un cas n'est pas l'autre. Le polissage du radiateur d'origine et l'emploi d'une pâte thermique de qualité peuvent apporter un plus à prix réduit…


    Et les performances ?

    L'idéal est d'avoir le plus haut FSB, le plus haut multiplicateur et les timings les plus faibles en mode Synchrone. En pratique, chaque cas est différent. Impossible de dire à l'avance si 10 x 220MHz en 2/2/2/5 donneront mieux que 9 x 250Mhz en 3/4/4/12. En effet, une combinaison peut se monter plus rapide dans une application et la situation peut s'inverser avec une autre ! L'idéal est de mesurer les performances avec vos applications principales ou des benchs représentatifs (nous publierons un dossier sur le sujet).


    Spécificités Athlon 64 et Pentium 4

    Les processeurs Intel ont toujours été protégés par une sonde de température interne qui empêche le processeur de griller en cas de surchauffe. C'est à présent le cas des Athlon 64. Les risques de détruire le processeur sont donc réduits mais pas totalement inexistants.

    Les Pentium 4 478 à 3.2GHz et plus ainsi que les Pentium 4 775 à 3.4GHz et plus reposant sur le core Prescott ont un multiplicateur élevé. A titre de rappel, la fréquence du processeur est le produit de la fréquence du FSB et de ce multiplicateur. Ces Pentium 4 en ''collaboration'' avec certaines cartes mères Asus, Abit et MSI peuvent utiliser un multiplicateur de seulement 14 et atteindre leur fréquence (nominale ou plus élevée) sur un FSB plus important. L'intérêt d'un FSB élevé est d'autoriser de meilleurs débits entre le processeur et la mémoire. Ainsi, 14 x 257MHz ou 18 x 200MHz, la fréquence du processeur est de 3,6GHz. Cependant, la bande passante progresse de plus de 20%. Il n'est pas de même avec les performances globales dans un jeu qui ne bougent absolument pas de la même manière…

    Les Athlon 64 ont leurs multiplicateurs inférieurs libres. Les Athlon 64 FX ont même les multiplicateurs plus élevés disponibles. Il est donc possible de faire fonctionner un Athlon 64 à 2000MHz sous la forme de 10 x 200MHz ou de 8 x 250MHz. On peut également atteindre 10 x 250MHz mais pas 12 x 200MHz, le multiplicateur étant bloqué à 10.
    Les Athlon 64 utilisent un bus HyperTransport à 200Mhz. Ils exploitent aussi un multiplicateur qui est de 5x pour les athlon 64 en Socket 939 (5 x 200) et de 4x pour les Athlon 64 en Socket 754 (4 x 200). Lorsque le FSB va monter, le bus HyperTransport va suivre et on arrive à 4 ou 5 x 250, ce qui empêche le boot. Il faut alors revoir ce multiplicateur à la baisse.
    En plus des timings mémoire, les Athlon 64 ont une commande de cycle liée aux banques de mémoire utilisées. Cette option est présente dans les BIOS généralement sous la forme de 1T ou 2T. 1T offre les meilleures performances et ne s'utilise que si une banque est utilisée ou deux avec des modules de qualité. 2T donne une meilleure stabilité mais de moins bonnes performances. Le mode 2T est presque obligatoire sur les Athlon 64 939 avec des modules bas de gamme.

    Ca plante…

    C'est peut-être normal. Même en restant dans les limites de tous les composants, il se peut que l'ensemble ne soit pas stable. La carte graphique seule overclockée peut fonctionner sans problème, de même pour le processeur, mais l'ensemble peut poser problème . Les tolérances ne sont pas comme les pommes ou deux et deux font quatre. En effet, 10 +/-.5 cm et 20 +/-1 cm donnent de 28.5cm à 31.5cm… Ce qui laisse de la marge tant en fonctionnement qu'en problèmes. L'alimentation peut avoir du mal quand tous les composants sont poussés au maximum, la chaleur combinée du processeur et de la carte graphique peut surchauffer la mémoire, un seul chip d'un module ne supportant pas les timings peut générer des plantages quand il est sollicité. Les causes sont nombreuses…


    La combinaison Prime95 et 3D Mark 2003/2005 est idéale pour garantir une stabilité en béton…


    Que retenir ?

    Il n'y a pas d'overclocking miracle ou de comment faire pour avoir les meilleures performances. Avec ou sans overclocking, c'est toujours le composant le plus faible qui bride l'ensemble. Ensuite, aussi vrai qu'il existe des applications et des benchs différents, il existe des réglages d'overclocking optimaux différents selon les types d'applications. L'overclocking est intimement lié à chaque composant de chaque système. Il faut donc trouver les limites de son propre PC. Les chances de succès sont plus élevées avec des composants de qualité (de l'alimentation au HSF en passant par les mémoires) et avec une bonne ventilation. Il reste à savoir combien de temps vous avez à perdre pour gagner quelques FPS dans un jeu, exploser le score 3D Mark ou grappiller quelques secondes dans vos compressions DivX. Vous avez les cartes en main…
  • Mise à jour le Mardi, 10 Novembre 2009 20:23