Como saben todos los entusiastas de las PC pukka, AMD estableció recientemente un récord de velocidad de reloj para un procesador de PC de cuatro núcleos. Cortesía de algunos locos niños escandinavos y una carga de nitrógeno líquido, el procesador Phenom II de 45nm recientemente instalado por AMD alcanzó los 6.5GHz..

Por supuesto, tales registros son completamente irrelevantes para el rendimiento de la PC en el mundo real. El vertido constante de nitrógeno líquido en la PC a mano no es cosa de la computación práctica. Y, sin embargo, nos sentimos seguros de que la vieja Intel de Inteligencia no estará contenta de permitir que AMD mantenga incluso esta superioridad simbólica.

Por lo tanto, no se sorprenderá al escuchar que circulan actualmente rumores de una nueva versión de fácil uso del poderoso procesador Core i7. Si es verdad, podría ver el récord de AMD de 6.5GHz quad-core desaparecido más temprano que tarde.

Potencialmente aún más preocupante para AMD, Intel también ha anunciado que se han presentado planes para aplastar los transistores en sus procesadores de PC a una ridículamente pequeña 32nm de ancho. Podrás comprar procesadores de 32 nm de Intel antes de fin de año. Espera que los relojes sigan subiendo..

Con todo eso en mente, ahora parece ser un momento oportuno para reflexionar sobre la historia del overclocking de la CPU y descubrir cómo llegamos a los monstruos de múltiples núcleos, GHz y lo que depara el futuro..

La PC original de IBM

De hecho, el overclocking es casi tan antiguo como la propia PC. Curiosamente, en realidad fueron los fabricantes de PC más que los entusiastas los que hicieron rodar la pelota. En 1983, el siempre conservador IBM limitó las primeras versiones de su PC del mismo nombre a solo 4.7MHz en aras de la estabilidad.

Pronto, sin embargo, los clones de la PC de IBM se enviaron con procesadores compatibles con 8088 que funcionaban a 10MHz. Así comenzó la batalla por la mayor velocidad de reloj..

Por supuesto, en esta etapa temprana, el overclocking del usuario final no era una opción muy práctica. La ejecución de relojes superiores requería un cambio del cristal de control de cuarzo utilizado para configurar las velocidades de reloj, también conocido como el módulo oscilador.

Incluso entonces, en aquellos días, el resto de la plataforma estaba fuertemente bloqueada a la frecuencia de la CPU. En otras palabras, cualquier cambio en la frecuencia de la CPU se reflejó directamente en la frecuencia de operación del bus del sistema, la memoria y los periféricos. Lo que es más, muchas aplicaciones, especialmente los juegos, carecían de temporizadores integrados y se salieron de control o simplemente se bloquearon en una plataforma overclockeada.

Comienza la era del overclocking fácil.

El siguiente gran paso fue la llegada del procesador Intel 486 y la introducción de métodos de overclocking mucho más fáciles de usar. Fue la última versión DX2 del 486, lanzada en 1989, la que debutó con el multiplicador de la CPU, permitiendo que las CPU se ejecuten en múltiplos de la frecuencia del bus y, por lo tanto, permitan el overclocking sin ajustar la frecuencia del bus..

Mientras que el ajuste de las velocidades del bus generalmente implicaba poco más que mover un puente o un interruptor DIP, cambiar la configuración del multiplicador a menudo requería un poco de modding de viruta con un lápiz con plomo o, en el peor de los casos, tal vez algunos trabajos de soldadura. De una forma u otra, fueron posibles los impresionantes overclocks de ciertos clones del chip 486 de Intel de los gustos de Cyrix y AMD. Por ejemplo, el 5x86 de 1995 de AMD, un chip basado en un silicio de 450 nm, podría ser cronometrado desde 133MHz a 150Mhz. Cosas sexy en el momento.

Que hay en una oblea?

Fue durante esta temprana edad de oro de entusiastas de overclocking a mediados de la década de 1990 que la influencia de la tecnología de producción de silicio en las frecuencias de chips individuales llegó a primer plano. Las CPU están esencialmente grabadas en obleas redondas de sustrato de silicio. A pesar de los procesos refinados utilizados en el fabricante, las propiedades varían de una oblea a otra..

En pocas palabras, las virutas cortadas de algunas obleas pueden alcanzar velocidades de reloj más estables que otras. De hecho, lo mismo ocurre con la posición de un dado de CPU individual dentro de una oblea. Cuanto más cerca del medio, más probabilidades hay de alcanzar altas frecuencias..

Al mismo tiempo, la progresión a tamaños de transistores individuales cada vez más pequeños no solo permite incluir más características en un solo procesador, sino que también tiende a reducir las fugas de corriente y, por lo tanto, permite velocidades de reloj más altas..

Luego está la cuestión menor de los pasos: revisiones menores realizadas en arquitecturas de CPU para corregir fallas y mejorar los problemas de la ruta de acceso. Esa es solo una forma elegante de describir el ajuste fino destinado a permitir altas velocidades de reloj. Hay mucho que tener en cuenta al elegir un chip teniendo en cuenta el overclocking.

Intel se mete en el juego de overclocking

Intel, por supuesto, ha sido durante mucho tiempo el maestro de la fabricación de transistores más pequeños. En 1996 introdujo el Pentium Pro. En primer lugar, esta era una CPU mucho más sofisticada que cualquier otra gracias a la ejecución de instrucciones fuera de orden. Pero también contaba con pequeños (para la época) transistores de 250nm. Se sabía que las versiones de 200MHz del Pentium Pro alcanzaban los 300MHz, un overclock extremadamente saludable del 50%.

Sin embargo, el Pentium Pro era un chip muy caro. En 1998, Intel lanzó el Celeron original, un procesador orientado al presupuesto con un conjunto de características reducidas que no incluye caché L2. Stock a 266MHz, los ejemplos minoristas del chip a veces eran capaces de llegar a 400MHz. Grandes relojes con un pequeño presupuesto fueron posibles por primera vez..