Overclocking
El overclocking es la práctica de aumentar la frecuencia de reloj de un componente electrónico (normalmente una CPU o GPU) por encima de las especificaciones del fabricante. [1] El objetivo es obtener un mayor rendimiento sin necesidad de cambiar los componentes, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente. Overclock es un anglicismo de uso habitual en informática que literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de la unidad central de procesamiento, o simplemente subir frecuencias.
Esta práctica es amplia entre los usuarios más exigentes, que tratan de llevar al máximo el rendimiento de sus equipos. Algunos usuarios suelen comprar componentes informáticos de bajo costo, forzándolos posteriormente y alcanzando así el rendimiento esperado de los componentes de gama más alta. Por otro lado, los consumidores más fanáticos pueden llegar a adquirir los componentes más recientes del mercado para forzar su funcionamiento, y conseguir así pruebas de rendimiento inalcanzables para cualquier equipo de consumo. Por este motivo, la mayoría de los fabricantes deciden no incluir en la garantía de su hardware los potenciales daños producidos por esta práctica.
Hoy en día los fabricantes de hardware venden algunos de sus productos desbloqueados para permitir a los usuarios realizar overclock sobre los mismos.[2]
Desventajas
Al incrementar la frecuencia del reloj también se incrementa el consumo de corriente y el calor desprendido, lo que podría afectar a otros componentes; por este motivo podría ser necesario reemplazar el sistema de refrigeración por uno más avanzado, lo que implicaría un costo extra. Además, el overclock puede resultar en fallos de estabilidad y reducción de la vida útil del producto.
Resumen
El propósito del overclocking es obtener un mayor rendimiento de un determinado componente incrementando su velocidad de funcionamiento. Generalmente, en los sistemas modernos, el overclocking está dirigido a aumentar el funcionamiento de un chip principal o subsistema, como el procesador principal o el controlador de gráficos, pero también en otros componentes como memoria de sistema (RAM) o buses de sistema (generalmente en la placa base). Las compensaciones aumentan el consumo de energía y el ruido del ventilador (refrigeración) de los componentes específicos. La mayoría de los componentes están diseñados con un margen de seguridad para hacer frente a condiciones fuera del control del fabricante; como la temperatura y las fluctuaciones en el voltaje del componente. Las técnicas de overclocking comerciales en general simulan este margen de seguridad colocando el dispositivo en el extremo superior del margen, lo cual requiere que la temperatura y el voltaje sean más estrictamente supervisados y controlados por el usuario ya que el restante "colchón de seguridad" se reduce. En el caso de la temperatura requeriría mayor refrigeración, como la parte será menos tolerante a temperaturas más elevadas a mayor velocidad; también base de tensión se puede aumentar para compensar caídas de tensión inesperada y para reforzar la señalización y sincronización de las señales, como excursiones de baja tensión son más propensos a causar fallos de funcionamiento a altas velocidades de funcionamiento.
Mientras que los dispositivos más modernos son bastante tolerantes de overclocking, todos los dispositivos tienen límites finitos, generalmente para cualquier voltaje dado que mayor parte tendrá una velocidad máxima de "estable" donde todavía funcionan correctamente. Más allá de esta velocidad el dispositivo comienza a dar resultados incorrectos, que puede causar fallos de funcionamiento y comportamiento esporádico en cualquier sistema en función de él. Mientras que en un contexto de PC el resultado habitual es el bloqueo del sistema, más errores sutiles pueden pasar desapercibidos, más un tiempo suficientemente largo puede dar sorpresas desagradables tales como corrupción de datos (incorrectamente calculado resultados o peor escritura almacenamiento incorrectamente) o el sistema fallar solamente durante ciertas tareas específicas (uso general tales como navegación por internet y procesamiento de textos aparecen bien pero cualquier aplicación que gráficos avanzados bloquea el sistema).
En este punto un aumento en tensión de una parte puede permitir más espacio para nuevos aumentos en la velocidad del reloj, pero incrementos de voltaje pueden también aumentar producción de calor. En algún momento habrá un límite impuesto por la capacidad de suministrar el dispositivo con suficiente potencia, la capacidad del usuario para enfriar la parte y la tolerancia de tensión máxima del dispositivo antes de alcance destructivo fracaso. El uso de voltaje o enfriamiento inadecuado puede degradar rápidamente el rendimiento de un dispositivo hasta el punto de la falla, o en algunos casos provocar su destrucción.
La velocidad obtenida por el overclocking depende en gran parte de las aplicaciones y cargas de trabajo que se ejecutan en el sistema y los componentes sometidos al overclocking.
Underclocking
Por el contrario, el objetivo principal del underclocking es reducir el consumo de energía y la generación de calor resultante de un dispositivo, con las desventajas de tener inferiores velocidades de reloj y reducciones en el rendimiento. Reducir los requerimientos de enfriamiento necesarios para mantener una pieza a una temperatura operativa determinada tiene beneficios como reducir el número y velocidad de ventiladores que permiten un funcionamiento más silencioso y en los dispositivos móviles aumentan la duración de la batería por carga. Underclock de algunos fabricantes de componentes del equipo con pilas para mejorar la vida de la batería, o aplicar sistemas que detectan cuando un dispositivos está en funcionamiento debajo de energía de la batería y reducir la frecuencia de reloj en consecuencia. Underclocking participa casi siempre en las últimas etapas de Undervolting que busca encontrar la velocidad de reloj más alta que un procesador estable funciona a un voltaje determinado. Es decir, mientras overclocking busca maximizar la velocidad de reloj de temperatura y potencia como restricciones, underclocking trata de encontrar la velocidad de reloj más alta que un dispositivo puede funcionar confiablemente en un límite de potencia fijo, arbitrario. Un dispositivo puede funcionar a su velocidad stock incluso undervolted, underclocking en cuyo caso sería contratado solo después de más reducciones en el voltaje por último desestabiliza la parte. En ese momento, el usuario tendría que determinar si velocidad y voltaje de funcionamiento pasado satisfactoriamente han reducido consumo de energía para sus necesidades, si no entonces rendimiento debe ser sacrificado, un reloj inferior es elegido (underclock) y pruebas progresivamente en tensiones más bajas seguiría desde ese punto. Un límite más bajo es cuando el aparato no funciona o la circuitería de soporte fiable no se puede comunicar con la parte.
El underclocking y undervolting se trataron generalmente si un sistema necesita para funcionar silenciosamente (como un reproductor multimedia), pero se desea un rendimiento más alto que se ofrece por ofertas de bajo voltaje de un fabricante determinado procesador. El constructor intentará tomar una parte escritorio de alta rendimiento con una mayor potencia térmica común y ver si el procesador se ejecutará con tensiones más bajas y velocidades dentro de un objetivo de rendimiento/ruido aceptable para la construcción. Así pueden dar algunas opciones para undervolt/underclock un procesador de voltaje estándar en una aplicación de "baja tensión" para evitar el pago de una prima de precio para una versión oficialmente certificados de baja tensión (algunas versiones de baja potencia son significativamente más caros y aun así suelen ser todavía más lento que su equivalente de escritorio), o si se requiere mejor rendimiento que el ofrecido por los procesadores de baja potencia.
Cultura entusiasta
El overclocking se ha convertido en más accesible con los fabricantes de placas base con overclocking como una función de marketing en sus líneas de productos principales. Sin embargo la práctica es aceptada más por los entusiastas de que los usuarios profesionales, como overclocking conlleva un riesgo de menor fiabilidad, precisión y daño a datos y equipo. Además es importante tener en cuenta que la mayoría fabricante garantías y acuerdos de servicio no cubre componentes overclockeados ni los daños incidentales causados por su uso. Mientras que el overclocking puede todavía ser una opción para aumentar la capacidad de Computación personal y por tanto productividad del flujo de trabajo para los usuarios profesionales, la importancia de los componentes de prueba de estabilidad completamente antes de emplearlos en un entorno de producción no puede ser exagerado.
El overclocking ofrece varios sorteos para los entusiastas de overclocking. Overclocking permite realizar pruebas de componentes a velocidades no está ofrecidas por el fabricante, o a velocidades solo oficialmente que se ofrecen en versiones muy especializadas del producto (que generalmente tienen un precio fuera de lo que podía comprar un usuario individual). Una tendencia general en la industria de la computación es que nuevas tecnologías tienden a debutar en el mercado High-End primero, luego más tarde lenta hasta el mercado de rendimiento y mainstream. Si la parte alta solo se diferencia por una velocidad de reloj mayor, un entusiasta puede intentar overclockear una parte principal para simular la oferta de mayor nivel. Esto puede dar la penetración en cómo over-the-horizon technologies realizará antes de estar oficialmente disponibles en el mercado convencional, que puede ser útil para otros usuarios teniendo en cuenta si debe planificar comprar o actualizar a la nueva característica cuando se lance oficialmente.
Algunos aficionados disfrutan del edificio, el ajuste y "Hot-Rodding" sus sistemas en las competencias de banco marca competitivas, compitiendo con otros usuarios afines para puntuaciones en suites de referencia de equipo estándar. Otros compra un modelo de menor costo de un componente en una línea de productos determinada y tratar de forzar esa parte para emparejar el funcionamiento común de un modelo más caro. Otro enfoque es overclocking mayores componentes para intentar mantener el ritmo de aumento de requisitos del sistema y extender la útil vida útil de la mayor parte o al menos retrasar una compra de nuevo hardware únicamente por razones de rendimiento. Otra justificación para equipos más antiguos de overclocking es aunque overclocking equipo estrés hasta el punto de falla, poco se pierde ya que está despreciado y tendría que ser sustituido en ningún caso. [1]
Componentes
Técnicamente cualquier componente que utiliza un temporizador o reloj para sincronizar las operaciones internas de sus puede ser overclockeado. Mayoría de los esfuerzos de los componentes de la computadora sin embargo centrarse en determinados componentes como procesadores (también conocido como CPU), tarjetas de video, placa base, chipsets y RAM. Los procesadores más modernos derivan sus velocidades de operación efectivas multiplicando un reloj base (tradicionalmente la velocidad del bus del procesador) por un multiplicador interno dentro del procesador (el multiplicador de la CPU) para alcanzar su velocidad final. Procesadores de computadora son generalmente overclockeados por manipular el multiplicador de la CPU si esta opción está disponible, pero el procesador y otros componentes pueden ser también ser overclockeado por aumento de la velocidad base del reloj del autobús. Algunos sistemas permiten templar adicional de otros relojes (como un reloj del sistema) que influyen en la velocidad de reloj de bus que, otra vez se multiplica por el procesador para permitir un ajuste fino de la velocidad final del procesador.
Una consideración práctica para que un componente sea sometido a overclocking es si los ajustes necesarios para cambiar velocidades de reloj son accesibles al usuario. Por ejemplo, más preconstruidos sistemas OEM no exponen los ajustes necesarios para el cambio de velocidad de reloj del procesador o de voltaje, prevención de forzado de reloj (por razones de garantía y soporte); mientras el mismo procesador instalado en una placa diferente ofreciendo ajustes permite cambiarlos.
Cualquier componente en última instancia, dejará de funcionar confiablemente más allá de una cierta velocidad de reloj. Generalmente componentes mostrará a algún tipo de comportamiento defectuoso u otro indicador de estabilidad comprometida que avisa al usuario que una velocidad dada no es estable, pero siempre existe la posibilidad que un componente fallará permanentemente sin ningún aviso, incluso si los voltajes se mantienen dentro de algunas pre-determinados valores "seguros". La velocidad máxima se determina por overclocking hasta el punto de inestabilidad primero, luego aceptar la última configuración estable más lento. Los componentes solo están garantizados para funcionar correctamente hasta su valor nominal; más allá de diversas muestras pueden tener diferente potencial overclocking. El punto final de un overclock dado está determinado por parámetros tales como multiplicadores de CPU disponibles, divisores del autobús, tensiones; la capacidad del usuario para manejar cargas térmicas, refrigeración técnicas; y varios otros factores de los dispositivos individuales ellos mismos (que el usuario no puede controlar, simplemente "suerte" si una parte es un "buen clocker" o no) como semiconductor reloj y térmica tolerancias, interacción con otros componentes y el resto del sistema.
Consideraciones
Hay varias cosas a considerar al overclocking. El primero es asegurar que el componente está provisto de suficiente potencia a un voltaje suficiente para operar en la nueva tarifa de reloj. Sin embargo, alimentar con la incorrecta configuración o aplicación excesiva tensión puede dañar permanentemente un componente. En un entorno de producción profesional, el overclocking solo es probable ser utilizado donde el aumento de velocidad justifica el costo de la mano de obra experta necesaria, posiblemente reducida confiabilidad y consiguiente efecto de superar los índices de fabricantes en contratos de mantenimiento y garantías y el mayor consumo de energía. Si es más rápido, pero no el máximo posible, la velocidad es necesaria a menudo es más barato cuando se consideran todos los costos para adquirir hardware más rápido.
Enfriamiento
Todos los circuitos electrónicos producen calor generado por el movimiento de la corriente eléctrica. Si las frecuencias de reloj en circuitos digitales y voltaje aplicado aumenta, el calor generado por los componentes de funcionamiento en los niveles superiores de rendimiento también aumenta. La relación entre frecuencias de reloj y potencia de diseño térmico (TDP) son lineales. Sin embargo, hay un límite a la frecuencia máxima que se llama un "muro". Para resolver este problema, los overclockers suben el voltaje del chip para aumentar el potencial de overclocking. El voltaje aumenta consumo el de energía y en consecuencia la generación de calor significativamente (proporcional al cuadrado de la tensión en un circuito lineal, por ejemplo); Esto requiere más enfriamiento para evitar daños en el hardware por sobrecalentamiento. Además, algunos circuitos digitales disminuye a altas temperaturas debido a los cambios en las características del dispositivo MOSFET . Por el contrario, el overclocking puede decidir disminuir el voltaje de la viruta mientras overclocking (un proceso conocido como undervolting) reducir las emisiones de calor mientras que el rendimiento es óptimo.
Los sistemas de enfriamiento más comunes están diseñados para la cantidad de energía producida durante el uso sin overclock; circuitos de overclock pueden requerir más refrigeración, tales como potentes ventiladores, grandes disipadores de calor, tubos de calor y refrigeración por agua. Masa, forma y material influyen en la capacidad de un disipador de calor para disipar el calor. Disipadores de calor eficientes a menudo están hechos enteramente de cobre, que tiene una alta conductividad térmica, pero es caro. [2] aluminio es más ampliamente utilizado; tiene buenas características térmicas, aunque no tan bueno como el cobre y es significativamente más barato. Materiales más baratos como el acero no tienen buenas características térmicas. Pipas de calor puede utilizarse para mejorar la conductividad. Muchos disipadores de calor combinan dos o más materiales para lograr un equilibrio entre rendimiento y costo. [2] Interior de un ordenador refrigerado por agua, que muestra el bloque de agua, la tubería y la bomba de CPU. Refrigeración por agua lleva calor inútil a un radiador. Dispositivos de enfriamiento termoeléctrico que realmente refrigerar usando el efecto Peltier puede ayudan con alta potencia de diseño térmico (TDP) procesadores hechos por Intel y AMD a principios del siglo XXI. Dispositivos de enfriamiento termoeléctricos crean diferencias de temperatura entre dos placas funcionando una corriente eléctrica a través de las placas. Este método de refrigeración es muy eficaz, pero sí genera considerable calor en otras partes que debe llevar, a menudo por un disipador de calor basados en la convección o un sistema de refrigeración por agua . Nitrógeno líquido puede utilizarse para la refrigeración de un sistema de overclock, cuando es necesaria una medida extrema de la refrigeración. Otros métodos de enfriamiento son convección forzada y la transición de la fase de enfriamiento que se utiliza en refrigeradores y puede ser adaptado para uso de la computadora. Nitrógeno líquido, helio líquidoy hielo seco se utilizan como refrigerantes en casos extremos,[3] como el récord de intentos o experimentos puntuales en lugar de un sistema cotidiano de enfriamiento. En junio de 2006, IBM y el Instituto de tecnología de Georgia anunciaron conjuntamente un nuevo registro de chip de silicio-basados tarifa de reloj (la tasa de un transistor puede conmutarse en él, no la CPU reloj tipo[4]) por encima de 500 GHz, que se hizo por el enfriamiento del chip a 4.5 K (−268.6 ° C, −451.6 ° F) con helio líquido. [5] el expediente de mundo de frecuencia de CPU es 8,429 GHz a partir de septiembre de 2011. [6] estos métodos extremos son generalmente poco práctico a largo plazo, necesitan rellenar depósitos de vaporización del refrigerante, y condensación se puede formar en componentes de refrigerados. [3] por otra parte, silicio-basado de la ensambladura puerta transistores efecto de campo (JFET) se degradan por debajo de temperaturas de aproximadamente 100 K (−173 ° C, −280 ° F) y eventualmente dejan de funcionar o "congelar" en 40 K (−233 ° C; −388 ° F) ya que el silicio deja de ser semiconductores[7] para uso de refrigerantes muy frías puede causar dispositivos no.
Refrigeración por inmersión, usado por el superordenadorde Cray-2 , implica el hundimiento de una parte del sistema de la computadora directamente a un fluido caloportador que es térmicamente conductivos pero tiene baja conductividad eléctrica. La ventaja de esta técnica es que no hay condensación puede formar en componentes. [8] un líquido de sumersión buena es Fluorinert hecho por 3 M, que es caro. Otra opción es aceite mineral, pero las impurezas tales como esos en agua pueden causar a conducir la electricidad. [8]
Estabilidad y corrección funcional
Como un componente overclock funciona fuera del fabricante recomienda condiciones de funcionamiento, puede funcionar incorrectamente y se puede tragar la board, conduciendo a la inestabilidad del sistema. Otro riesgo es la corrupción de datos silenciosa por errores no detectados. Esos errores nunca podrían ser diagnosticados correctamente y en su lugar pueden ser incorrectamente atribuidos a errores de software en aplicaciones, controladores de dispositivo o el sistema operativo. Uso overclock puede dañar permanentemente los componentes lo suficiente como para hacer que se portan mal (incluso en condiciones normales) sin llegar a ser totalmente inutilizable. Un estudio de campo a gran escala 2011 de fallas de hardware, causando un bloqueo del sistema de consumo de PCs y portátiles mostró cuatro aumento de 20 veces (dependiendo del fabricante de la CPU) en el sistema se bloquea debido a un fallo de la CPU para computadoras overclock durante un período de ocho meses. [9]
En general, los overclockers afirman que la prueba puede asegurar que un sistema de overclock es estable y funciona correctamente. Aunque existen programas para probar la estabilidad del hardware, es generalmente imposible para cualquier persona individual probar completamente la funcionalidad de un procesador. [10] logrando una buena cobertura de avería requiere enorme esfuerzo de ingeniería; incluso con todos los recursos dedicados a la validación por los fabricantes, incluso fallas de diseño y componentes defectuosos no son siempre detectados.
Un particular "estrés test" puede verificar solamente la funcionalidad de la secuencia de instrucción específica se usa en combinación con los datos y no puede detectar fallas en las operaciones. Por ejemplo, una operación aritmética puede producir el resultado correcto pero incorrecto banderas; Si las banderas no se comprueban, el error pasará desapercibido.
Para complicar más lejos materias, en tecnologías de proceso como silicio sobre aislante (SOI), dispositivos muestran histéresis: rendimiento de un circuito se ve afectado por los acontecimientos del pasado, así que sin pruebas cuidadosamente dirigidas es posible para una secuencia particular de los cambios de estado para trabajar en tipos de overclock en una situación pero no a otro incluso si el voltaje y la temperatura son las mismas. A menudo, un sistema de overclock que pasa pruebas de estrés experimenta inestabilidades en otros programas. [11]
En overclocking círculos, "pruebas de estrés" o "pruebas de tortura" se utilizan para verificar el funcionamiento correcto de un componente. Estas cargas de trabajo se seleccionan como ponen una carga muy alta en el componente de interés (por ejemplo, una aplicación gráficamente intensiva para tarjetas de vídeo de la prueba o diferentes aplicaciones matemáticas para la prueba general CPU). Pruebas populares incluyen Prime95, Everest, Superpi, OCCT, AIDA64, Linpack (vía el LinX y IntelBurnTest GUIs), SiSoftware Sandra, BOINC, herramienta de análisis térmico de Intel y Memtest86. La esperanza es que los problemas de corrección funcional con el overclock componente se mostrarán durante estas pruebas, y si no hay errores se detectan durante la prueba, el componente entonces se considera "estable". Ya que la cobertura falla es importante en ensayos de estabilidad, las pruebas se ejecutan a menudo por largos períodos de tiempo, horas o incluso días. Un ordenador overclockeado a veces se describe mediante el número de horas y el programa de estabilidad utilizado, tales como "primer estables 12 horas".
Factores que permiten el overclocking
El overclocking surge en parte debido a la economía de los procesos de fabricación de las CPU y otros componentes. En muchos casos componentes son fabricados por el mismo proceso y probados después de la fabricación para determinar su máxima capacidad actual. Componentes entonces están marcados con una calificación por las necesidades del mercado de los fabricantes de semiconductores. Si el rendimiento de fabricación es alto, pueden producir más componentes nominal superior al necesario, y el fabricante puede marcar y vender componentes de alto rendimiento como menor calificación por razones de marketing. En algunos casos, la calificación máxima verdadera del componente puede exceder incluso el componente nominal más alto vendido. Muchos de los dispositivos vendidos con una calificación más baja pueden comportarse en todas las formas como los de mayor rating, mientras que en el peor de los casos la operación en la calificación más alta puede ser más problemática. En particular, mayor relojes siempre deben significar una mayor generación de calor residual, como semiconductores a alta deben volcar al suelo más a menudo. En algunos casos, esto significa que el principal inconveniente de la parte de overclock es más calor disipado que los máximos publicados por el fabricante. Arquitecto de Pentium Bob Colwell llamadas overclocking un "incontrolado experimento en el funcionamiento del sistema mejor que el peor caso". [12]
Medición de los efectos del overclocking
Puntos de referencia se utilizan para evaluar el desempeño, y pueden llegar a ser una especie de "deporte" en el que los usuarios compiten por las puntuaciones más altas. Como hemos comentado anteriormente, la estabilidad y corrección funcional pueden verse comprometidas cuando el overclocking, y resultados significativos dependen de la correcta ejecución de la referencia. Debido a esto, puntuaciones de referencia pueden ser calificados con notas de corrección y estabilidad (e.g. un overclocking puede reportar una calificación, teniendo en cuenta que el punto de referencia solo se ejecuta en tiempos de ejecución 1 de cada 5, o que los signos de ejecución incorrecta como la corrupción de la pantalla son visibles mientras se ejecuta el punto de referencia). Una prueba ampliamente utilizada de estabilidad es Prime95, que tiene comprobación de errores incorporado que falla si el equipo es inestable. Utilizando solo las puntuaciones de referencia, puede ser difícil juzgar la diferencia hace que el rendimiento general de un equipo de overclocking. Por ejemplo, algunos benchmarks probar solo un aspecto del sistema, como memoria ancho de banda, sin tomar en consideración cómo mayor velocidades de reloj en este aspecto mejorará el rendimiento del sistema en su conjunto. Aparte de aplicaciones exigentes como codificación de vídeo, alta demanda de bases de datos y computación científica, ancho de banda de memoria normalmente no es un cuello de botella, así que un gran aumento en el ancho de banda de memoria puede ser imperceptible para un usuario dependiendo de las aplicaciones utilizadas. Otros puntos de referencia, como el 3DMark, intentan replicar las condiciones de juego.
Overclocking de fabricantes y vendedores
Los ensambladores de sistemas comerciales o distribuidores de componentes de overclock a veces para vender artículos en mayores márgenes de beneficio. El vendedor hace más dinero por overclocking componentes de bajo precio que funcionan correctamente y venta de equipos a precios adecuados para los componentes de mayor clasificación. Mientras que el equipo normalmente funcionará correctamente, se puede considerar esta práctica fraudulenta si el comprador es consciente de él. Overclocking se ofrece a veces como un servicio legítimo o función para los consumidores, en el cual un fabricante o vendedor las pruebas de la capacidad de overclocking de procesadores, memoria, tarjetas de video y otros productos de hardware. Tarjeta de video varios fabrica ahora overclockeado de fábrica ofrecen versiones de sus aceleradores de gráficos, con una garantía, generalmente a un precio intermedio entre el de estándar y un producto no overclock de un rendimiento más alto.
Se especula que fabricantes aplicación overclocking mecanismos de prevención tales como bloqueo de CPU para evitar que los usuarios de artículos de menor precio de compra y les overclocking. Estas medidas se ponen a veces como un beneficio de protección al consumidor , pero a menudo son criticadas por los compradores.
Muchos motherboards se venden y anuncian, con amplias instalaciones para overclocking implementado en hardware y controlado por la configuración del BIOS . [13]
Bloqueo de CPU
El bloqueo de CPU es el proceso de bloquear el multiplicador del reloj de una CPU con el fin de evitar el overclock. Todas las nuevas CPUs Ryzen de AMD están desbloqueadas, pero casi todas las CPU de Intel están bloqueadas y los modelos más recientes son muy resistentes al desbloqueo para evitar el overclocking por parte de los usuarios. Las anteriores CPUs de AMD Black Series, FX y Opteron estaban desbloqueadas, al igual que las más recientes Ryzen, mientras que Intel utiliza el apodo de "Extreme Edition" en los procesadores de más alta gama o añade la letra K al final del nombre de una CPU para indicar que está desbloqueada. Los usuarios deben desbloquear la CPU para permitir underclocking, overclocking y bus frontal lateral a velocidad compatibilidad con algunas placas base, pero el desbloqueo invalida la garantía del fabricante y los errores pueden paralizar una CPU. Sin embargo, el bloqueo del multiplicador de reloj de la viruta no necesariamente impide que los usuarios overclocking, como la velocidad del bus frontal puede modificarse para proporcionar un aumento del rendimiento. AMD Athlon y Athlon XP CPUs son generalmente desbloqueados mediante la conexión de puentes (puente-como puntos) en la parte superior de la CPU con conductor pintura o lápiz plomo. Otros modelos de CPU (determinables por número de serie) requieren procedimientos diferentes.
Una de las maneras más fáciles de desbloquear al más viejo AMD Athlon XP CPUs fue llamada el método de pin mod , porque es posible desbloquear la CPU sin modificar de forma permanente puentes. Un usuario podría simplemente poner un cable (o más para un nuevo multiplicador/Vcore) en el zócalo de la CPU de desbloqueo.
Véase también
Referencias
- . Archivado desde el original el 22 de septiembre de 2013. Consultado el 23 de mayo de 2015.
- Guía de Overclocking presentada por nVidia
Enlaces externos
- por Imperio Gamer