Como elegir una fuente de poder
+info consumo VGAs y OC



Bueno, como muchos sabréis, hay muchas dudas con respecto a la elección de las fuentes de alimentación a la hora de montar un equipo nuevo, esto viene dado por las recomendaciones de los fabricantes de tarjetas gráficas, que en ocasiones es exagerado, y a lo sumo, recomiendan únicamente un porcentaje en vatios necesarios, sin estimar ningún dato más... hoy aquí, vamos a acabar con esa leyenda de que cuantos más vatios mejor será la fuente y más aguantara el equipo.

Como elegir una fuente de poder


Para empezar, voy a dar una breve explicación del funcionamiento de una fuente, y su amperaje...

Como muchos sabréis, las fuentes tienen 3 tomas distintas de corriente, de 3,3v de 5v y de 12v, la gran mayoría del equipo se dicta por la línea de 12v, tales como la tarjeta gráfica, el procesador, o los discos duros, o refrigeración líquida en caso de que se use...


Partiendo de que estos son los componentes que más vatios consumen en un equipo, aremos el recuento necesario a partir de estos, sumando un pequeño porcentaje del resto del equipo, a modo de guía...


¿Que necesito saber?


El Amperaje, ni más ni menos, ¿cómo medirlo? muy sencillo, el amperaje se obtiene dividiendo los W consumidos del componente que se va a calcular, entre los voltios de la toma usada, en este caso, como el 90% de los componentes usan la línea de 12V, la división la aremos entre 12, pongamos el ejemplo para calcular el amperaje de una tarjeta gráfica que consume 150W, siendo así:

150W / 12v = 12,5Amperios, a partir de ahora, para que sea mas fácil, A=amperios.

Las fuentes suelen tener varias líneas de 12V, algunas tienen 3, otras tienen 4, etc., dependerá de la calidad de esta, lo realmente importante aquí, es el amperaje TOTAL que la fuente es capaz de ofrecer de manera compartida, es decir, el amperaje que pueden ofrecer de manera continua cada 1 de estas 3 líneas de 12v en paralelo para todo el equipo, y esto, de nuevo depende de la calidad de la fuente, una fuente que tenga 3 líneas de 12V y por cada una de ellas ofrezca 19A, NO ofrecerá de manera continua en paralelo la suma de estos amperajes, es decir:

12V1 = 19A; 12V2 = 19A; 12V3 = 19A, 12Vtotal = 57A ===> ¡¡¡FALSO!!!

El amperaje total puede variar, puede que haya fuentes que con 19A en 3 tomas ofrezca un amperaje total de 40A, y otra fuente parecida con también 19A en 3 tomas ofrezca solo 34A, repito, esto depende de la calidad de la fuente, y eso, ES LO QUE NOS INTERESA SABER, única y exclusivamente el amperaje TOTAL en paralelo, el cual, debe especificar el fabricante en las specs técnicas del producto, por lo que eso deberemos mirar antes que cualquier otra cosa...

pc

408/12 = 34A y no 57A como seria la suma de las 3 de 19...


¿Porque el amperaje y no los vatios?


Muy sencillo, el amperaje nos dictamina los vatios que la fuente es capaz de ofrecer por la línea de 12V, es decir, por la línea donde van conectados la gran parte de los componentes de nuestro sistema, y para que veáis por que el amperaje es de vital importancia, os pondré un ejemplo de como una fuente de 500W es capaz de dar mas energía a un ordenador de gama alta, que incluso una fuente de 650W...

Bien, supongamos un PC con X componentes (realmente no nos importa para la medición), en el que a plena carga consume alrededor de 380W teniendo en cuenta que los ventiladores consumen muy poco (entre 2 y 4W), y que los lectores no consumen mientras no están en uso, aremos como que ese total parte de la línea de 12V

Haciendo el cálculo, 380 / 12; nos sale 31'7A totales por la línea de 12V, es decir, este equipo, NECESITA OBLIGATORIAMENTE, una fuente que sea capaz de ofrecer MAS de 31'7A por la línea de 12V, al menos, de 2 a 4A más para curarnos en salud, teniendo en cuenta los picos máximos de consumo que puede llegar a tener un equipo debido a una tarjeta gráfica muy exigente o un procesador con overclock

Ahora, por que una fuente de 500W podría ser mas eficiente que una de 650W? por el amperaje capaz de ofrecer por la línea de 12, en tal caso, imaginemos que la fuente de 500W es capaz de dar 34A totales por la línea de 12V, esta fuente, será capaz de dar un correcto consumo al equipo X antes mencionado, ya que 34A suponen una carga máxima de 408W por la línea de 12, y el ordenador a FULL solo consume 380W, sin embargo, si la fuente de 650W es de peor calidad, y solo puede ofrecer 28A por la línea de 12V (recordemos, TOTALES), solo será capaz de dar una alimentación de 336W por la línea de 12V, la cual, es sobrepasada por el equipo, por lo cual, se someterá a constantes reinicios cada vez que el ordenador se ponga a máxima carga en juegos o tareas complejas, y muy posiblemente, los componentes acaben dañados...



¿Como calcular el amperaje que necesita mi equipo?



Simplemente suma los W de los componentes, saber que consume cada componente no es muy difícil, simplemente miras por Internet alguna guía, o en la misma Web del fabricante, y deberá salir el consumo de este, por ejemplo, la tarjeta grafica, el procesador, los discos duros, posibles tarjetas de sonido, refrigeración liquida (en este ultimo caso deberéis mirar la bomba de agua), todo ello esta ligado a la línea de 12V, sumando los W de cada uno de los componentes y calculando el amperaje, obtendréis el dato necesario a la hora de elegir fuente de alimentación.

Repito, antes que mirar los vatios, deberéis mirar el amperaje, eso NO FALLA NUNCA, los vatios totales que es capaz de ofrecer una fuente no dictamina nada, ya que esta puede no ser capaz de generar suficiente potencia para el equipo, y a fin de cuentas, los Amperios son ni mas ni menos otro punto de vista mas sencillo de ver los W que es capaz de ofrecer una fuente.



APUNTES


Los fabricantes de tarjetas graficas, estiran mucho el consumo de estas, ni mas ni menos para que los usuarios, al tener la costumbre de comprar fuentes genéricas de baja calidad, se cubran las espaldas en cuanto a posibles fallos eléctricos, es decir, recomiendan fuentes de muchos vatios, para que si algún usuario compra una fuente de no muy buena calidad con esa misma capacidad, esta sea capaz de ofrecer el consumo necesario.

Me explico, puede que una tarjeta grafica como la 8800GTX se baste con una fuente de 450W de buena calidad, pero debido a que los fabricantes no puede saber si el usuario final obtendrá una fuente de 450W de buena calidad, recomiendan fuentes de 550W para arriba, de manera que si esta no es de muy buena calidad, por lo menos casi seguro será capaz de cubrir ese leve rango de amperaje que separa al equipo del fallo eléctrico, del buen funcionamiento... los datos ofrecidos por los fabricantes, son por ejemplo, que una 8800 GTS de 640MB consume 147W, la realidad, es que esta tarjeta grafica en LOAD no pasa de los 110W, o que una 8800GTX consume 176W, y la realidad es que no pasa de 134W, esto lo hacen para cubrirse las espaldas al usuario final.

A pesar de esto, a la hora de hacer el calculo, os recomiendo encarecidamente que toméis como referencia el consumo oficial de cada componente, es decir, el "exagerado", de manera que así, siempre os sobraran 3 o 4A totales y os cubriréis las espaldas ante posibles picos máximos, aun así, NO OS RECOMIENDO que a la hora de elegir una fuente de alimentación la escojáis con un amperaje muy ajustado a vuestro sistema, en este caso, mas vale que sobre que no que falten...

Para poder medir el consumo de vuestras tarjetas graficas tenéis a Gpureview, seleccionar la tarjeta que queréis ver, os aparecerán todos los datos y entre ellos el consumo, denominado como "max power draw"

Para poder medir el consumo de vuestros procesadores, no tenéis mas que ir a la pagina oficial, en ella os salen los datos de consumo de cada procesador, en caso de que alguno no apareciese, perfectamente podéis ir a webs como alternate, appinformatica, o pccomonentes, donde buscando el modelo de vuestro procesador podréis encontrar su ficha técnica y su consumo...



¡ATENCION!


Si algún componente cuenta con overclock, el consumo ascenderá, en el caso de los procesadores, una media de una 2/3 parte del % del overclock aplicado (ya que el resto depende de la cache y del controlador), y en el caso de las tarjetas graficas aproximadamente 1/3 parte del % de overclock aplicado (ya que en esta dependen factores mayores como la cantidad de shaders, memorias, controladora, puentes, etc...) [En caso de que se quiera calcular lo que consumirá un equipo que todavía no tenemos montado para saber que fuente comprar, deberemos tener en cuenta si vamos ha hacer overclock, y aplicarlo a la cuenta]

Dicho esto, pasemos a poner un ejemplo de lo que seria medir correctamente la alimentación necesaria como equipo...



EJEMPLO



Vamos a tomar como referencia este equipo.

Gigabyte P35 Ds3r
E6600 @ 3000 mhz + 2x2GB Ddr2 800 OCZ black dragon
POV 8800 GTS 640Mb @ 650/1550/2000
WD Raptor 74GB 10.000 RPM + WD Caviar 320 GB

El consumo medio de una placa base es de entre 15 y 20W, a los que hay que sumarles el consumo del sonido integrado en caso de que se use, y el chipset, el cual nunca suele ser un traga W, pero partiremos de unos 20W mas

Mi procesador de serie consume 65W, pero esta oceado a 3 GHZ (375x8, frente a los 266x9 en default), eso supone un 25% más de frecuencia, pero un 41% más de frecuencia en el bus (ya que le baje el multiplicador a 8 de 9 que estaba), ¿cuál tomar como referencia? la media de ambos, ya que no se puede tener en cuenta el porcentaje del FSB al haberle bajado el multiplicador, ni tampoco la final al no corresponder con el FSB con el multiplicador de serie (en caso de que no se toque el multiplicador, ambos porcentajes coincidirán, por lo que se tomara como referencia ese) lo que viene siendo 41+25= 66, 66/2= 33%, como hemos dicho que el consumo aumentaría tan solo una 2/3 parte del % de overclock debido a la cache y demás componentes que quedan intactos, el consumo aumentara un 22% (APROXIMADAMENTE)

Lo que significa que mediante una regla de 3 obtendremos el consumo máximo, aproximadamente 79,5W

Las memorias usan la toma de 3,3v; y no llegan a consumir ni 1W, así que eso dejarlo aparte...

La tarjeta grafica, como bien hemos dicho, tomaremos como referencia el consumo estirado, es decir, el oficial (a pesar de que el real sea mas bajo), para que a la hora de medir el amperaje no nos quedemos cortos), oficialmente esta grafica consume 150W, y le tengo aplicado un 27% de de overclock, como bien hemos dicho tomaremos tan solo como porcentaje de W 1/3 parte del % de overclock, por que lo que dictamina mas el consumo de una grafica son la cantidad de motores de renderizado, y no la velocidad de estos, influye menos... por lo que nos queda un 9% mas de consumo.

Lo que significa que mediante una regla de 3 obtendremos el consumo máximo, aproximadamente 164W

Los discos duros consumen todos alrededor de 12 y 30W, los míos en particular consumen ambos 12W, así que el consumo promedio de mis 2 discos duros será de 24W

Resumiendo 40W placa + 79,5W procesador + 164W grafica + 24W discos duros, el equipo tendrá un consumo total de 307,5W...

Haciendo el calculo vemos que esos 307W de consumo de todo el equipo A PLENA CARGA (ya que hemos tomado como referencia los consumos MAXIMOS, incluido la tarj. grafica) son ni mas ni menos que 25,625A, para cubrirnos las espaldas obtendremos una fuente de 28A para arriba...

PD: Los lectores y grabadoras también usan la toma de 12V en funcionamiento, y estos suelen tener un consumo promedio de unos 25 - 40W, pero tener en cuenta, que nosotros hemos hecho el calculo del consumo con el ordenador a plena carga, es decir, mientras estáis jugando por poner un ejemplo, en este momento los lectores no estarán funcionando, por lo que el consumo se sale de la estadística final, ya que cuando estos estén en funcionamiento, el resto del equipo seguramente este en idle, es decir, en reposo (véase tarjeta grafica, procesador, discos duros...).

Espero que os sirva para aclarar un poco las dudas sobre que fuente escoger a la hora de montar un ordenador, con ella hemos podido comprobar que con una fuente de 520W y 40A totales (como la corsair HX520), es capaz de generar energía suficiente y de sobra para la tarjeta que mas consume hoy en día en el mercado, la Hd3870x2, que consume por estimación oficial 225W, como veis, el mito de fuentes de 700W para tarjetas graficas de gama alta con 2 conectores de corriente, cae por su propio peso



<<<ACTUALIZACION>>>


Seguramente acabaran surgiendo dudas por la parte en la que explico que el consumo real de las tarjetas graficas no es verdaderamente el que dictan los datos oficiales por parte de las compañías, así, que tratare de explicar de manera lo mas sencilla y clara posible el por que esto es así...

Lo primero es entender cual es el consumo DC de las graficas, y cual es el AC, el real, es el DC, que se conoce como líneas de continua, el AC, es el consumo promedio que calculan los fabricantes antes de la conversión, ¿conversión?, el enchufe del ordenador, es la corriente AC, que es el consumo estimado por los fabricantes, una vez que la corriente pasa por la fuente de alimentación, se efectúa una conversión donde hay una perdida de energía (de hay a la eficiencia energética de las fuentes de alimentación), y esa conversión de energía con su correspondiente perdida (DC), es la que va directamente al componente...

Bien, como muchos sabréis, las fuentes de alimentación tienen una eficiencia energética, las de buena calidad, que cuentan con el certificado 80plus, tienen una eficiencia del 80% o mas, las de peor calidad, tendrán menor porcentaje de eficiencia energética, para que sirve esta eficiencia energética???

Veréis, una tarjeta grafica, tiene un consumo máximo establecido, que como bien e dicho, es menor que el que estiman los fabricantes, en un lugar os pueden decir que una tarjeta grafica tiene un consumo de 140W en DC, y en otro sitio os podrán decir que la misma grafica tiene un consumo de 180W en AC, ambos están bien, por que realmente os están diciendo lo mismo, la eficiencia energética de una fuente de alimentación dicta que energía debe coger esta de la línea de corriente AC, para poder dar por su línea DC el consumo adecuado (los fabricantes dan la AC)

Para que lo entendáis, si una tarjeta grafica consume 140W, y la fuente de alimentación a la que esta conectada tiene una eficiencia energética del 80%, quiere decir que la fuente de alimentación deberá coger del enchufe 175W, ¿como he obtenido este dato? 140W / 0.8 (0.8 representa el 80%), los fabricantes os dan el consumo que obtiene la fuente de alimentación de la corriente AC, no el que realmente consume la grafica, dependiendo de la eficiencia de la fuente de alimentación, esta deberá coger mas o menos vatios de la línea AC (el enchufe principal de la casa), pero el consumo de la grafica será siempre el mismo, si tenemos una fuente con una eficiencia energética del 90% y una grafica que consume 140W, la fuente necesitara coger 155W de la línea AC (140 / 0.9), por que tiene una eficiencia del 90 % y pierde menos vatios en la conversión, por lo que necesita coger menos vatios de la línea AC para dar al equipo, esto también significa, que cuanta mas eficiencia tenga una fuente de alimentación, mas ahorramos, una fuente con una eficiencia del 50%, deberá coger el doble de lo que realmente vaya a consumir nuestro equipo.

Los consumos oficiales de los fabricantes están tomados con una estimación, a partir de una fuente con una eficiencia del 75%, es decir, ese consumo será el que tenga tu fuente de alimentación de la línea eléctrica, para la conversión, y siempre y cuando cumplas el Standard que ellos imponen de la eficiencia del 75% (APROXIMADAMENTE), el consumo de la tarjeta grafica siempre es menor, es decir, el tomado por la conversión DC, y realmente, cuanta mas eficiencia tenga tu fuente de alimentación, también será menor el consumo que efectuara tu fuente de la toma AC para la conversión que el que dictan los fabricantes.


Fuente:

http://www.prysmax.com/forum/general-hardware/73051-como-elegir-una-fuente-de-alimentacion-info-consumo-vgas-y-oc.html