Mostrando entradas con la etiqueta Ley de Moore. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ley de Moore. Mostrar todas las entradas

miércoles, 21 de septiembre de 2011

Una nueva y mejorada Ley de Moore


Necesidad de potencia: El primer ordenador de propósito general, el ENIAC 1, podía llevar a cabo unos pocos cientos de cálculos por segundo.
Fuente: Gobierno de EE.UU. / Dominio Público

Con la "Ley de Koomey", es la eficiencia, y no la potencia, la que se duplica cada año y medio.

Diversos investigadores han demostrado, por primera vez, que la eficiencia energética de los ordenadores se duplica aproximadamente cada 18 meses.
La conclusión, respaldada por seis décadas de datos, es un reflejo de la ley de Moore, la observación del fundador de Intel Gordon Moore sobre que la potencia de procesamiento de los ordenadores se duplica aproximadamente cada 18 meses. Sin embargo, la tendencia de consumo de energía podría tener una mayor relevancia que la ley de Moore a medida que los dispositivos con baterías -teléfonos, tabletas y sensores- proliferan.
"La idea es que para una carga de procesamiento fija, la cantidad de batería que se necesita caerá en un factor de dos cada año y medio", afirma Jonathan Koomey, profesor consultor de ingeniería civil y ambiental en la Universidad de Stanford (EE.UU.) y autor principal del estudio. Gracias a la mejora constante de la eficiencia energética, es posible crear más aplicaciones de detección y de computación móvil, asegura Koomey.
La investigación, realizada en colaboración con Intel y Microsoft, analizó los picos en el consumo de potencia de dispositivos de computación electrónica desde la construcción del Computador e Integrador Numérico Electrónico (ENIAC, por sus siglas en inglés) en 1956. El primer ordenador de propósito general, el ENIAC, se utilizó para calcular tablas de disparos de artillería del Ejército de EE.UU., y era capaz de llevar a cabo unos pocos cientos de cálculos por segundo. Utilizaba tubos de vacío en lugar de transistores, ocupaba 1.800 pies cuadrados (167 metros cuadrados) y consumía 150 kilovatios de potencia.
Incluso antes de la llegada de los transistores discretos, afirma Koomey, la eficiencia de energía se duplicaba cada 18 meses. "Esta es una característica fundamental de la tecnología de la información que utiliza electrones para los cambios", afirma, "no es solo una función de los componentes en un chip".
El tipo de consideraciones de ingeniería necesarias para mejorar el rendimiento de un ordenador -reducir el tamaño de los componentes, la capacitancia y el tiempo de comunicación entre ellos, entre otras cosas- también mejora la eficiencia energética, indica Koomey. La nueva investigación, en coautoría con Stephen Berard de Microsoft, Marla Sanchez de la Universidad Carnegie Mellon (EE.UU.) y Henry Wong de Intel, fue publicada en la edición de julio-septiembre de la revista IEEE Annals of the History of Computing.
En julio, Koomey dio a conocer un informe mostrando que, entre otras conclusiones, la electricidad utilizada en los centros de datos en todo el mundo aumentó en un 56 por ciento entre 2005 y 2010 -una tasa mucho más baja que la duplicación que se observó desde 2000 a 2005.
Aunque el aumento de la eficiencia energética jugó un papel importante en este cambio, el total de electricidad utilizada en los centros de datos fue menor que el previsto para 2010 debido en parte a que se instaló un menor número de servidores del esperado, gracias a tecnologías como la virtualización, que permite a los sistemas existentes ejecutar más programas al mismo tiempo. Koomey señala que los ordenadores de los centros de datos rara vez funcionan a máxima potencia. La mayoría de los ordenadores están, de hecho, "tremendamente infrautilizados", afirma.
El mundo de la tecnología de la información ha ido cambiando su enfoque desde las capacidades de cómputo hacia la mejora de la eficiencia energética, especialmente a medida que la gente se acostumbra más a usar los teléfonos inteligentes, ordenadores portátiles, tabletas y otros dispositivos con baterías.
Desde que se introdujo la microarquitectura Intel Core en 2006, la compañía ha experimentado "un cambio radical en términos de enfoque en el consumo de energía", explica Lorie Wigle, directora general del programa de ecotecnología en Intel. "Históricamente, nos hemos centrado en el rendimiento y la duración de la batería, y cada vez más, estamos viendo cómo estas dos cosas se unen", asegura.
"Todo el mundo está familiarizado con la ley de Moore y las notables mejoras en la potencia de los ordenadores, y eso es obviamente importante," afirma Erik Brynjolfsson, profesor de la Escuela de Administración Sloan en el MIT (Instituto de Tecnología de Massachusetts, EE.UU.). Sin embargo, la gente está prestando más atención a la duración de la batería en sus aparatos electrónicos, así como a la rapidez con la que pueden funcionar. "Creo que esa es cada vez más la dimensión que importa a los consumidores", afirma Brynjolfsson. "Y en cierto sentido, 'la ley de Koomey', esta tendencia de consumo de energía, está empezando a eclipsar a la ley de Moore en cuanto a lo que importa a los consumidores en una gran cantidad de aplicaciones".
Para Koomey, el aspecto más interesante de la tendencia es pensar en las posibilidades para la informática. Los límites teóricos están todavía muy lejos, afirma. En 1985, el físico Richard Feynman analizó las necesidades de electricidad para los ordenadores y estimó que la eficiencia teóricamente podría mejorar en un factor de 100 mil millones antes de que llegara a un límite, excluyendo a nuevas tecnologías como la computación cuántica. Desde entonces, las mejoras de eficiencia han sido alrededor de 40.000. "Todavía podemos ir muy lejos", opina Koomey. "Solo estamos limitados por nuestra inteligencia, no por la física".
Copyright Technology Review 2011.

martes, 18 de enero de 2011

La "Ley de Moore" sigue gobernando casi 50 años después

Visionario, loco, erudito, suertudo, o cualquier otra cosa. Se ha considerado a Gordon Moore de muchas formas, y las opiniones sobre su ley, cuya principal idea es que aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado, son muy variadas a través de toda la Red, pero si hay algo que nadie puede negar es que la informática y los ordenadores no serían lo que son hoy si no se hubiesen tenido en cuenta sus expresiones. La tecnología le ha dado la razón durante casi cincuenta años, y no encontramos mejor forma de comprobar esto que con una galería de ordenadores y procesadores que representan casi con exactitud la Ley de Moore.

En abril del año 1965, Gordon E. Moore era director de los Laboratorios de Investigación y Desarrollo de Fairchild Semiconductor. El día 19 de ese mes apareció en el número 8, volumen 38 de la "Electronics Magazine" un artículo en el cual Moore confirmaba que la cantidad de transistores instalados en un circuito integrado se había duplicado desde su invención en el año 1958, hasta lo que era "su" época actual. El artículo apenas consta de cuatro páginas, y hoy en día está disponible para su descarga gratuita, por lo que es una lectura más que recomendada.

Es asombroso y a la vez escalofriante ver conceptos que son perfectamente comunes para nosotros hoy, mencionados en un texto que tiene casi medio siglo de antigüedad, incluso haciendo hincapié en importantes detalles como el de la refrigeración. De acuerdo a los datos que poseía Moore, a las mejoras en los métodos de fabricación y a las condiciones del mercado, había estimado que esta escalada se mantendría al menos por una década, pero en ningún momento había especificado un límite. Estamos a poco más de 45 años de aquel artículo, y honestamente, se puede decir que la Ley de Moore ha definido la informática moderna.

La Ley ha tenido sus variaciones, pero su equilibrio promedio ha servido incluso como referencia para otras leyes similares aplicadas a otros componentes (como la Ley de Kryder para los discos duros). Y aún así, no será eterna. De acuerdo a las mismas palabras de Moore, hoy nos quedan entre cinco y diez años de Ley, hasta que se alcancen límites elementales que requerirán de métodos de fabricación que bien podrían afectar o eliminar por completo su aplicación. Según Intel, el final para la Ley de Moore estará entre 2013 y 2018, cuando se alcance la fabricación en 16 nanómetros, aunque existe la posibilidad de hacer procesadores más grandes, siempre y cuando se resuelvan los requerimientos de refrigeración.

Los fabricantes ya están pensando en alternativas. Mientras tanto, la Ley de Moore sigue gobernando.

¿Qué dice la "Ley de Moore"?

La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado. Se trata de una ley empírica, formulada por el co-fundador de Intel, Gordon E. Moore el 19 de abril de 1965, cuyo cumplimiento se ha podido constatar hasta hoy.

En 1965 Gordon Moore afirmó que la tecnología tenía futuro, que el número de transistores por unidad de superficie en circuitos integrados se duplicaba cada año y que la tendencia continuaría durante las siguientes dos décadas.

Más tarde, en 1975, modificó su propia ley al afirmar que el ritmo bajaría, y que la capacidad de integración se duplicaría aproximadamente cada 24 meses. Esta progresión de crecimiento exponencial, duplicar la capacidad de los circuitos integrados cada dos años, es lo que se considera la Ley de Moore. Sin embargo, el propio Moore ha puesto fecha de caducidad a su ley: "Mi ley dejará de cumplirse dentro de 10 o 15 años -desde 2007-". Según aseguró durante la conferencia en la que hizo su predicción afirmó, no obstante, que una nueva tecnología vendrá a suplir a la actual.

La consecuencia directa de la Ley de Moore es que los precios bajan al mismo tiempo que las prestaciones suben: la computadora que hoy vale 3000 dólares costará la mitad al año siguiente y estará obsoleta en dos años. En 26 años el número de transistores en un chip se ha incrementado 3200 veces.

Actualmente se aplica a ordenadores personales. Sin embargo, cuando se formuló no existían los procesadores, inventados en 1971, ni los ordenadores personales, popularizados en los años 1980.

En el momento de escribir el artículo que originó su ley, Moore era Director de los laboratorios de Fairchild Semiconductor. Más tarde, en el verano de 1968, creó Intel junto con Robert Noyce, uno de sus compañeros en ambas empresas.