Tecnología
El desarrollo de procesadores informáticos está a punto de alcanzar las limitaciones físicas de la actual tecnología basada en los semiconductores de silicio
En 1965 el cofundador de la compañía Intel, Gordon Earl Moore, estableció un paradigma en el desarrollo y evolución de los equipos informáticos. Según la conocida como «Ley de Moore», la potencia de los microprocesadores se duplicaría cada año, frecuencia que después amplió a dos años. Durante décadas esta previsión se ha cumplido, hasta llegar al límite físico de la actual tecnología del silicio.
El microprocesador es el componente más esencial de un sistema informático, encargado de interpretar las instrucciones de los programas, realizar los cálculos matemáticos y controlar los accesos a memoria. Es en definitiva el cerebro de una computadora y, aunque no exclusivamente, establece la potencia y capacidades de esta. Las primeras Unidades Centrales de Procesamiento, conocidas por sus siglas en inglés como CPU, estaban compuestas por tubos de vacío y relés eléctricos, unos aparatosos e inestables mecanismos capaces de realizar unos cuantos cálculos.
A partir de la segunda mitad del siglo XX se introdujo en su fabricación un componente revolucionario, el transistor, integrado en un circuito impreso. Lo que conocemos como «chip» o «microchip» permitió crear CPU mucho más potentes y fiables, reduciendo enormemente su consumo eléctrico. Aunque a día de hoy los pocos hercios de frecuencia de reloj que lograban alcanzar estas unidades centrales de procesamiento nos puedan parecer apenas anecdóticas, no olvidemos que fueron capaces de llevar al hombre a la Luna.
Fue en el año 1971 cuando la compañía Intel consiguió fabricar por primera vez un procesador integrado en un único chip, el Intel 4004, dando lugar al primer microprocesador de la Historia (en el sentido actual del término). Se trataba de una CPU que operaba a 4 bits y que integraba en su circuito 2300 transistores, con una velocidad máxima de reloj de 740 kilohercios. Este invento que iba a revolucionar el mundo tiene un nombre propio, Federico Faggin. Este italiano nacionalizado estadounidense inventó y dirigió el desarrollo de la tecnología MOS con puerta de silicio, una tecnología que a día de hoy sigue estando presente en más del 90% de todos los circuitos integrados que se fabrican en el mundo.
El desarrollo de microprocesadores basados en la tecnología del silicio ha evolucionado desde entonces de forma imparable, logrando microchips cada vez más rápidos y con mayor número de transistores. El 19 de abril de 1965, años antes del lanzamiento del primer microprocesador, el estadounidense Gordon Moore publicó en la revista Electronics un artículo en el que vaticinaba esta evolución. El co-fundador de la compañía Intel lanzaba una predicción que ha pasado a conocerse como la «Ley de Moore»:
La complejidad de los componentes se ha multiplicado aproximadamente por 2 cada año. A corto plazo, se puede esperar que esta tasa se mantenga o incluso que aumente. A largo plazo, la tasa de crecimiento es menos predecible, aunque no hay razón para creer que no permanecerá constante por lo menos durante otros 10 años. Es decir, en 1975 el número de componentes en cada circuito integrado de bajo coste será de 65.000. Creo que un circuito tan grande puede construirse en una única oblea de silicio.
Diez años después Moore reajustó su predicción adaptándola al ritmo de evolución que mostraba la industria. Así, en 1975 predijo cada dos años saldría al mercado una nueva generación de microprocesadores que duplicarían el número de transistores gracias a una tecnología de integración que iría dejando obsoleta a la anterior. Esa predicción se ha ido cumpliendo casi al pie de la letra: nuestras flamantes CPU pasan a estar «anticuadas» en apenas un par de años, cada vez que sale al mercado un microprocesador más rápido y potente.
Los procesadores Intel basados en tecnología Haswell de 4ª generación, como en el caso del i7-4790 (lanzado al mercado en la segunda mitad de 2014), contienen 1400 millones de transistores, alcanzando un tamaño de semiconductores de 22 nanómetros. En la segunda mitad del año 2015 han visto la luz los i7 de 5ª generación basados en tecnología Broadwell, los primeros equipos destinados al mercado de escritorio (socket LGA-1150) que alcanzan un tamaño de semiconductores de 14 nanómetros. Esto les ha permitido conseguir un proceso de gráficos mucho más potente (gracias a la incorporación de 128 MB de memoria integrada y una GPU con más unidades de ejecución) con un coste energético sustancialmente menor (65 W frente a 84 W). Aunque lo cierto es que presenta una velocidad de proceso menor (3,3 GHz frente a 3,6 GHz) y las distintas comparativas lo sitúan por debajo de su predecesor (i7-4790K Vs i7-5775C).
¿Qué hay más allá del silicio?
El silicio presenta unos límites físicos que impiden que continúe el desarrollo de transistores cada vez más pequeños. Un límite que a nivel de consumo, se suponía, estaba en los 22 nanómetros (sin disparar los costes de producción). Como hemos visto los nuevos procesadores Intel de 5ª generación superan ampliamente este límite, por lo que habrá que revisar a la baja dicho tope. Pero lo cierto es que la industria lleva ya años preparándose para esta circunstancia. El ITRS (International Technology Roadmap for Semiconductors) estima que el aumento de la escala de integración de transistores se produce desde el 2010 cada 3 años, y es un hecho que los últimos procesadores han podido seguir doblando su potencia gracias especialmente a la integración de cada vez más núcleos (cores).
La propia Intel ya anunció en el año 2012 que la cadencia en el desarrollo de transistores cada vez más pequeños se había reducido a partir de los 22 nanómetros: «Nuestra cadencia a día de hoy está más cercana a los dos años y medio que a los dos, declaraba el CEO de la compañía Brian Krzanich. A este ritmo los procesadores de bajo coste de 10 nanómetros se podrían alcanzar aproximadamente a finales de 2017, lo que supone el desarrollo de materiales semiconductores hasta 10.000 más finos que un cabello humano. Hay que tener en cuenta que la industria establece un límite de 7 nanómetros para que el desarrollo de microprocesadores les resulte rentable: «La cuestión no es si introduciremos la tecnología de 7 nanómetros en la fabricación de chips, sino cómo, cuándo y a qué costo lo haremos», afirmaba John Kelly, vicepresidente de IBM Research. Estamos por tanto ante un escenario en el que la tecnología basada en el silicio alcanzará su límite en un plazo de pocos años. Un plazo que puede variar, pero es algo seguro que acabará llegando.
El gigante tecnológico IBM ha destinado la ingente cifra de 3000 millones de dólares para financiar la investigación y desarrollo de nuevas tecnologías durante los próximos 5 años. Como podemos ver, la industria se toma muy en serio este escenario "post-silicio". Entre los distintos candidatos para sustituir a este elemento destaca otro también perteneciente al Grupo 14 de la tabla periódica, el Carbono: Los nanotubos de Carbono presentan un increíble potencial para constituirse como base de nuevas tecnologías fiables y que resulten económicamente rentables. Además no debemos olvidar el que ha sido llamado como «el material del futuro», el Grafeno. Es posible que en el desarrollo de microprocesadores dicha previsión se cumpla en un plazo de años. Otra vía de investigación que debe ser tenida en cuenta es el desarrollo de procesadores basados en carburo de silicio, capaces de mejorar la conductividad del silicio puro, incrementando así las frecuencias a las que pueden funcionar los procesadores.
Pero el nuevo escenario de microprocesadores que nos espera no sólo cambiará los materiales de fabricación y es posible que el silicio aún no haya dicho su última palabra. La conocida como fotónica del silicio se basa en sustituir el actual sistema basado en el cómputo y transmisión de electrones por fotones, algo que podría multiplicar la potencia y velocidad de los procesadores actuales. Una tecnología que ya se utiliza a día de hoy en la fibra óptica, aunque con el consabido «cuello de botella» que se produce al llegar dicha información a nuestros routers y equipos informáticos. Con el desarrollo de microchips fotónicos esta limitación quedaría superada, manteniéndose el flujo de datos en forma de luz. Esto haría que la velocidad de computación de nuestros equipos fuese incluso millones de veces más rápida.
Aunque es posible que en cuestión de décadas la computación sufra un cambio mucho más profundo, que afectará a su propia esencia, superando el sistema binario actual basado en ceros y unos vigente desde el primer «Modelo K» de 1937 hasta nuestros días. Entramos ahí en el ámbito de la computación cuántica o la neurosináptica. Un escenario que, aunque restringido al ámbito de la investigación, ya ha dejado de ser materia de la ciencia ficción para convertirse en algo muy real.