Muchos de nosotros estamos familiarizados con las computadoras . Es probable que esté usando uno ahora para leer esta publicación de blog, ya que dispositivos como computadoras portátiles, teléfonos inteligentes y tabletas son esencialmente la misma tecnología informática subyacente. Las supercomputadoras, por otro lado, son algo esotéricas, ya que a menudo se las considera máquinas enormes, costosas y que absorben energía, desarrolladas, en general, para instituciones gubernamentales, centros de investigación y grandes empresas.
Tomemos, por ejemplo, el Sunway TaihuLight de China, actualmente la supercomputadora más rápida del mundo, según la clasificación de supercomputadoras Top500. Está compuesto por 41,000 chips (los procesadores solo pesan más de 150 toneladas), cuesta alrededor de $ 270 millones y tiene una potencia nominal de 15,371 kW. Sin embargo, en el lado positivo, es capaz de realizar billones de cálculos por segundo y puede almacenar hasta 100 millones de libros. Y al igual que otras supercomputadoras, se utilizará para abordar algunas de las tareas más complejas en los campos de la ciencia, como la previsión meteorológica y la investigación de fármacos.
Cuando se inventaron las supercomputadoras
La noción de una supercomputadora surgió por primera vez en la década de 1960 cuando un ingeniero eléctrico llamado Seymour Cray se embarcó en la creación de la computadora más rápida del mundo. Cray, considerado el "padre de la supercomputación", había dejado su puesto en el gigante de la informática empresarial Sperry-Rand para unirse a la recién formada Control Data Corporation para poder concentrarse en el desarrollo de computadoras científicas. El título de computadora más rápida del mundo lo ostentaba el IBM 7030 "Stretch", uno de los primeros en utilizar transistores en lugar de tubos de vacío.
En 1964, Cray introdujo el CDC 6600, que presentaba innovaciones como cambiar los transistores de germanio a favor del silicio y un sistema de enfriamiento basado en freón. Más importante aún, corría a una velocidad de 40 MHz, ejecutando aproximadamente tres millones de operaciones de punto flotante por segundo, lo que la convirtió en la computadora más rápida del mundo. A menudo considerada como la primera supercomputadora del mundo, la CDC 6600 era 10 veces más rápida que la mayoría de las computadoras y tres veces más rápida que la IBM 7030 Stretch. El título finalmente fue cedido en 1969 a su sucesor, el CDC 7600.
Seymour Cray va solo
En 1972, Cray dejó Control Data Corporation para formar su propia empresa, Cray Research. Después de un tiempo recaudando capital inicial y financiamiento de los inversores, Cray debutó con el Cray 1, que nuevamente elevó el listón del rendimiento de la computadora por un amplio margen. El nuevo sistema funcionó a una velocidad de reloj de 80 MHz y realizó 136 millones de operaciones de punto flotante por segundo (136 megaflops). Otras características únicas incluyen un tipo más nuevo de procesador (procesamiento vectorial) y un diseño en forma de herradura con velocidad optimizada que minimiza la longitud de los circuitos. El Cray 1 se instaló en el Laboratorio Nacional de Los Alamos en 1976.
En la década de 1980, Cray se había establecido como el nombre preeminente en supercomputación y se esperaba que cualquier nuevo lanzamiento derribara sus esfuerzos anteriores. Entonces, mientras Cray estaba ocupado trabajando en un sucesor del Cray 1, un equipo separado de la empresa lanzó el Cray X-MP, un modelo que se anunció como una versión más "limpia" del Cray 1. Compartía lo mismo diseño en forma de herradura, pero contaba con múltiples procesadores, memoria compartida y, a veces, se describe como dos Cray 1 unidos como uno. El Cray X-MP (800 megaflops) fue uno de los primeros diseños de “multiprocesador” y ayudó a abrir la puerta al procesamiento en paralelo, en el que las tareas informáticas se dividen en partes y se ejecutan simultáneamente por diferentes procesadores .
El Cray X-MP, que se actualizaba continuamente, sirvió como el abanderado hasta el lanzamiento tan esperado del Cray 2 en 1985. Al igual que sus predecesores, el último y más grande de Cray adoptó el mismo diseño en forma de herradura y diseño básico con circuitos apilados juntos en placas lógicas. Esta vez, sin embargo, los componentes estaban tan apretados que la computadora tuvo que sumergirse en un sistema de refrigeración líquida para disipar el calor. El Cray 2 venía equipado con ocho procesadores, con un "procesador de primer plano" a cargo de manejar el almacenamiento, la memoria y dar instrucciones a los "procesadores de segundo plano", a quienes se les asignó la tarea del cálculo real. En total, tenía una velocidad de procesamiento de 1.900 millones de operaciones de punto flotante por segundo (1.9 Gigaflops), dos veces más rápido que el Cray X-MP.
Surgen más diseñadores informáticos
No hace falta decir que Cray y sus diseños dominaron la era temprana de la supercomputadora. Pero no fue el único que avanzó en el campo. Los primeros años de la década de los 80 también vieron el surgimiento de computadoras masivamente paralelas, impulsadas por miles de procesadores, todos trabajando en conjunto para romper las barreras de rendimiento. Algunos de los primeros sistemas multiprocesador fueron creados por W. Daniel Hillis, a quien se le ocurrió la idea como estudiante de posgrado en el Instituto de Tecnología de Massachusetts. El objetivo en ese momento era superar las limitaciones de velocidad de tener una CPU de cómputos directos entre los otros procesadores mediante el desarrollo de una red descentralizada de procesadores que funcionaran de manera similar a la red neuronal del cerebro. Su solución implementada, presentada en 1985 como Connection Machine o CM-1, incluía 65.536 procesadores de un solo bit interconectados.
Los primeros años de la década de los noventa marcaron el comienzo del fin del dominio absoluto de Cray sobre la supercomputación. Para entonces, el pionero de la supercomputación se había separado de Cray Research para formar Cray Computer Corporation. Las cosas empezaron a ir mal para la empresa cuando el proyecto Cray 3, el sucesor previsto del Cray 2, se topó con una gran cantidad de problemas. Uno de los principales errores de Cray fue optar por semiconductores de arseniuro de galio, una tecnología más nueva, como una forma de lograr su objetivo declarado de una mejora de doce veces en la velocidad de procesamiento. En última instancia, la dificultad para producirlos, junto con otras complicaciones técnicas, terminó retrasando el proyecto durante años y provocó que muchos de los clientes potenciales de la empresa finalmente perdieran interés. En poco tiempo, la empresa se quedó sin dinero y se declaró en quiebra en 1995.
Las luchas de Cray darían paso a un cambio de guardia, ya que los sistemas informáticos japoneses competidores llegarían a dominar el campo durante gran parte de la década. NEC Corporation, con sede en Tokio, entró en escena por primera vez en 1989 con el SX-3 y un año más tarde presentó una versión de cuatro procesadores que se convirtió en la computadora más rápida del mundo, solo para ser eclipsada en 1993. Ese año, el túnel de viento numérico de Fujitsu , con la fuerza bruta de 166 procesadores vectoriales se convirtió en la primera supercomputadora en superar los 100 gigaflops (Nota al margen: para darle una idea de la rapidez con la que avanza la tecnología, los procesadores de consumo más rápidos en 2016 pueden fácilmente hacer más de 100 gigaflops, pero en el tiempo, fue particularmente impresionante). En 1996, el Hitachi SR2201 subió la apuesta con 2048 procesadores para alcanzar un rendimiento máximo de 600 gigaflops.
Intel se une a la carrera
Ahora, donde estaba Intel? La compañía que se había establecido como el fabricante de chips líder en el mercado de consumo no causó sensación en el ámbito de la supercomputación hasta finales de siglo. Esto se debía a que las tecnologías eran animales completamente diferentes. Las supercomputadoras, por ejemplo, fueron diseñadas para atascar tanta potencia de procesamiento como fuera posible, mientras que las computadoras personales buscaban exprimir la eficiencia de las capacidades de enfriamiento mínimas y el suministro de energía limitado. Entonces, en 1993, los ingenieros de Intel finalmente dieron el paso al adoptar el enfoque audaz de ir masivamente en paralelo con el procesador Intel XP / S 140 Paragon de 3.680, que en junio de 1994 había subido a la cima de las clasificaciones de supercomputadoras. Fue la primera supercomputadora de procesador masivamente paralelo en ser indiscutiblemente el sistema más rápido del mundo.
Hasta este punto, la supercomputación ha sido principalmente el dominio de aquellos con el tipo de bolsillos profundos para financiar proyectos tan ambiciosos. Todo eso cambió en 1994 cuando los contratistas del Goddard Space Flight Center de la NASA, que no tenían ese tipo de lujo, idearon una forma inteligente de aprovechar el poder de la computación paralela mediante la vinculación y configuración de una serie de computadoras personales usando una red Ethernet. . El sistema de “clúster Beowulf” que desarrollaron estaba compuesto por 16 procesadores 486DX, capaces de operar en el rango de gigaflops y su construcción costaba menos de 50.000 dólares. También tenía la distinción de ejecutar Linux en lugar de Unix antes de que Linux se convirtiera en el sistema operativo elegido por las supercomputadoras. Muy pronto, a los aficionados al bricolaje en todas partes se les siguieron planos similares para establecer sus propios clústeres de Beowulf.
Después de ceder el título en 1996 al Hitachi SR2201, Intel regresó ese año con un diseño basado en el Paragon llamado ASCI Red, que estaba compuesto por más de 6.000 procesadores Pentium Pro de 200MHz . A pesar de alejarse de los procesadores vectoriales en favor de los componentes estándar, ASCI Red ganó la distinción de ser la primera computadora en romper la barrera del billón de flops (1 teraflops). Para 1999, las actualizaciones le permitieron superar los tres billones de fracasos (3 teraflops). El ASCI Red se instaló en Sandia National Laboratories y se utilizó principalmente para simular explosiones nucleares y ayudar en el mantenimiento del arsenal nuclear del país .
Después de que Japón retomó el liderazgo de la supercomputación durante un período con el simulador de tierra NEC de 35,9 teraflops, IBM llevó la supercomputación a niveles sin precedentes a partir de 2004 con el Blue Gene / L. Ese año, IBM presentó un prototipo que apenas superaba al Earth Simulator (36 teraflops). Y para 2007, los ingenieros aumentarían el hardware para llevar su capacidad de procesamiento a un pico de casi 600 teraflops. Curiosamente, el equipo pudo alcanzar tales velocidades al optar por el enfoque de usar más chips que tenían una potencia relativamente baja, pero más eficientes energéticamente. En 2008, IBM abrió nuevos caminos cuando encendió el Roadrunner, la primera supercomputadora que superó un cuatrillón de operaciones de punto flotante por segundo (1 petaflops).