Cuando hablamos hoy en día de un centro de datos como el Alcalá Data Center de Telefónica (que asegura una disponibilidad del 99.995% del tiempo), lo primero que nos viene a la cabeza es la imagen de grandes salas en las que hay pasillos de armarios con servidores y en donde suele hacer bastante frío. Evidentemente, esta descripción es bastante ligera y un centro de datos es mucho más que una sucesión de pasillos formados por racks con servidores; es un punto neurálgico para el negocio de muchas empresas, tanto las que prestan sus servicios a través de Internet como las que confían en la nube para sustentar sus aplicaciones corporativas.
El centro de datos de Telefónica en Alcalá de Henares (Madrid) tiene una superficie total equivalente a 8 campos de fútbol, cuenta con 23 salas y tiene una capacidad de proceso equivalente a 35 millones de ordenadores como los que utilizamos a diario; unos números de vértigo que vale la pena mirar con cierta perspectiva histórica para darnos cuenta el importante salto que hemos dado en capacidad de procesamiento de la información y, evidentemente, en el volumen de información que podemos llegar a generar.
Una sala, un computador
Computadoras como la ENIAC, la Harvard Mark I o la Manchester Small-Scale Experimental Machine (también conocida como Manchester Baby) ocupan un lugar de gran importancia en la historia de la computación y su nombre está vinculado a estos primeros (y apasionantes) años en los que se comenzaron a desarrollar los primeros computadores.
Desde estos primeros años, la gestión de las salas técnicas en las que se construían, operaban y se programaban estos primeros computadores supuso también un gran reto tecnológico para estos ingenieros que comenzaban a enfrentarse a problemas operacionales debidos al calor disipado por estos computadores y la necesidad de garantizar el suministro eléctrico para hacerlos funcionar (retos a los que hoy en día nos seguimos enfrentando). Evidentemente el factor de escala no era el mismo y, durante casi cuatro décadas, una computadora o un mainframe era sinónimo de un «gigante de hierro» que era capaz de ocupar una gran habitación.
Para que nos hagamos una idea de cómo eran estos centros de datos de los años 40 y 50, la computadora Manchester Small-Scale Experimental Machine (1948) medía 5,16 metros de largo y 2,33 metros de alto, pesaba alrededor de una tonelada y consumía 3.500 vatios. El ENIAC (1946), que se concibió para realizar cálculos de tiro, ocupaba una superficie de 167 metros cuadrados, pesaba alrededor de 27 toneladas, consumía 160 kilovatios y era capaz de elevar la temperatura de la sala en la que se encontraba hasta alcanzar unos insoportables 50 grados.
La Harvard Mark I (1944), una de las primeras computadoras que aún se conservan, era un «mastodonte de hierro» que realizaba entre 3 y 5 cálculos por segundo y requería un espacio de 15,5 metros de largo, 2,40 metros de alto y 60 centímetros de anchura. Esta computadora, construida por IBM y un equipo de investigadores de la Universidad de Harvard, pesaba 5 toneladas y encerraba en su chasis 800 kilómetros de cable, 3 millones de conexiones, 760.000 ruedas y relés y alrededor de 1.400 interruptores rotatorios de diez posiciones que servían para visualizar los valores numéricos de los cálculos.
Dicho de otra forma, en los primeros años de la computación los centros de datos estaban formados, prácticamente, por una sola gran computadora; una imagen que seguramente nos resulte familiar y hayamos visto en documentos históricos, fotografías de los años 50 o 60 y, seguramente, en alguna que otra película de la época.
De hecho, los primeros computadores comerciales también ocupaban un espacio similar y sistemas como el IBM 701, el IBM 650 (el primer computador fabricado en serie por IBM en el año 1953) o el IBM 7090 (1958), que fueron algunos de los computadores comerciales que entraron en el mundo de las empresas en los años 50, ocupaban prácticamente una habitación completa entre el computador principal, la consola de operación o los distintos periféricos que complementaban el sistema.
Por ejemplo, la unidad principal del IBM 650 pesaba alrededor de 900 kilos y su unidad de alimentación pesaba 1,35 toneladas, requiriendo un espacio de 1,5 metros de largo, 0,9 metros de ancho y 1,8 metros de altura.
Algunos datos curiosos
Si los datos que hemos visto de estos primeros centros de datos nos hacen una idea de cómo eran estas primera computadoras y cómo, a lo largo del tiempo, ha evolucionado la tecnología tanto en capacidad de proceso como en consolidación de las infraestructuras, estos primeros años aún nos dejan algunos datos y anécdotas curiosas que vale la pena conocer para ver con perspectiva el gran salto cuantitativo que hemos dado hasta llegar al cloud computing y la flexibilidad de los centros de datos actuales.
El pico de consumo eléctrico de la ENIAC, con sus 160 kilovatios, era enorme para el suministro de la época y, a veces, la computadora en funcionamiento era capaz de provocar cortes de suministro en la ciudad de Filadelfia.
Siguiendo con este computador, su tamaño era tan grande y el sistema era tan complejo que cuando el Ejército de Estados Unidos decidió llevarse el sistema al campo de pruebas de artillería de Aberdeen, se necesitaron alrededor de 9 meses para realizar el traslado y su posterior puesta en servicio (un dato especialmente curioso si lo comparamos con la flexibilidad con la que podemos realizar un traslado de centro de datos sin apenas pérdida de servicio).
El término bug, que hoy en día manejamos cuando encontramos un fallo en un software, tiene su origen en esta primera generación de computadoras. Concretamente fue un término que acuñó el equipo de la RCA Mark II Electronic Music Synthesizer el el 9 de septiembre de 1947 cuando se encontraron que el sistema no funcionaba y al revisarlo se encontraron con una mariposa que se había colado dentro del chasis y era la que había provocado los errores.
En estos últimos 60 años tanto computadores como centros de datos han avanzado mucho y nada tienen que ver con estas computadoras históricas y estos primeros años de gestión de infraestructuras TIC; sin embargo, vale pena conocer esta historia para mirar al data center con una perspectiva distinta.