Suelen llamarse mainframes a aquellos computadores de gran tamaño que se emplean primordialmente para procesar enormes volúmenes de datos. Son equipos dotados de componentes de la mejor calidad ya que usualmente se destinan a tareas extremas, como sistemas bancarios, financieros, de tráfico aéreo, censos y estadísticas entre otros. Para conocer en profundidad a los Mainframe te invitamos a continuar leyendo este artículo.

Mainframe

¿Qué es un Mainframe?

Tras haber tenido que aprender cierta terminología informática como hardware y software, resulta menos complicado comprender otros términos menos frecuentes como mainframe. Con ese nombre usualmente se denominan a aquellos computadores con gran poder de proceso que son primordialmente empleados por entidades de cierta envergadura para tareas críticas y procesamiento masivo de datos, planeación de recursos empresariales y transacciones voluminosas.

Esencialmente un mainframe es un tipo de computador con la capacidad de ejecutar centenares de millones de cálculos muy complejos a una sorprendente rapidez, y suele ser utilizado en los más variados campos como el comercio, la banca, las estadísticas, los servicios de internet y la investigación, entre muchos otros sectores. Para conocer mucho más acerca del funcionamiento de un mainframe, sus características, su evolución y sus capacidades te invitamos a adentrarte en el resto de esta historia.

Los Mainframe en Informática

La mayor parte de nosotros solemos pensar que un mainframe es un computador voluminoso, muy costoso y de enorme complejidad operativa, y con seguridad todo ello es cierto. En tal sentido, el tamaño y costo de un mainframe obedece a su gran poder de proceso y almacenamiento, lo cual se requiere para cumplir con las necesidades de las grandes empresas y organismos públicos para el análisis y evaluación de sus datos de forma flexible y confiable.

Los mainframes surgieron al iniciarse la década de 1940, exactamente en el año 1944, cuando la empresa IBM desarrolló, en unión con la Universidad de Harvard, el equipo ASCC, “Automatic Sequence Controlled Calculator”, el que también se conoció como “The Harvard Mark I”, proyecto que ya registraba avances desde el año 1939. Con el tiempo, a IBM se agregaron otros fabricantes como Telefunken, Burroughs, Control Data, Siemens, General Electric, Honeywell, NCR, Olivetti, RCA, UNIVAC, etc., que también crearon sus propios prototipos de mainframes.

A causa de la miniaturización de los componentes electrónicos y al surgimiento de los computadores personales, mucho más económicos y con mayores ventajas particularmente para empresas con menos recursos, el interés por estos enormes equipos descendió a su nivel más bajo. No obstante, hoy en día, los mainframe continúan ocupando un lugar privilegiado en el entorno de las tecnologías de Business Intelligence y en la gestión de colosales volúmenes de datos para las más grandes corporaciones privadas y públicas a nivel mundial.

Mainframe

En tal sentido, la mayor parte de las compañías de más éxito siguen optando por las soluciones que brindan los mainframes, debido básicamente a determinadas características que éstos poseen y que no pueden ofrecer los computadores de escritorio. Algunas de ellas son la disponibilidad y la seguridad, a la que se añaden los costos, que al inicio son elevados, pero dadas las posibilidades que ofrecen estas plataformas se logran amortizar en tiempo y forma.

Se debe destacar que el término mainframe, que suele traducirse como Unidad Central, hacía referencia en sus inicios a los gabinetes de enormes dimensiones en los que se colocaban los distintos dispositivos que venían a conformar a estos inmensos computadores, como lo era la unidad central de procesamiento y la memoria principal. No fue sino hasta más adelante que este término fue utilizado para diferenciar los computadores comerciales de gran poder de las máquinas menos poderosas.

¿Para qué sirve un Mainframe?

El mainframe brinda multiplicidad de ventajas y cualidades a las compañías y entidades públicas que las utilizan. Aunque los computadores personales vendrían a ser una solución perfecta por muchos factores, siendo uno de los primordiales el costo, no pueden equipararse jamás con la velocidad de proceso, la conectividad multiusuario y la confianza que los mainframes brindan. Estas características son más que indispensables para que corporaciones de talla mundial como Google, Microsoft o Ford, puedan funcionar sin problemas y ser competitivas en el entorno actual de negocios.

Pese a que la tecnología alrededor de estos equipos no se encuentra a la vista de cualquier usuario, lo cierto es que utilizamos dichas plataformas a diario a través de una multiplicidad de aplicaciones a las que solemos conectarnos por Internet. El caso más típico es cuando nos conectamos a la página web de un banco desde casa, en la que otros centenares de miles de solicitudes son procesadas por un mainframe en paralelo y a una velocidad impresionante, tanto de parte de clientes como del personal del mismo banco.

Otro entorno que se sirve de mainframes es el infinito entramado de Internet. Con el paso del tiempo hemos pasado de navegar Internet mediante el computador de casa, a hacerlo por medio de dispositivos móviles desde cualquier sitio del planeta en que nos localicemos. Si adicionalmente le agregamos las nuevas tecnologías como la de Internet de las cosas, (IOT), estos servicios podrán disponer de un poder de cómputo que únicamente los mainframes pueden brindar con seguridad y eficacia.

Mainframe

Esta tecnología completamente dependiente de Internet para funcionar, se basa en la utilización de millares de sensores situados en cada rincón de las casas y las ciudades, los sensores de los automóviles y toda la demás tecnología que ha de ser diseñada para poder conectarla con otra. Estos y otros factores hacen del mainframe una herramienta indispensable para empresas y entidades públicas o privadas que necesiten manejar volúmenes considerables de datos en tiempo real.

Características de un Mainframe

Los mainframes son computadores de gran tamaño que solo utilizan las grandes empresas para procesar datos críticos como por ejemplo los el procesamiento de grandes volúmenes datos para censos y con fines estadísticos; en la industria, con el objetivo de servir de ayuda a ingenieros en operaciones de cálculo que de otro forma tomarían mucho tiempo y personal, planeación de recursos empresariales y proceso de transacciones masivas, entre otras tareas.

Aunque no cuentan con la capacidad de procesamiento de las supercomputadoras, no deja de ser cierto que estas últimas son más empleadas en el campo de la investigación pura, ya que su costo es inasequible, aún para las grandes corporaciones.

Estos equipos aún ocupan un sitial privilegiado en los ámbitos citados arriba debido primordialmente a su confiabilidad y solidez. Es por ello que una de las interrogantes que usualmente se plantean tanto usuarios como  apasionados de la informática es por qué razón su tecnología, que se remonta a los años 1950, aún se considera como la plataforma de más confianza dentro del mundo de los negocios.

Ello se debe a que, aunque la tecnología de las PC ha evolucionado bastante en lo referente a seguridad, desempeño y solidez, aún se hayan lejos del rendimiento y confiabilidad que suelen brindar una mainframe. Para cuantiosos expertos en informática, estos son los equipos de procesamiento de información más estables, capaces y seguros que han existido para ejecutar tareas que implican procesar millones de pedidos en tiempo real.

Mainframe

Otro aspecto en el cual los mainframes destacan es en lo referente a la seguridad. Someter a ataque de virus a estos colosos es casi imposible, a causa de las múltiples medidas de seguridad que brinda su sistema de permisos. Aunque no se pueda asegurar que no haya virus que ataquen mainframe, no deja de ser cierto que la seguridad ante intrusiones que protege a los mainframes suele ser de carácter extrema. Esto obedece al diseño de su arquitectura interna, la cual imposibilita que algún atacante pueda aprovecharse de alguna vulnerabilidad.

Además programar el código de dichos virus es una labor sumamente compleja, puesto que, por ejemplo, en el caso de IBM, las pocas oportunidades que existen para conocer acerca de su lenguaje ensamblador y del diseño interno de sus sistemas operativos, las ofrece la misma empresa y son bastante onerosas. Esto quiere decir que quien pretenda atacar un mainframe utilizando un virus tendrá que forzosamente haber acudido a las aulas de IBM, y dada la inversión en tiempo y dinero lo más factible es que se dedique a asuntos más rentables y seguros.

No obstante, no únicamente la solidez, la seguridad y la confiabilidad o el poder de procesamiento hacen de estos equipos la herramienta favorita de las grandes corporaciones a la hora de analizar y procesar su información. Igualmente brindan algunas otras ventajas como, por ejemplo, poder ejecutar u alojar varios sistemas operativos, esto es que pueden albergar en su interior varias máquinas virtuales con las que pueden ocuparse de diferentes solicitudes con la mejor compatibilidad.

En tal sentido, la totalidad de los equipos actuales pueden levantar diversas instancias de ejecución de sistemas operativos de modo paralelo. Ello posibilita tener disponibles a un mismo tiempo centenares de equipos virtuales, realizando, cada uno de ellos, tareas diferentes como si se encontrasen en un equipo completamente independiente.

De esta forma, un único mainframe cuenta con la misma capacidad que decenas de computadores convencionales, con el consecuente ahorro en tiempo y dinero. Hoy en día, la mayor parte de los equipos de cierta envergadura pueden levantar varias instancias de sistemas operativos, no obstante, no pueden realizar dicha tarea con la eficacia y capacidad con que las hace un mainframe.

Mainframe

Otro punto que favorece a estos sistemas es que brindan la opción de agregar espacio para almacenar u otros dispositivos en la modalidad HotSwap, esto es sin requerir que el equipo sea apagado, ya que en el tiempo que toma para reiniciarse serían millones las transacciones perdidas, y por ende, asimismo muchísimo dinero.

Otra razón, tal vez uno de las de mayor importancia, es el costo, ya que en el largo plazo es más económico hacer funcionar un mainframe que decenas o hasta centenares de servidores de inferior capacidad para ejecutar el mismo trabajo. Esto igualmente brinda ventajas asociadas, como por ejemplo, que un programa desarrollado desde hace cierto tiempo, inclusive como parte de tecnologías más viejas, pueden ser ejecutados sin necesidad de ser recompilado. Esto es muy frecuente en los sistemas operativos de equipos mainframes z/10 de IBM.

Su elevada solidez, compatibilidad y confiabilidad posibilitan que los mainframes trabajen de forma ininterrumpida por prolongados lapsos de tiempo, con un tiempo promedio entre fallas (MTBF) o “Mean Time Between Failures” que se puede calcular hasta en décadas. Tal es el nivel de fiabilidad de estos equipos que el personal de informática de las empresas usualmente efectúa un arranque en frío del equipo con periodicidad anual, casi por el requerimiento psicológico de hacerlo.

Ejemplos de Mainframe

Como lo ha hecho por décadas, IBM es el más importante constructor de mainframes a nivel global. No obstante, otras empresas igualmente rivalizan con ella como ejemplo Unisys, la cual diseña y elabora sus afamados equipos ClearPath Libra y Dorado, los que se basan en tecnologías MCP de Burroughs y Sperry Univac OS 1100.

Otro fabricante de gran relevancia en el sector de mainframes es Hitachi, cuyos ingenieros diseñaron junto a IBM el mainframe zSeries z900 y otros diseños de propia creación como AP10000-VOS3. Asimismo se puede agregar a la lista Hewlett-Packard, quienes han lanzado al mercado los sistemas de mainframes denominados NonStop. Igualmente se hayan disponibles los mainframes Fujitsu BS2000 y GS21 y los mainframe de las empresas NEC con ACOS.

Mainframe

En referencia a las clases de estos equipos que se pueden adquirir en el mercado, suelen variar según lo exitoso del plan económico del país en el que se ubica la institución que desea contar con dichos sistemas. Es por tal motivo que se pueden conseguir equipos que se basan en procesadores de uso comercial como puede ser el Intel Xeon, esto es, que están a la venta en las tiendas especializadas en informática, y por ende más económicos, hasta otros desarrollados y fabricados a la medida, como los de alta gama de NEC o IBM.

Principales Sistemas Operativos de Mainframes

Aunque la competencia por mucho tiempo por controlar el sector de estos equipos ha sido ardua y aún tal vez no ha finalizado, se distingue un ganador claro, IBM. Siendo los mismos creadores del concepto de estos sistemas, ya tienen bastantes años de vanguardia en el desarrollo y comercialización de ellos.

Adicional al hardware, un mainframe requiere de un sistema operativo que tenga la capacidad de poder manejar todo los datos que se le incorporen, sin posibilidad de fallos y con la mayor solidez posible. En tal sentido, se ha de resaltar que cada constructor suple a sus equipos de un sistema operativo propietario.

En la actualidad, al ser los de mayor uso los de IBM, el sistema operativo para estos equipos igualmente más empleado es el denominado System Z. No obstante, hay otros equipos y sistemas operativos para mainframes disponibles, donde los más importantes son lo que se refieren en la lista que se expone a continuación.

  • IBM i: Esta solución es un sistema operativo que se basa en EBCDIC usado en equipos IBM Systems Power y en IBM PureSystems. Esencialmente es una versión actualizada del sistema operativo previamente llamado i5/OS, el cual inicialmente se denominaba OS/400 cuando fue parte de los computadores AS/400 en el año 1988.
  • Linux para System z: Con este nombre se conoce al sistema operativo Linux compilado para que pueda ser ejecutado en mainframes de IBM, sobre todo en los equipos de la serie de System z. Se debe resaltar que asimismo es llamado como “Linux en zEntreprise 196”, “Linux en System z9”, “Linux en System z10” y otros nombres.
  • UNIX®: Unix es un sistema operativo que brinda una multitud de ventajas en los equipos en los que es utilizado, ya que es un sistema operativo portable, que permite múltiples tareas y múltiples usuarios. Unix inició su desarrolló en 1969 con la finalidad de ejecutarse en un equipo General Electric GE-645.
  • z/OS: Éste es regularmente el sistema operativo que viene instalado en todos las mainframes de IBM actuales. Sus orígenes datan al sistema MVT, creado en 1967, al cual prosiguió MVS en el año 1974. Este último incluía numerosas ventajas con relación a su predecesor. Luego vino el OS/390 en al año 1995 hasta finalmente obtener el nombre z/OS en el año 2000.
  • z/TPF: Éste es un sistema que desarrolló IBM para los equipos de la familia System z9 y zSeries cuya más resaltante característica es que es ejecutado en tiempo real. TPF significa “Transaction Processing Facility”. z/TPF fue diseñado primordialmente para el procesamiento de un elevado volumen de datos y transacciones en un tiempo reducido mediante redes distribuidas. Hemos de destacar que el sistema z/TPF de mayor avance puede lograr velocidades de proceso de hasta 10.000 transacciones por segundo.
  • z/VM: Es un sistema que desarrolló IBM en el año 2000 para equipos virtuales y se basaba en las nociones de los sistemas operativos CP/CMS trabajando en un System/360-67. z/VM es ejecutado actualmente sobre la serie de equipos System z. Se ha de destacar que z/VM puede ser usado para soportar hasta centenares de máquinas virtuales Linux.
  • v/VSE: (Virtual Storage Extended: Esencialmente es un sistema operativo para mainframes IBM, que deriva del DOS/360 diseñado para equipos de inferiores recursos.

Diferencia entre Mainframe y Supercomputadora

Aunque ambas clases de equipos, los mainframe y las supercomputadoras, son grandes y complejas y tienen el poder de efectuar cálculos a una rapidez extraordinaria y a primera vista tiene rasgos similares ya que cuentan con un gran poder de proceso y almacenaje, no deja de ser cierto que hay ciertas diferencias que las hacen peculiarmente eficientes en diferentes tipos de entornos.

Los mainframes son maravillosos en áreas donde suelen procesarse transacciones voluminosas de datos que necesitan operaciones de enteros con gran fiabilidad, como es el caso de las finanzas. Esto se debe a que los mainframes fueron diseñados para brindar elevados niveles de confiabilidad en el procesamiento de datos a alta velocidad. Y aunque tienen que acceder en numerosas ocasiones a bases de datos externas, siempre cuidará que los valores que se manipulan no se vean afectados en ninguna etapa de su proceso.

Por ello la mayor parte de las veces resultan ser equipos esenciales para que el comercio y la banca operen con fluidez. En contraste, las supercomputadoras han sido diseñadas con la finalidad de maximizar la capacidad de efectuar cálculos. Por tal razón las supercomputadoras se destacan en el entorno militar, científico e ingenieril. Para que ello tenga lugar, las supercomputadoras se sirven del concepto de paralelismo masivo al contar con millares de procesadores de elevada capacidad y velocidad.

Pese a dichas diferencias, la separación tecnológica entre estos sistemas y las supercomputadoras es sumamente difícil de distinguir hoy en día. Ello es así en razón de que hasta principios de la década de 1990, la mayor parte de las supercomputadoras se fundamentaban en una arquitectura de mainframe con valores agregados de supercomputación.

En tal sentido, un evidente ejemplo de ello es el supercomputador de vector HITAC S-3800, concebido por el gigante Hitachi, el cual tenía compatibilidad con los mainframes System/370 diseñados por la empresa estadounidense IBM, y que adicionalmente podía soportar el sistema operativo Hitachi VOS3. Este último era ciertamente una copia del sistema operativo IBM MVS, lo que quiere decir que al Hitachi S-3800 se le puede considerar tanto supercomputadora como mainframe.

¿Qué es Consultor de Mainframe?

Esencialmente, un graduado como profesional de consultoría de mainframe suele encargarse de desarrollar, instalar y mantener los sistemas de información de estos sistemas. Como se ha señalado, estos equipos cuentan con gran poder para procesar volúmenes de datos realmente enormes, por lo que su mantenimiento en condiciones operativas no es tarea que cualquier usuario puede asumir.

Para cumplir con tareas de esta envergadura es que existen los consultores de mainframes. Estos asesores informáticos son quienes suelen asegurar que los sistemas de las empresas operen de forma optima, y quienes, a su vez, resuelven cualquier dificultad que puedan experimentar estas poderosas maquinas tanto en horas diurnas como nocturnas.

¿Qué hace un Consultor de Mainframe?

No obstante, los consultores de mainframes no únicamente desempeñan dicha función, sino que igualmente son los responsables de perfilar los requerimientos del cliente, sean grandes corporaciones u organismos públicos, para el desarrollo de un sistema de mainframe adaptado a las necesidades específicas de cada uno de ellos.

Para ello, se deben tener presente muchas variables, como por ejemplo las clases de datos que va a procesar el sistema, que podrían ser desde datos de un censo hasta las transacciones internas de una entidad bancaria, la seguridad que se requiere y todas las otras características que el cliente necesite para poder proporcionar con rapidez y confianza el servicio que ha de brindar a sus propios clientes.

En tal sentido, para cumplir con el trabajo requerido, el consultor de mainframe tiene que aplicar todos sus conocimientos y diseñar un esquema para dar inicio a la implementación que se encomendó. En dicho esquema se debe incluir todo lo que el cliente requiera para poder proporcionar sus servicios de la forma en que lo pidió, como por ejemplo los programas codificados en el lenguaje que sea necesario, y la compra de todos los componentes apropiados para la ejecución del trabajo.

Toda vez que el proyecto ha recibido la aprobación de la empresa contratante, se da inicio al proceso de implementación, esto es, el ensamblado físico de los componentes, la compilación de los distintos módulos que constituyen el sistema y su instalación y puesta en operación.

Como señalamos previamente, un consultor de mainframe, además de responsabilizarse de la implementación de sistemas de esta clase, se encargan de que el equipo cumpla de forma perfecta con su misión, a lo que se agrega la resolución de cualquier dificultad que pueda emerger. Esta labor puede ser sumamente  agobiante, ya que un sistema de esta categoría, que funciona con cuantiosos datos a elevadas velocidades, puede presentar inconvenientes casi a diario.

Por tal razón, los consultores de mainframes realizan inspecciones rutinarias de los equipos que le son asignados, con la finalidad de poder detectar cualquier detalle antes que se torne en un auténtico problema. En tales casos, el propósito más relevante del consultor de mainframe es impedir que el equipo o alguna de sus funciones permanezcan sin servicio por demasiado tiempo. Para lo cual, estos especialistas tienen presente  una multiplicidad de variables, como lo son los informes de fallas de los usuarios del sistema, y los reportes que guardan los mismos equipos.

Historia del Mainframe

Son equipos que utilizamos a diario pero eso es algo que desconocemos a plenitud. Contribuyen al avance de la ciencia y a que novedosas invenciones se hagan posibles. De no existir, la vida que hoy experimentamos resultaría muy distinta. Nos referimos al mainframe, un tipo de computador que mucha gente ignora, pero que son fundamentales en el entorno informático del presente.

A partir de este punto profundizaremos en la historia de estos sistemas que, pese al surgimiento de innovadores dispositivos, han mantenido su sitial privilegiado gracias a sus particulares características. Son equipos que han evolucionado de forma notable, transitando de aquellos añejos tubos de vacío a los modernos transistores, de estar contenidos en gabinetes con consolas de control a poder ser gestionados desde cualquier lugar del planeta.

Remontándonos a la Prehistoria de la Informática

Los computadores de inicios del siglo XX eran simples calculadoras que los científicos de ese tiempo solían emplear para aligerar sus operaciones. Máquinas con una electrónica elemental, muy distante de la que conocemos hoy día, pero que llegaron a operar y fueron de ayuda a las investigaciones de entonces. Se puede señalar que fueron de utilidad para que las cuentas matemáticas se trasladasen del papel al computador, aligerándolas y, en numerosos casos, garantizando los resultados ante probables errores humanos.

Obviamente lo que aspiraban los técnicos de entonces era de un nivel más elevado. Si contamos con un computador con capacidad de realizar 1.000 operaciones por segundo, el próximo paso a lograr es evidente: conseguir uno que supere tal desempeño.

IBM ya elaboraba computadores en los años 1930 cuyos destinatarios eran grandes instituciones, regularmente de los ámbitos gubernamental, militar o universitario, que solían reservar varios espacios de sus instalaciones para estos equipos. El ingreso y extracción de la información se realizaba mediante tarjetas perforadas, muy distantes del teclado, ratón o pantalla de la actualidad. La información se transcribía y se grababa por medio de agujeros físicos en las tarjetas, las que eran detectadas y leídas por los computadores.

Toda vez ejecutadas estas operaciones de entrada de datos, el mismo computador perforaba otra tarjeta en la que presentaba los resultados. Tales equipos eran más o menos pequeños, de apenas unos metros cuadrados de superficie. Uno de ellos, el IBM 801 Bank Proof era un equipo con cuyo diseño IBM procuraba automatizar ciertas tareas vinculadas con la banca: verificar cheques bancarios, confirmarlos y contar con un registro económico del todo ello.

Una interesante máquina que justamente arribó algunos años después de la gran depresión de 1929, específicamente en el año 1934, y que fue uno de los responsables de que IBM tuviese un ritmo de fabricación de 5 a 10 millones de tarjetas perforadas cada día. Pese a ello, se consideraba a este equipo como un simple  juguetito para lo que estaba a punto de llegar.

La primera vez que IBM usó el término mainframe fue en 1944, cuando en conjunto con la reconocida Harvard University crearon el ASCC, Automatic Sequence Controlled Calculator, igualmente llamado The Harvard Mark I, que comenzó a idearse en 1939. Éste era un equipo de grandes dimensiones que llenaba un enorme recinto dentro de Harvard, y que se describió como una gran calculadora síncrona que podía trabajar de forma paralela, usando algoritmos de cálculo que ejecutaban las cuatro operaciones aritméticas elementales.

De acuerdo a IBM, Mark I funcionaba con números de hasta 23 cifras decimales merced al empleo de los 60 registros físicos para variables constantes y 72 contadores de resultados provisionales, que de forma física estaban constituidos por 765.000 componentes y unos 800 kilómetros de cableado. Y claro, obviamente el Mark I tenía como método de ingreso tarjetas perforadas, aunque asimismo se podía agregar información por medio de papel o botones mecánicos.

Por otro lado, la salida se obtenía igualmente en tarjetas perforadas o automatizada, de forma directa a papel, mediante máquinas de escribir mecánicas. El Mark I comenzó a operar el 7 de agosto de 1944, luego de seis meses de ensamblaje en las instalaciones de Harvard y diversos retrasos a causa de la Segunda Guerra Mundial, y estuvo en servicio por más de quince años.

Los Años 50

Al Mark I se le considera como el primero en la historia de los mainframe, y posteriormente fue seguido por muchos otros. Al tanto las melodías de Frank Sinatra y Elvis Presley comenzaban a ser difundidas en las radios estadounidenses, los técnicos de IBM prosiguieron con la idea del Mark I y se propusieron el reto de emprender su evolución y mejoramiento.

Fue en el tiempo cuando surgió el SSEC, Selective Sequence Electronic Calculator, un sistema con elementos mecánicos (tubos de vacío) y electrónicas (relés) cuya esbozo fue iniciado justo tras el Mark I, poniéndose en operación en enero de 1948. Su tarea no difería mucho de la que era ejecutada por el Mark I, siendo igualmente una enorme calculadora cuyo primer servicio fue calcular las posiciones de la luna en relación con los planetas del Sistema Solar.

Esta labor la realizó a lo largo de su seis meses iniciales, tras lo cual comenzó a ser rentada a distintas empresas para diversos proyectos. El hecho de que el Mark I surgiera en tiempos de guerra pudo ser casualidad, aunque es cierto que el entorno militar siempre ha estado muy próximo al desarrollo tecnológico. Numerosos proyectos son considerados secretos y, desafortunadamente, jamás llegaremos a enterarnos de ellos, pero existen otros que sí se han corroborado.

Podemos citar que en plena Guerra de Corea (1950-1953), IBM dio a conocer el IBM 701 en el año 1952, un computador cuya concepción se hizo en conjunto con el Gobierno de Estados Unidos con el propósito de ser utilizado para diseñar naves aeroespaciales, de munición e igualmente para la industria nuclear.

Adicionalmente, IBM 701 supuso un parteaguas en la historia al ser estimado como el sistema que primeramente fue diseñado para el procesamiento de datos digitales. En todos los sistemas previos era el mismo usuario el que junto a los datos indicaba las operaciones a ejecutar, en el 701 las aplicaciones eran guardadas en una memoria interna, como suele hacerse en la informática actual.

Igualmente es considerado como uno de los factores clave para deshacerse de las tarjetas perforadas, además de ser la semilla que sirve de arranque a una nueva fase de la informática moderna. De acuerdo a lo informado por la empresa, el 701 es 25 veces más veloz que el SSEC al mismo tiempo que solo requiere una cuarta parte de su espacio. Únicamente se llegaron a vender 19 unidades en el período de 1952 a 1955.

Llegada de los Transistores

A partir de los años 50, los mainframes prosiguieron evolucionando gracias a la ayuda de los ingenieros de diseño que continuamente buscaron la manera de mejorarlos y adecuarlos a los nuevos desafíos y creaciones  científicas. Parte de dichas evoluciones procuraban mejorar sus características físicas y determinados componentes con el propósito de lograr una mayor eficiencia y minimizar las posibilidades de errores físicos.

Con esta idea, en 1956, se desarrolló el primer disco rígido magnético, un monstruo que pesaba unos cuantos kilogramos que se rentaban por unos 3.200 dólares al mes, y que se instaló inicialmente en el IBM RAMAC 305. Tras unos años surgió una de las innovaciones más significativas aún en uso en la tecnología actual. Resulta que la palabra ‘bug’, que se traduce como ‘bicho’ o ‘insecto’, proviene del hecho de que en la estructuras de aquellos computadores solían introducirse insectos que alteraban su correcta operación.

Evitar dichos «bugs» (término con el que actualmente nos referimos a las fallas), o por lo menos que no existiesen de la forma en que se conocieron entonces, fue uno de los grandes desafíos en los años 1960 al ser dejados atrás los tubos de vacío, elemento imprescindible para los equipos de la época. Es cuando arriban los transistores y se inicia la ‘era digital’. El mainframe responsable de inaugurar esta era fue el IBM 7000, un desarrollo derivado del 700 que sustituyó los tubos de vacío por transistores, y que se comercializó en 1964.

La semilla se encontraba ya bajo tierra y era cuestión de regarla y proporcionarle algo de tiempo. Los IBM 7000 Series lograron cierto éxito a nivel comercial, pero particularmente fueron la base sobre la que posteriormente, en 1964, se fabricaron los IBM System/360, que vendrían a innovar de forma notable la manera de abordar a los clientes. En vez de fabricar pocos computadores casi de modo artesanal, los S/360 fueron diseñados con diferentes configuraciones para adaptarse a los presupuestos de los clientes.

Así como para ajustarse a los requerimientos de todos ellos e inclusive al color, existiendo la posibilidad de personalizarlos para adecuarse a la imagen de las distintas empresas. Los equipos comenzaron a ser destinados a compañías de toda clase, y no únicamente a entidades públicas con colosales presupuestos como solía ocurrir entonces.

Pero lo exitoso de los System/360 no se fundamento solamente en la factibilidad de escalarlos a lo que el cliente requiriese. IBM igualmente los diseño para servir como máquinas para múltiples propósitos. Al tanto las generaciones previas estaban concebidas como supercalculadoras, desde el S/360 los mainframes comenzaron a ser equipos que tenían una utilidad más grande que simplemente calcular números.

La Transición junto a los PC y el Arribo de Internet

Los ingenieros de IBM sostuvieron el concepto de los System/360 para las nuevas generaciones de los años subsiguientes. En 1970 fueron liberados los System/370 para los que consideraban conveniente que una empresa que ya tuviese un S/360 pudiera seguir usando su software en un novedoso S/370. Su compatibilidad era retroactiva ya que se basaba en los mismos principios aunque evolucionados y ajustados a la modernidad.

Como dato curioso, el sistema operativo de los S/360 y los S/370 ya se fundamentaba en una arquitectura de registros de 32 bits, que en el entorno doméstico inclusive prosiguen utilizándose hoy en día. Igualmente se dio una notable casualidad que más adelante explotaron desde IBM. El surgimiento de los System/370 coincidió con el de los PC, equipos más simples pero más económicos. En 1972 los S/370-158 y S/370-168 costaban 200.000 y 400.000 dólares respectivamente, al tanto que el Apple I de 1975 apenas 666,66 dólares.

El System/370 fue una de las series más perdurables en los anales de la informática, al mantenerse vigente por más de un par de décadas. IBM, sabiendo que contaba con un producto de calidad, se dedicó al mejoramiento sucesivo del hardware (innovadores procesadores, ajuste a novedosas interfaces) y del software (sistemas operativos propios, incorporación de los primeros Linux programados ‘a medida’).

También comenzaron a emerger los clones de equipos IBM, descritos como computadores diseñados y fabricados por otras empresas (Hitachi, Fujitsu, Siemens o Mitsubishi eran tal vez las más populares) pero con compatibilidad con el mismo software que suministraba IBM. Estos ‘clones’ permanecieron en el mercado a lo largo de los años 80, y comenzaron a extenderse al entorno doméstico manteniéndose a través de la siguiente generación.

En la década de los años 1990, IBM liberó los System/390, con similar configuración de nombre que obviamente introdujo algunas novedades (comenzaron a usar transistores bipolares en reemplazo de CMOS, por ejemplo), pero que conservaron la esencia de sus antecesores S/370 y S/360. Aún continuaban siendo retroactivamente compatibles en cuanto al software (en 1999 podía ejecutarse en un S/390 un programa hecho para un S/360 de 1964 sin readaptar el código) y usaban la similar arquitectura CISC de 32 bits.

Asimismo existieron múltiples series, configuraciones y modelos, algo que aún se mantiene hoy día. Una diferencia importante es que, al tanto los S/360 y S/370 eran equipos con un panel de control particular, los S/390 comenzaron a exhibir un formato distinto, con gabinetes enormes, en los que toda la comunicación se ejecuta desde un cliente externo. El auge de las PC y la amenaza que figuraban para los mainframes, provocó este cambio que forzó a que estos equipos requiriesen de un apropiado canal para intercambiar información.

El Cambio de Siglo y el Cambio de Nombre

Pese a que el equipo de diseño de IBM estuvo siempre consciente de la evolución de muchos de los componentes, la base sobre la que se desarrollaron las subsiguientes generaciones fue la arquitectura CISC de 32 bits que, como ya señalamos. Ésta se mantuvo en los sistemas S/360, S/370 y S/390 a lo largo de un lapso de 4 décadas. El arribo del nuevo siglo introdujo significativos cambios para IBM. Los S/390 fueron reemplazados por los System z, una nueva denominación que incorporó una novedosa arquitectura, la z/Architecture.

La z/Architecture, igualmente desarrollada en su totalidad por IBM, fue liberada en el año 2000. Emprendieron el salto a los 64 bits y, de nuevo, mantuvieron la compatibilidad retroactiva con generaciones previas, entre las que se incluían los S/360 y supuestamente 4 décadas de software compatible.

Asimismo fue introducido un nuevo máximo en la memoria RAM (hasta 2 exabytes) esencial en computadores profesionales de este nivel, y obviamente el software, que ahora podría tener acceso a registros de mayor tamaño, lo que repercutiría en una mayor eficacia en el proceso de la información.

Algo que comenzó a avizorarse en los S/390 acabo estallando en los System z: la computación paralela se convirtió en un factor fundamental de esta naciente generación. Para mantenerse en la competencia y en base a las experiencias de los años previos, estos novedosos equipos fueron diseñados de modo que aceptan configuraciones que en ciertas ocasiones rebasan los 100 procesadores por gabinete, cada uno de los cuales cuenta con cuatro, seis o más núcleos, y con más de un terabyte de memoria RAM.

En la actualidad, adicional a los System z, IBM igualmente fabrica mainframes con chips AMD Opteron (System x), Intel Xeon (System x, BladeCenter) o POWER (Power Sustems, Power Blade), bajo su arquitectura propietaria heredada de los PowerPC de años previos. Hay decenas de distintos modelos que a su vez son bastante personalizables y ajustables a los requerimientos de cada cliente, tanto a nivel tecnológico como económico.

Los Mainframe: Siguen allí Aunque no los Veas

Los mainframe aún se mantienen y siguen activos, y en efecto, los usamos de forma continua. No los podemos ver, pero allí permanecen. Si te detienes a reflexionar, estas frases que lees con seguridad se encuentran almacenadas en un servidor de algún sitio, y ese servidor estará compuesto de varios mainframes que son los que suministran la conexión 24/7 de ésta y muchísimas otras páginas web.

Los grandes servicios cuentan con sus centros de datos propietarios (Google, Apple), al tanto que otros suelen subcontratarlos. Podemos citar el caso de Amazon, que es uno de los mejor posicionados en esto con sus Amazon Web Services, suministrando servidores y sistemas de caché indispensables para la Web hoy día. Los mainframes pasaron de ser sistemas que pertenecían a organismos públicos a nivel universitario, gubernamental o militar a ser el fundamento del hardware de Internet y las comunicaciones.

El arribo de los teléfonos inteligentes nos ha llevado a estar aún más conectados, no únicamente en nuestros hogares sino igualmente en (casi) cualquier lugar del planeta.  A estos teléfonos hay que agregar las redes de sensores (cada vez más presentes en las ciudades), los automóviles (que incorporan mayor tecnología) o los electrodomésticos que comienzan a contar con conexiones.

El camino por andar es aún largo, pero la tendencia es que casi todo acabe por ser conectado a un servidor, en el que existirá un mainframe. De igual forma hay que señalar la relevancia de los mainframes para el entorno  científico. Equipos de este calibre se emplean para efectuar simulaciones matemáticas de suma complejidad, pronósticos meteorológicos o análisis de datos que sin estos computadores superveloces serían imposible de estimar.

Los mainframes han llevado varias décadas siendo el ‘núcleo’ traslucido de nuestras conexiones. No los podemos ver, pero siguen allí. Sus funciones no se modificarán en los años venideros, si bien sí comienzan a avizorarse algunos cambios significativos que podrían afectar a los fundamentos de estos equipos. Uno de los cuales es el consumo de energía, un parámetro que ha adquirido mucho valor en los años recientes a causa del aumento de los costos de la energía a nivel mundial.

Los clientes requieren computadores de menor consumo que les posibilite disminuir su factura eléctrica, y por ende los fabricantes encaran el desafío de reducir los requerimientos energéticos de sus equipos sin afectar su rendimiento. Es relevante citar que el consumo eléctrico no está supeditado únicamente al mismo equipo, sino que por ejemplo igualmente es esencial la refrigeración de la sala (estos equipos usualmente se instalan en salas totalmente refrigeradas para disipar el calor), que suele conllevar gran parte del importe de la factura.

Otra de las modificaciones planteadas en el entorno de los mainframe es desarrollarse desde las típicas arquitecturas POWER, x86 o la z, hacia ARM, que tiene a su favor diversos factores. Consume una fracción de la energía de sus rivales, produce un calor que podría ser disipado de forma pasiva (sin ventiladores) y sumado a ello son económicos. Obviamente tiene la desventaja de que su rendimiento es inferior al de las alternativas citadas, algo que se puede sopesar instalando varios chips ARM y ejecutándolos de forma simultánea en paralelo.

También te pueden interesar estos otros artículos: