1

¿Servidores con IA? Microsoft y Facebook intentan tenerlos

¿Le dará la Inteligencia Artificial (AI) un segundo aire a la infraestructura y frenará el SaaS? Microsoft y Facebook intentan averiguarlo.

Vía PC World en Español

Se ha dicho: las grandes mente piensan igual. Y, en el caso de Microsoft y Facebook, de alguna manera, parece ser cierto.  Forzados por las circunstancias o con miras a realizar algún descubrimiento revolucionario, ambas empresas realizan, por coincidencia y en forma paralela, la misma gestión: dotar de eficiencia a sus servidores a partir de nuevos diseños basados en inteligencia artificial (AI).

Los objetivos que persiguen son obvios y (para ambos conglomerados) fundamentales: desarrollar servicios más rápidos, que mejoren la experiencia de los usuarios y que le permitan aprovechar al máximo la capacidad de procesamiento de su infraestructura instalada. Cero zombies.

La red social ha publicado varias estadísticas que confirman que sus servidores soportan una gran carga, pero que a la vez dan cuenta de una buena orquestación de dichas plataformas. Y es que cada día, sus usuarios ven 100 millones de horas de vídeo, 400 millones de personas utilizan Messenger y más de 95 millones de fotos y vídeos se publican en Instagram.

Uno de los principales habilitadores de esta capacidad es la tecnología de reconocimiento de imágenes utilizado por Facebook.

Microsoft, por su parte, ha configurado una estrategia similar. La tecnológica de Redmond busca continuamente equilibrar la carga en sus servidores. De allí que sus centros de datos aplican el aprendizaje automático para servicios de lenguaje natural como Cortana.

Como la Tardis: caja rara, mágica y azul (por Facebook)

Ambas organizaciones introdujeron nuevos diseños de hardware en código abierto para asegurar respuestas más rápidas a los servicios de inteligencia artificial. Los diseños permiten ofrecer más capacidades a través de sus redes y software. Y han presentado estos servidores en la cumbre Open Compute Project.

Los prototipos pueden ser utilizados por otras empresas como referencia para implementar sus propios servidores y, luego, enviar para su fabricación en Asia. Se trata de una práctica bastante común. De hecho, Google y Facebook llevan haciéndolo desde hace varios años.

Big Basin –así se llama el proyecto de Facebook- es una caja de servidores poco ortodoxa a la que la compañía ha denominado JBOG. Ésta ofrece una potencia sin precedentes para el aprendizaje automático. El sistema no tiene CPU y funciona como una caja independiente que necesita ser conectada a las cajas discretas del servidor y del almacenaje.

El servidor cumple con la promesa de desacoplar unidades de procesamiento, almacenamiento y redes en centros de datos. El cálculo es también mucho más rápido cuando el procesamiento y el almacenamiento se conectan en red más cerca. Las unidades desacopladas también comparten recursos de energía y refrigeración, lo que reduce la factura eléctrica en los centros de datos. El sistema se puede conectar a Tioga Pass, un nuevo diseño de servidor de doble CPU de Facebook en código abierto.

Un diseño de centro de datos desacoplado es importante para firmas como Google y Facebook, que están comprando miles de servidores para satisfacer sus crecientes necesidades de procesamiento. Las empresas pueden ampliar los servicios web y las tareas de aprendizaje automático mucho más rápido al desacoplar el almacenamiento, el procesamiento y otros recursos.

El sistema Big Basin tiene ocho aceleradores Nvidia Tesla P100 GPU, conectados en una arquitectura de malla a través de la interconexión súper rápida NVLink. La interconexión de malla es similar a la del servidor DGX-1 de Nvidia, que se utiliza en una supercomputadora de inteligencia artificial de Fujitsu en Japón.

La residencia de los dioses

Microsoft, por su parte, ha construido su propia versión de un servidor desarrollado con tecnologías de inteligencia artificial: Olympus. Éste cuenta con más espacio para coprocesadores de IA. La tecnológica de Redmond también anunció un acelerador de GPU con Nvidia e Ingrasys llamado HGX-1, que es similar al Big Sur de Facebook, pero que se puede escalar para enlazar 32 GPU.

El proyecto Olympus es un diseño de servidor más convencional que no requiere cambos masivos en las instalaciones del servidor. Es un servidor de rack 1U con las CPU, GPU, memoria, almacenamiento y redes. Todo en una caja.

Y, por primera vez, Olympus hará algo raro para la actividad de los servidores: pasar de x86 a ARM con soporte para Centriq 2400 de Qualcomm o los chips Thunder X2 de Cavium.