IA / ML / DL con OpenShift e IBM Power Systems

OpenShift para ML sobre IBM Power Systems es la solución ideal para que puedas reduce costes, modernizar tus despliegues, acelerar tus entrenamientos de ML/DL y aumentar la colaboración entre tus equipos. Gracias a un hardware específicamente diseñado para estas nuevas cargas de trabajo, las posibilidades que nos brinda las nuevas tecnologías de virtualización de GPUs y la solución líder en el mercado de cloud híbrida basada en kubernetes de la mano de Red Hat e IBM.

¿Qué es la inteligencia artificial (IA), el Machine Learning (ML) y el Deep Learning (DL)?

Inteligencia artificial (IA)

La IA es la capacidad de las máquinas para imitar el comportamiento inteligente humano y realizar tareas que generalmente necesitan de humanos para ser realizadas

Aprendizaje automático (ML)

El ML es, dentro de la IA la capacidad de aprender, usando diferentes modelos, sin ser programados de manera directa para ello. Se usan algoritmos y sistemas estadísticos como son los patrones y las inferencias para lograr ciertas capacidades de aprendizaje desatendido

Aprendizaje profundo (DL)

El aprendizaje profundo o Deep Learning va un paso más allá. Permite ir extrayendo información de manera paulatina a partir de una entrada de datos cualquiera. Es una compleja arquitectura que permite el procesado de imágenes o incluso del lenguaje humano, pasando por la voz o el reconocimiento de objetos.

¿Qué aporta OpenShift a los sistemas de DL y ML?

Al usar contenedores dentro de nuestra nube híbrida para desplegar nuestras cargas de trabajo de Deep Learning y Machine Learning, podemos aprovechar mucho mejor la inversión en infraestructura: almacenamiento, servidores y redes. Desde la versión 4.7 de OpenShift, si se despliega en ser Power Systems (en concreto en los modelos AC922 y IC922) permite ejecutar diferentes modelos de ML y DL compartiendo incluso las GPUs. Esto supone una auténtica revolución en los proyectos de ML on-premises y más que importantes ahorros de costes con respecto a las alternativas en cloud existentes: pensad en que además de los costes de ejecución de los diferentes entrenamientos, hay que subir y que descargar todos los datos desde la nube con los elevados costes que supone.

¿Puedo seguir usando AWS, Azure o Google Cloud para ML?

Claro que si. Habrá ciertos modelos, cargas de trabajo o proyectos en los que sea interesante por diversos motivos usar servicios de proveedores de cloud. En otros, bien por sus elevados costes o requerimientos derivados de la protección de datos, optaremos por hacerlo nuestra propia infraestructura. OpenShift permite gestionarlo de manera sencilla y transparente.

OpenShift Container Storage y DevOps

Con la ayuda de OpenShift Container Storage (OCS), cada desarrollador puede gestionar diferentes instancias y versiones de un mismo modelo siguiendo prácticas de devops y sobre nuestro propio almacenamiento. Cuando el modelo está listo para ser desplegado, el usuario puede iniciar un proceso de configuración y despliegue en cualquier momento. Se dispone de un sistema de control de versiones y de avanzadas funcionalidades de orquestación incluyendo las pruebas automáticas del nuevo código. Esto es posible gracias a los últimos avances en las tecnologías de virtualización de GPUs y la integración en la única plataforma HW que tiene conexiones dedicadas entre las GPUs (FPGAs) y los sockets. Esto evita los cuellos de botella gracias a disponer de un ancho de banda varias veces superior al de las arquitecturas basadas en procesadores Intel. Además podemos correr diferentes modelos de manera simultánea en las GPUs (FPGAs) de una misma tarjeta gráfica.

Colaboración entre científicos de datos y desarrolladores

OpenShift es una plataforma unificada donde los científicos de datos, los desarrolladores de software y los administradores de sistemas pueden colaborar de una manera sencilla y robusta. Esto permite acelerar el despliegue de aplicaciones de todo tipo, incluidas de ML/IA en cuestión de minutos gracias a su portal de auto-servicio. Crear, escalar, reproducir, probar y compartir rápidamente los resultados de los modelos de IA/DL/ML de manera ágil con el resto de personas involucradas en este tipo de proyectos, incluidos jefes de proyecto, matemáticos, programadores y clientes.