Machine & Deep Learning local con Red Hat OpenShift 4.7

Al proporcionar una gran cantidad de datos como un conjunto de entrenamiento, las computadoras ya son capaces de tomar decisiones y aprender de forma autónoma. Por lo general, la IA se lleva a cabo junto con el aprendizaje automático, el aprendizaje profundo y el análisis de big data. A lo largo de la historia de la IA, la principal limitación fue la potencia computacional, la banda cpu-memory-gpu y los sistemas de almacenamiento de alto rendimiento. El aprendizaje automático requiere una inmensa potencia computacional con una ejecución inteligente de comandos que mantiene a los procesadores y gpus en una utilización extremadamente alta, sostenido durante horas, días o semanas. En este artículo discutiremos las diferentes alternativas para estos tipos de cargas de trabajo. Desde entornos en la nube como Azure, AWS, IBM o Google hasta implementaciones on-premise con contenedores seguros que se ejecutan en Red Hat OpenShift y con IBM Power Systems.

Antes de ejecutar un modelo de IA, hay algunas cosas a tener en cuenta. La elección de herramientas de hardware y software es igualmente esencial para los algoritmos para resolver un problema en particular. Antes de evaluar las mejores opciones, primero debemos comprender los requisitos previos para establecer un entorno de ejecución de IA.

¿Cuáles son los requisitos previos de hardware para ejecutar una aplicación de IA?

  • Alta potencia informática (GPU puede encender el aprendizaje profundo hasta 100 veces más que las CPU estándar)
  • Capacidad de almacenamiento y rendimiento del disco
  • Infraestructura de red (a partir de 10 GB)

¿Cuáles son los requisitos previos de software para ejecutar una aplicación de IA?

  • Sistema operativo
  • Entorno informático y sus variables
  • Bibliotecas y otros binarios
  • Archivos de configuración

Como ahora conocemos los requisitos previos para establecer una configuración de IA, vamos a profundizar en todos los componentes y las mejores combinaciones posibles. Hay dos opciones para configurar una implementación de IA: en la nube y local. Ya te dijimos que ninguno de ellos es mejor, ya que depende de cada situación.

Infraestructura en la nube

Algunos servidores tradicionales famosos en la nube son

  1. Amazon Web Services (AWS)
  2. Microsoft Azure
  3. Google Cloud Platform (GCP)
  4. IBM Cloud

Además de estos, existen nubes especializadas para el aprendizaje automático. Estas nubes específicas de ML proporcionan soporte de GPU en lugar de CPU para mejores entornos de computación y software especializados. Estos entornos son ideales para cargas de trabajo pequeñas en las que no hay datos confidenciales o confidenciales. Cuando tenemos que subir y descargar muchos TB de datos o ejecutar modelos intensivos durante semanas a la vez, poder reducir estos tiempos a días u horas y hacerlos en nuestros propios servidores nos ahorra muchos costes. Hablaremos de esto a continuación.

Servidores locales e implementaciones de plataforma como servicio (PAaS)

Se trata de servidores especializados presentes en las instalaciones de trabajo de una empresa de IA. Muchas empresas proporcionan servidores de IA altamente personalizados y construidos desde cero en el mundo. Por ejemplo, AC922 e IC922 de IBM son perfectos para la configuración de IA local.

Las empresas eligen como deben considerar el crecimiento futuro y el equilibrio entre las necesidades actuales y los gastos de los dos anteriores. Si su empresa es sólo un startup, los servidores de IA en la nube son los mejores porque esta opción puede eliminar la preocupación de las instalaciones a precios de alguna manera asequibles. Pero si su empresa crece en número y más científicos de datos se unen, la computación en la nube no aliviará sus cargas. En este caso, los expertos en tecnología hacen hincapié en la infraestructura de IA local para mejorar la seguridad, la personalización y la expansión.

LEA TAMBIÉN: Implemente su nube híbrida para ML y DL

 

Elegir la mejor arquitectura HW

Casi todas las plataformas de servicios en la nube ahora ofrecen el cálculo compatible con GPU, ya que la GPU tiene casi 100 veces más potente que la CPU promedio, especialmente si el aprendizaje automático se trata de visión por ordenador. Pero el verdadero problema es el caudal de datos entre el nodo y el servidor en la nube, sin importar cuántas GPU estén conectadas. Es por eso que la configuración de IA in situ tiene más votos, ya que el flujo de datos ya no es un gran problema.

El segundo punto a considerar es el ancho de banda entre LAS GPU y las CPU. En arquitecturas tradicionales como Intel, este tráfico se transfiere a través de canales PCI. IBM desarrolló un conector llamado NVLink,para que las GPU de la tarjeta NVidia y los núcleos Power9 pudieran comunicarse directamente sin capas intermedias. Esto multiplica el ancho de banda, que ya es más de 2 veces mayor entre el procesador y la memoria. Resultado: ¡no más cuellos de botella!

Como hemos señalado anteriormente los requisitos previos de software para ejecutar aplicaciones de IA, ahora tenemos que considerar el mejor entorno de software para un rendimiento óptimo de la IA.

¿Qué arquitectura de centro de datos es mejor para AI/DL/ML?

Mientras se hablaba de servidores con respecto a la infraestructura de IA, el diseño tradicional era la virtualización; es una distribución simple de los recursos de cálculo bajo sistemas operativos separados. Llamamos a cada entorno de sistema operativo independiente una “máquina virtual”. Si necesitamos ejecutar aplicaciones de IA en máquinas virtuales, nos enfrentamos a varias restricciones. Uno es los recursos necesarios para ejecutar todo el sistema, incluidas las operaciones del sistema operativo y las operaciones de IA. Cada máquina virtual requiere recursos de almacenamiento y computación adicionales. Además, no es fácil transferir un programa en ejecución en una máquina virtual específica a otra máquina virtual sin restablecer las variables de entorno.

¿Qué es un contenedor?

Para resolver este problema de virtualización, el concepto “Contenedor” salta. Un contenedor es un entorno de software independiente bajo un sistema operativo estándar con un entorno de tiempo de ejecución completo, una aplicación de IA y un archivo de dependencias, bibliotecas, archivos binarios y configuraciones reunidos como una sola entidad. La contenedorización ofrece ventajas adicionales a medida que las operaciones de IA se ejecutan directamente en el contenedor y el sistema operativo no tiene que enviar cada comando cada vez (guardar instancias de flujo de datos masivas). En segundo lugar, pero no menos, es relativamente fácil transferir un contenedor de una plataforma a otra plataforma, ya que esta transferencia no requiere cambiar las variables ambientales. Este enfoque permite a los científicos de datos centrarse más en la aplicación que en el entorno.

RedHat OpenShift Container Platform

El mejor software de contenedorización integrado en Linux es OpenShift Container Platform de Red Hat (un PAaS On-prem) basado en Kubernetes. Sus fundamentos se basan en contenedores CRI-O, mientras que Kubernetes controla la gestión de la contenedorización. La última versión de Open Shift es 4.7. La principal actualización proporcionada en OpenShift 4.7 es su relativa independencia de Docker y una mejor seguridad.

Operador NVIDIA GPU para contenedores Openshift

NVIDIA y Red Hat OpenShift se han unido para ayudar en la ejecución de aplicaciones de IA. Al usar GPU como procesadores de alta computación, el mayor problema es virtualizar o distribuir la energía de las GPU en los contenedores. NVIDIA GPU Operator for Red Hat Openshift es un Kubernetes que media la programación y distribución de los recursos de GPU. Dado que la GPU es un recurso especial en el clúster, requiere que se instalen algunos componentes antes de que las cargas de trabajo de la aplicación se puedan implementar en la GPU, estos componentes incluyen:

  • Controladores NVIDIA
  • tiempo de ejecución específico para kubernetes
  • contenedor de dispositivo plugin
  • reglas de etiquetado automático de nodos
  • comproyentes de monitoreo

Los casos de uso más utilizados que utilizan GPU para la aceleración son el procesamiento de imágenes, la audición por computadora, la IA conversacional mediante PNL y la visión por ordenador mediante redes neuronales artificiales.

Entorno informático para el aprendizaje automático

Existen varios entornos informáticos de IA para probar/ejecutar aplicaciones de IA. En primer lugar, Tensorflow, Microsoft Azure, Apache Spark y PyTorch. Entre ellos, Tensorflow (Creado por Google) es elegido por la mayoría. Tensorflow es una plataforma de código abierto de extremo a extremo de grado de producción que tiene bibliotecas para el aprendizaje automático. La unidad de datos principal utilizada en TensorFlow y Pytorch es Tensor. Lo mejor de TensorFlow es que utiliza gráficos de flujo de datos para las operaciones. Es como un diagrama de flujo, y los programas realizan un seguimiento del éxito y el fracaso de cada flujo de datos. Este enfoque ahorra mucho tiempo al no volver a la línea base de una operación y prueba otros sub modelos si se produce un error en un flujo de datos.

Hasta ahora, hemos discutido todas las opciones para establecer una infraestructura de IA, incluyendo hardware y software. No es fácil seleccionar un producto específico que alberga todos los componentes deseados del sistema de IA. IBM ofrece componentes de hardware y software para la investigación y el desarrollo de IA eficientes y rentables como IBM Power Systems e IBM PowerAI, respectivamente.

IBM Power Systems

IBM Power Systems tiene componentes flexibles y basados en necesidades para ejecutar un sistema de IA. IBM Power Systems ofrece servidores acelerados como IBM AC922 e IBM IC922 para entrenamiento de ML e inferencia de ML,respectivamente.

IBM PowerAI

IBM PowerAI es una plataforma inteligente de ejecución de entornos de IA que facilita el aprendizaje profundo eficiente, el aprendizaje automático y las aplicaciones de IA mediante la utilización de IBM Power Systems y las GPU NVidia de toda la potencia. Proporciona muchas optimizaciones que aceleran el rendimiento, mejoran la utilización de recursos, facilitan la instalación, personalización y evitan problemas de administración. También proporciona marcos de aprendizaje profundo listos para usar como Theano, Bazel, OpenBLAS, TensorFlow,Caffe-BVLC o IBM Caffe.

Cuál es el mejor servidor para implementaciones locales. Comparemos IBM AC922 e IBM IC922

Si necesita servidores que puedan soportar cargas de aprendizaje automático durante meses o años sin interrupción, funcionando a un alto porcentaje de carga, los sistemas Intel no son una opción. Los sistemas NVIDIA DGX también están disponibles, pero como no pueden virtualizar GPU, cuando se desea ejecutar varios modelos de aprendizaje diferentes, hay que comprar más tarjetas gráficas, lo que las hace mucho más caras. La elección del servidor adecuado también dependerá del presupuesto. Los IC922 (diseñados para la inferencia de IA y las cargas de trabajo linux de alto rendimiento) son aproximadamente la mitad del precio de los AC922 (diseñados para la formación de conjuntos de datos de IA), por lo que para proyectos pequeños pueden ser perfectamente adecuados.

 

Si está interesado en estas tecnologías,
solicite una demostración
sin compromiso. Tenemos programas donde podemos asignarte un servidor completo durante un mes para que puedas probar directamente las ventajas de esta arquitectura de hardware.

Red Hat ahora es gratis para pequeños entornos. Te enseñamos como migrar desde CentOS

CentOS Stream no es tan terrible

Con el anuncio de CentOS Stream muchos usuarios se quedaron más que preocupados. Pasar de una distribución estable y gratuita, hermana gemela de RHEL a un entorno de pruebas, propenso a sufrir errores y necesitar constantes parches no parecía una buena noticia. Además, su ciclo de vida (es decir, tiempo durante el cual se proporcionan actualizaciones a cada versión) demasiado corto, lo que no lo hacía apropiado para la mayoría de servidores en producción que en su momento, decidieron instalar CentOS en vez de RHEL por no requerir un soporte técnico de alto nivel. Es el caso de pequeñas empresas o instituciones académicas.

Además ya existía Fedora, donde se van probando todas los nuevos avances técnicos que tiempo después llegarían a Red Hat (y CentOS). Fedora es una distribución de Linux ideal para entornos de escritorio pero que pocas empresas tenían en producción.

Finalmente el escenario se ha aclarado. Fedora seguirá teniendo la misma función dentro del ecosistema de Linux de Red Hat, aquí nada cambia. CentOS Stream será una plataforma que mediante las técnicas de “entrega continua”, heredadas de la filosofía devops, se convertirá en la siguiente versión menor de Red Hat Enterprise Linux (RHEL) con un ciclo de vida bastante corto.

Red Hat Linux ahora es gratis para pequeños entornos

Ahora bien, la gran novedad es la siguiente: para entornos de hasta 16 servidores productivos, se podrá instalar RHEL sin coste alguno usando las licencias Developer. Pensándolo bien tiene todo el sentido del mundo. Exceptuando grandes entornos de super-computación (HPC), se migrar de CentOS a RHEL sin problemas y sin costes adicionales. No solo se mantendrán las funcionalidades, sino que se tendrá acceso a las últimas actualizaciones de manera inmediata.

Esto será posible desde el 1 de Febrero de 2021. Red Hat avisa que mantendrá el sistema de suscripciones, aunque sean gratuitas intentando simplificarlas todo lo posible. Aducen razones legales, como que a medida que entran en vigor nuevas leyes como la GDPR, hay que actualizar los términos y condiciones de su software. Es decir, ni está, ni se esperan las licencias a perpetuidad que aún mantiene por ejemplo IBM.

Desde nuestro punto de vista esto es un acierto a la hora de ampliar la base de usuarios, pero también potenciales futuros cliente no solo de Red Hat Linux sino de todos sus productos: Satellite, Ansible, OpenShift, Openstack, Cloudforms entre otros muchos.

¿Cómo migramos desde CentOS a Red Hat?

Tebemos una utilidad que realiza la migración, convert2rhel

# convert2rhel –disable-submgr –enablerepo <RHEL_RepoID1> –enablerepo <RHEL_RepoID2> –debug

Cambia RHEL_RepoID por los repositorios que elijas en /etc/yum.repos.d/ por ejemplo rhel-7-server-rpms, rhel-8-baseosrhel-8-appstream.

Puedes mirar las opciones con:

# convert2rhel -h

Y cuando estés listo, simplemente inicia el proceso:

# convert2rhel

En este enlace tienes todos los detalles

Certificate en IBM Infosphere DataStage, Optim, Information Server y Governance Catalog

IBM InfoSphere es un ecosistema que dispone de un completo conjunto de herramientas para gestionar eficientemente un proyecto de integración de datos.  Si tu empresa está utilizando actualmente tales productos en el manejo de sus activos TI o está en proceso de implementarlos, necesitas aprender cómo funcionan.  En este artículo hablaremos de 4 herramientas muy utilizadas en el contexto de la inteligencia empresarial y te contaremos como obtener las certificaciones oficiales de IBM. Comencemos.

IBM DataStage

Esta solución permite extraer, modificar y exportar todo tipo de fuentes de datos, entre las que destacan las aplicaciones empresariales, los archivos indexados y secuenciales, las bases de datos mainframe y relacionales y las fuentes externas.

Cuenta con dos modalidades de funcionamiento:

ETL. Se trata del acrónimo de Extract, Transform and Load, que en español significa “extraer, transformar y cargar”. El software se instala en un servidor o en distintas terminales, desde donde extrae y procesan datos provenientes de diversas fuentes.

Diseño y supervisión. A través de su interfaz gráfica, se procede a la creación y al monitoreo de los procesos ETL y a la gestión de los metadatos correspondientes.

IBM DataStage es ideal para aquellas empresas que necesitan implementar y administrar un almacén de datos Data Mart o Dara WareHouse. Sus principales funciones están relacionados con el manejo de grandes cantidades de datos. Con esta herramienta, podrás aplicar reglas de validación, adoptar un tipo de procesamiento paralelo y escalable, efectuar múltiples integraciones y complejas transformaciones, recurrir a los metadatos para realizar tareas de análisis y de mantenimiento.

Si eres administrador de proyectos o desarrollador de ETL, nuestro curso de IBM InfoSphere DataStage Essentials es justo lo que necesitas para adquirir las aptitudes necesarias. La certificación Datastage te enseñará a generar jobs paralelos con el fin de acceder, al mismo tiempo, a datos relacionales y secuenciales, y a dominar las funciones que te permitan modificarlos e integrarlos, según sea necesario.

Infosphere Information Server

Se trata de una plataforma escalable compatible con datos procedentes de diversas fuentes diseñada para gestionar cualquier volumen de datos, independientemente de su tamaño. Lo anterior es posible gracias a sus funciones MPP, acrónimo de Massively Parallel Processing, que en español significa “proceso en paralelo masivo”.

Information Server es la solución más eficaz para aquellas empresas que buscan flexibilidad a la hora de integrar sus datos más críticos. Es una efectiva tecnología de inteligencia empresarial mediante técnicas de analítica de datos y de punto de impacto, big data y gestión de datos maestros.

Gracias a la formacion en Datastage, podrás localizar e integrar tus datos en múltiples sistemas, tanto de forma local como a través de la nube y establecer un solo lenguaje de negocios para gestionar la información. Además, te ayudará lograr una mayor comprensión de tus activos TI mediante el análisis de reglas y mejorar la integración con otros productos especializados en manejo de datos.

Nuestro curso IBM InfoSphere Information Server Administrative Tasks es una buena introducción para los administradores de esta plataforma que necesitan asumir las funciones administrativas que se requieren para apoyar a los usuarios y desarrolladores.

El curso de Datastage, impartido por SiXe Ingeniería, inicia con una descripción esencial de Information Server y sus productos relacionados. Después, la formación en Datastage pasa a detallar las actividades que deberás asumir, lo que incluye la generación de informes y la gestión de usuarios.

IBM InfoSphere Information Governance Catalog

Con esta herramienta interactiva basada en la web, aumentará la capacidad de tu organización para crear y gestionar un potente plan de control de los datos más importantes. Para lograr dicho objetivo, deberás definir políticas de obligado cumplimiento que se tienen que seguir para almacenar, estructurar, mover y transformar la información. De esta manera, podrás obtener resultados confiables que podrán ser utilizados en distintos proyectos de integración.

IBM InfoSphere Information Governance Catalog es compatible con las técnicas de inteligencia empresarial más modernas, que comprenden la gestión del ciclo de vida, las iniciativas de privacidad y seguridad, las integración de big data y la gestión de datos maestros.

Sus amplias posibilidades te permitirán definir un lenguaje común dentro de tu empresa en lo que se refiere al manejo de los datos provenientes de diferentes fuentes y administrar correctamente las arquitecturas de información. Al mismo tiempo, esta herramienta te ayudará a lograr una comprensión plena de la forma como se conectan los datos entre sí y realizar un seguimiento de la forma como la información fluye y cambia.

Si tienes algo de experiencia con Information Server o IBM InfoSphere MDM y deseas aprender a utilizar esta herramienta, el curso New Features in IBM InfoSphere Data Integration and Governance es tu mejor opción.

La formación IBM infosphere te permite conocer las funciones más recientes en lo que se refiere a integración u gobernanza de datos dentro del ecosistema de IBM InfoSphere.

InfoSphere Optim

Esta aplicación está diseñada para archivar el historial de transacciones y los datos de aplicaciones en desuso y te permite realizar consultas a modo, permitiéndote cumplir cabalmente con las normativas en materia de retención de información.

Con esta solución, tus datos estarán presentes en todas las aplicaciones, bases de datos, sistemas operativos y equipos en que se requieran. De esta manera, tus entornos de prueba estarán a salvo y tus ciclos de lanzamiento serán más cortos y económicos.

Esta herramienta también te ayudará a gestionar el crecimiento de tus datos y la reducción de tu coste total de propiedad (TCO). Esto contribuirá a aumentar el valor comercial de tus almacenes de información.

Los cursos impartidos por SiXe Ingeniería relacionados con los productos y componentes de la suite de IBM InfoSphere contribuirán a que los administradores y desarrolladores aprendan a dominar esta herramienta. Tal es el caso de la certificacion Datastage y el curso de Infosphere Data Architect. También impartimos el resto del catálogo de cursos oficiales de IBM. Consúltanos sin compromiso.

Motivos para formarse en Linux en 2021

Ocho razones de peso para certificarse en Linux este 2021

Si has llegado hasta aquí, probablemente poseas conocimientos más o menos avanzados de Linux o tengas intención de mejorarlos. Este sistema operativo creado en Finlandia en 1991 es uno de los competidores más acérrimos que tiene Windows. Son varias sus ventajas con respecto al software de Microsoft. ¿Te gustaría conocer las 8 razones de peso para ampliar tu formación con certificaciones Linux este 2021? Veamos.

3 motivos genéricos para aumentar tu conocimiento de Linux

Para los que no tienen mucha experiencia utilizando este sistema operativo, comenzaremos hablando de tres importantes razones para recibir una capacitación más avanzada que les permita comprender plenamente la funciones y las posibilidades que ofrece.

1. Ser polivalente te convierte en un mejor profesional

El primer motivo para formarse en Linux no tiene mucho que ver con sistemas operativos o sus características, sino con el mercado mismo. En el sector tecnológico, es importante ser polivalente para ofrecer mejores soluciones a los usuarios. Por lo tanto, recibir una formación en Linux no solo es útil, sino necesario.

2. Es un sistema operativo más seguro que sus competidores

En comparación con Windows, Linux tiene una arquitectura blindada. Se trata de un sistema operativo a prueba de ataques. Son varios los motivos que hacen de los sistemas GNU/Linux una opción tan segura. Al ser de código abierto, cuenta con un ejército de cientos de usuarios actualizándolo de forma constante. Cualquiera que tenga los conocimientos suficientes puede mejorar el sistema para evitar violaciones a la integridad de los archivos y a la privacidad de los datos delicados. Además, está basado en UNIX, un software que se destaca por su potente y efectiva gestión de privilegios para múltiples usuarios.

En un mundo en el que los datos de las empresas están comprometidos, esta ventaja augura un futuro prometedor para Linux frente a otros sistemas. Si ofreces servicios informáticos a empresas, conocer más a fondo cuáles son las prestaciones de Linux en materia de seguridad te permitirá dar un mejor soporte.

3. Es un sistema operativo gratuito, estable y fácil de usar

A diferencia de Windows y de macOS, no necesitas pagar por una licencia ni adquirir un ordenador específico para poder instalar Linux en tu equipo. Es completamente gratuito. El negocio está en el soporte a empresas. Nosotros mismos somos partners de Red Hat, IBM y SUSE.

Por otro lado, la principal pega sobre la dificultad que entrañaba para un usuario promedio usar este sistema operativo ha quedado en el pasado. Actualmente, sus distintas distribuciones cuentan con una interfaz muy amigable. Por si fuera poco, se trata de un software muy estable. Rara vez sufre de interrupciones. y no hace falta reinstalarlo cada que llevas a cabo una actualización.

5 razones para formarte en Linux en 2021 con SiXe

Ahora bien, si eres de esos que en su día se formaron tímidamente en Linux en la Universidad, o lo has hecho de forma superficial a través de cursos puntuales, te damos cinco motivos para aprender más en profundidad sobre este software libre con SiXe.

1. Ofrecemos prácticas realistas adaptadas al segmento corporativo

Linux es un ejemplo claro de que el software libre está al alza. Y no solo en el ámbito doméstico, sino también en el profesional. No en vano, el informe de Red Hat Estado del Open Source empresarial, realizado en 2020, deja claro que un número creciente de negocios ve en el código abierto una solución viable.

Según esta investigación, el 95 % de las organizaciones encuestadas señalaron que este tipo de programas (Linux incluido) son parte importante de su infraestructura. Dicho estudio es solo una prueba más del valor que tiene este sistema operativo para desarrolladores de software, usuarios y administradores de sistemas.

La oferta y la demanda controlan el mercado, y en el sector tecnológico no es la excepción. Por lo tanto, el creciente interés de las empresas en las soluciones basadas en código abierto constituye una valiosa oportunidad laboral para los profesionales que se especialicen en Linux.

SiXe te ayuda a completar tu formación en Linux. Particularmente interesante resulta el hecho de que todos nuestros cursos se enfocan en ofrecer soluciones adecuadas a los problemas que suelen surgir en el mundo real.

2. Los cursos tienen contenido útil para cualquier contexto.

Las formaciones diseñadas parea desarrolladores de software y administradores de sistemas que impartimos incluyen:

Mención aparte merecen los siguientes cursos orientados a las certificaciones más demandadas en el mercado:

Curso intensivo de Linux para administradores. Aprenderás a administrar con éxito tus sistemas Linux. Este curso se caracteriza por ofrecer la formación esencial para poder resolver con éxito un examen como el RHCSA (Red Hat Certified System Administrator) o el SUSE Certified Administrator.

Curso intensivo de Linux para ingenieros. Los cursos Red Hat y los cursos SUSE tienen cada vez más demanda. Esta formación te ayudará a certificarte como Red Hat Certified Engineer, SUSE Certified Engineer y Linux Foundation Certified Engineer. De esta manera, serás capaz de dar respuesta a las necesidades del mercado. El curso intensivo de Linux para ingenieros es ideal para los administradores de sistemas que desean aprender a usar comandos y a configurar los parámetros de ejecución del kernel. Se trata de una formación de 30 horas con visión práctica y un taller diseñado para afrontar todas las pruebas y exámenes oficiales.

Taller de Red Hat Openshift 4: nuestro curso estrella en 2020 con más de 30 ediciones en todo el mundo.

Todos nuestros cursos se caracterizan por ofrecer contenido de calidad e impartir conocimientos realmente útiles basados en proyectos reales que SiXe Ingeniería ha implementado con clientes globales. Eso es lo que nos distingue de los demás.

A ello se le suma el hecho de que nuestras formaciones no se ven afectadas por la distribución que elijas. No importa si utilizas OpenSUSE, Fedora de Red Hat, Ubuntu, CentOS u otra más. Puedes escoger la que prefieras, y nuestros cursos seguirán siendo igual de útiles. Esto se debe a que en SiXe adaptamos nuestros cursos para cubrir todas las versiones y prácticas comunes.

Además de las formaciones en Linux antes mencionadas, también es posible obtener una certificación específica en IBM a través de sus cursos oficiales de Linux para sistemas IBM Z (Mainframe), despliegue de SAP HANA, administración linux básica y Linux para administradores de UNIX

3. Aprenderás a dominar Red Hat y SUSE

En SiXe Ingeniería trabajamos en asociación con los principales exponentes del sector. Uno de los más relevantes es Red Hat. Este compilador y distribuidor lleva casi tres décadas ofreciendo soluciones de código abierto a organizaciones internacionales.

Y lo que es más importante: los cursos de certificacion Linux expedidos por Red Hat son cada vez más cotizados. Esto se debe justamente a la tendencia empresarial de implantar soluciones Open Source, entre las que destaca especialmente Red Hat Enterprise Linux.

Por su parte, SUSE es otra de las empresas de la que somos Business Partner y un distribuidor Open Source líder en el mundo del código abierto. Prueba de ello es que en 2020, aun con la pandemia, elevó su cifra de ingresos en un 14 %. Uno de sus sistemas más populares, SUSE Linux Enterprise, sobresale por su funcionalidad, escritorios intuitivos y una gran cantidad de aplicaciones integradas.

Y como mencionamos antes, con nuestro curso intensivo en Linux para ingenieros es posible prepararse para obtener los certificados Red Hat Certified Engineer (RHCE), SUSE Certified Engineer y Linux Foundation Certified Engineer.

4. Los cursos son impartidos por instructores experimentados

Todas nuestras formaciones son impartidas por profesionales. El hecho de prescindir de intermediarios nos ayuda a garantizar una línea homogénea, sin pérdidas de calidad o desajustes en la materia.

Todo la enseñanza parte de nuestro trabajo y experiencia. Tal es el caso de los cursos Red Hat y los cursos SUSE, que sintetizan el resultado de cientos de horas de experiencia en consultoría y prestación de servicios vinculados con sistemas.

5. Podrás beneficiarte de nuestros servicios adicionales

SiXe no solo se dedica a impartir formación, también ofrece servicios de consultoría y mantenimiento en todo tipo de sistema. Por lo tanto, estudiar con nosotros te abre las puertas a otras prestaciones.

De esta manera, tu empresa no solo se beneficiará de la capacitación que ofrecemos, sino también de nuestros servicios adicionales. Esto incluye soluciones para Data Center y soluciones de ciberseguridad. En este último aspecto, cabe resaltar que estamos asociados al Instituto Nacional de Ciberseguridad (INCIBE), lo que garantiza la calidad de nuestros aportes.

Obtén tu certificación en Linux con nosotros

En definitiva, podemos concluir que existen razones de peso para reforzar tus conocimientos de Linux. Es un hecho que las proyecciones de este sistema operativo son bastante optimistas, especialmente en el área corporativa.

El interés de las empresas en las distribuciones de este sistema operativo, la gran seguridad que ofrecen a la hora de evitar ataques informáticos y su versatilidad hacen que recibir certificaciones en Linux sea más necesario que nunca.

Por supuesto, para que la enseñanza sea eficaz, es importante que dichas formaciones sean solventes, que ofrezcan material de calidad y que sean impartidas por instructores personales de dilatada experiencia. Y eso es precisamente lo que encontrarás en SiXe. Si estás interesado en nuestros cursos, ponte en contacto con nosotros.

Ya está disponible OKD 4. Te contamos sus nuevas características y todo lo que necesitas saber

Como igual ya sabes OKD es la versión de la comunidad de Red Hat OpenShift basada a su vez en Kubernetes. Después de usar OKD 3.11 durante bastante tiempo, muchos desarrolladores que utilizan esta distribución de Kubernetes estaban esperando OKD 4. Al igual que cualquier otra plataforma, OKD se actualizó para solucionar algunos de los problemas de las versiones anteriores y también para agregar características y funcionalidades que podrían hacer que la plataforma sea más robusta y fácil de usar para los desarrolladores. La versión 4 de OKD fue lanzada en julio de 2020, y si quieres saber lo que esta versión tiene para ofrecer, este artículo es para ti. Discutiremos las nuevas características y todo lo que necesita saber sobre OKD4 y cómo puede instalarlo en las diversas plataformas en la nube. Asegúrate de leerlo hasta el final ;)

Nuevas características en OKD v4

Hay un montón de nuevas características y funcionalidades en esta nueva actualización. A continuación se presentan algunas de las principales que necesita saber.

  1. Administrador del ciclo de vida del operador (OLM)

OLM es una de las características que varios desarrolladores han estado deseando tener en OKD. Lo que hace la administración del ciclo de vida del operador es ayudar a los administradores de clústeres a instalar, actualizar y conceder acceso a los operadores que se ejecutan en su clúster. El rol de esta nueva característica es hacer que el trabajo de los administradores de clúster sea más fluido que en las versiones anteriores de OKD. OKD v4 tiene una lista organizada de todos los operadores con la capacidad de cargar otros operadores en el clúster. También controla el control de acceso basado en roles para que determinados equipos usen determinados operadores. Con esta versión, el administrador del ciclo de vida operadores también gestiona las actualizaciones continuas para todos los operadores.

  1. Clusters máximos

Con esta nueva versión de OKD, puede usar la calculadora de límite OKD para conocer el límite de clúster para su entorno. Por lo tanto, puede conocer con antelación el número máximo de clústeres que se pueden implementar en su entorno.

  1. Node tuning operator

OKD v4 ahora tiene la funcionalidad del operador de ajuste de nodos que ayuda a los desarrolladores a administrar las parametrizaciones a nivel de nodo mediante un demonio que lo automatiza. Esta característica es crucial al implementar aplicaciones de alto rendimiento que necesitan cierto nivel de ajuste del kernel.

  1. Supervisión de clústeres

Con esta característica, los desarrolladores pueden configurar el escalado automático horizontal de pods (HPA) en función de la API de métricas personalizadas. A pesar de su disponibilidad en esta nueva versión de OKD, esta característica todavía tiene un par de limitaciones que incluyen; el adaptador solo se conecta a una sola instancia de Prometheus para utilizar Prometheus y también tiene que implementar y configurar manualmente el adaptador.

Otra limitación con esta característica es el hecho de que la sintaxis para Prometheus Adapter podría cambiarse en futuras actualizaciones del software.

  1. Las nuevas alertas ahora están integradas en la interfaz de usuario.

En esta versión de OKD, puede ver todas las alteraciones de nivel de clúster y también las reglas de alertas dentro de la nueva consola web OKD.

  1. Telemeter

El telemeter ayuda a proporcionar información sobre las métricas relacionadas con el clúster que podrían ser importantes para las personas que usan OKD. Por lo tanto, telemeter, es posible recopilar métricas de estado cruciales de las instalaciones OKD, habilitar un bucle de comentarios viable de las actualizaciones de OKD, recopilar el número de nodos del clúster por clúster y su tamaño (núcleos de CPU y RAM), recopilar el tamaño de etcd y también recopilar detalles sobre el estado y el estado de mantenimiento de cualquier componente de marco de OpenShift instalado en un clúster de OpenShift.

Otras características incluyen lo siguiente;

  • Ahora se puede acceder al archivo Docker en varias etapas en todas las compilaciones de estrategias de Docker
  • En lugar de ser administrado por el registro oc admn, el registro ahora es administrado por un operador.
  • En la parte superior del registro, un operador ahora también administra y configura la red del clúster. La supervisión y actualización de la red de clúster también es responsabilidad de un operador.
  • OKD 4 también tiene una nueva característica llamada multus, que es un meta plug-in para Kubernetes Container Network Interface (CNI), que permite al usuario crear varias interfaces de red para cada pod.
  • El plug-in del router F5 ahora no es compatible con OKD. Ahora se puede obtener de un conector de contenedor creado por los desarrolladores de este complemento.
  • La interfaz de usuario de la plataforma también tiene un aspecto ligeramente nuevo para facilitar a los desarrolladores encontrar las características que necesitan.

Actualización a OKD4

En el momento del lanzamiento, la opción de actualizar OKD de la versión 3.11 a la versión 4 no estaba disponible. Tienes que realizar una nueva instalación de Openshift 4 de forma independiente. Si utiliza plataformas en la nube como AWS, bare metal y vSphere host, es posible instalar OKD con una infraestructura proporcionada por el usuario.

Conclusiones

Esta nueva actualización de OKD es algo que todos los desarrolladores que estaban usando la versión 3.11 de la plataforma deberían estar esperando. Tiene un montón de características interesantes y una interfaz de usuario actualizada como hemos visto anteriormente. El objetivo de esta actualización es hacer que los desarrolladores e ingenieros de operaciones sean más productivos mientras ejecutan sus tareas con OKD.

Si necesita formación,consulte nuestros talleres OpenShift y Docker + Kubernetes

y póngase en contacto para programar su demostración gratuita del curso.

Inscríbete en nuestro webinar gratuito de Red Hat OpenShift 4.6

En Sixe Ingeniería queremos dar a conocer la última versión de Red Hat Openshift Container Platform 4.6. Nuestra tecnología predilecta para cargas de trabajo basadas en contenedores y de PaaS (Plataforma como Servicio) en general. Por ello ofrecemos a todo el mundo hispanohablante una vez al mes un curso intensivo en formato webinar impartido en español y totalmente gratuito. Comenzaremos desde cero y no hace falta experiencia previa en docker ni en kubernetes (tecnologías de las que hablaremos brevemente durante la formación).

La próxima edición será el Martes 19 de Enero de 2021 a las 16:oo de Madrid, 9:00 en México DF y 10:00 en Bogotá. 

 

En este primer webinar hablaremos de las arquitecturas de referencia existentes, de su relación con Kubernetes y de las posibilidades que tenemos para su instalación. Abarcaremos tanto despliegues en nuestro centro de datos como en nuestro proveedor de cloud favorito (Google, Azure, AWS, IBM). Sin olvidarnos de los entornos mixtos también conocidos como de cloud híbrida, donde elegimos que aplicaciones desplegaremos “on-premises” y cuales “off-site” o directamente en la nube. Discutiremos sobre los costes de la solución, las capas de seguridad disponibles y también debatiremos sobre los últimos casos de éxito entre nuestros clientes. Este taller está basado en nuestro popular curso de despliegue y operaciones, del que tomaremos prestados algunos ejemplos que te permitirán comprender mediante unas breves demostraciones en directo, el potencial de esta tecnología.

Agenda del seminario online

  • Presentación de Red Hat OpenShift 4.6
  • Arquitectura de Red Hat OpenShift Container Platform
  • Despliegue de la solución
  • Novedades y migración desde versiones anteriores
  • Casos de éxito.. y de fracaso (spoiler: ninguno cliente nuestro xD)
  • Debate abierto, ruegos y preguntas.

Aunque se trata de un seminario online, las plazas son limitadas. Inscríbete ahora mismo. Te enviaremos un correo unos días antes con todos los detalles y la información necesaria para conectarse.

 

Fin de soporte de IBM Power6/7. ¿Migramos?

Si tiene sistemas AIX, IBM i o Linux corriendo en IBM Power Systems, puede que este artículo sea de su interés. IBM ha finalizado el soporte de hardware en las máquinas POWER6 (lanzados al mercado en 2007) a finales del primer trimestre de 2019, tras más de 12 años. Lo mismo sucederá con POWER7 a finales del tercer trimestre de 2019. Los detalles sobre los servidores afectados por la interrupción del servicio están en el siguiente anuncio.

¿Cómo me afecta?

Muchísimos clientes tienen funcionando sistemas Power 6 y Power 7. Todos ellos en general, en perfectas condiciones pues bien es conocido en cualquier centro de datos que un sistema Power está tan bien diseñado y construido que algún reemplazo de discos o fuentes de alimentación por medio, no es raro que lleguen a los 10 o 15 años de vida. Con los años, no es raro encontrar clientes que descubren tras varios años que parte de su infraestructura corría en un servidor Power que no sabían ni que existía :)

Volviendo a estos casos, es importante planificar una transición a los nuevos sistemas POWER8 y POWER9 a fin no solo volver a tener un soporte por parte del fabricante sino también para ahorrar mucho dinero. No es complicado migrar a 10 sistemas Power6 a un entorno con 2 Power9 en DR, gracias a la virtualización PowerVM y el adecuado uso de LPARs. Esto aplica para sistemas con IBM i, AIX y Linux indistintamente.

Otros retos a los que enfrentarse en estos meses pasan por la actualización de los servidores VIO, sistema operativo, HMC y firmware de los servidores, en muchos casos como paso anterior a la migración a sistemas modernos.

¿Qué opciones tengo?

En Sixe Ingeniería sabemos que muchas compañías no están seguras de qué pasos tomar para asegurar una transición sin problemas y que, fundamentalmente, no implique riesgos ni interrupciones significativas del servicio. Los costes también son una preocupación bastante extendida. Por ello hemos desarrollado varias opciones para los clientes afectados por estos plazos de finalización de la vida útil.  Ofrecemos servicios y soluciones de infraestructura enfocada en IBM i, AIX y Linux. Tenemos un portfolio bastante completo de soluciones y servicios para ayudarle a través del proceso incluyendo el diseño de la nueva arquitectura, la adquisición del HW, eliminación o consolidación de licencias innecesarias, instalación de hardware y sistemas operativos, configuración, migración de los de los entornos, ajuste de rendimiento y soporte post-proyecto.

Seguimos recomendando mantener los entornos críticos en Power, usando el sistema operativo que mejor se adapte a las cargas de trabajo que ejecute. Ningún otro hardware le proporciona la mitad de años de soporte continuado ni puede ofrecer un 99,96% de disponibilidad.

Consúltenos sin compromiso.

Sixe Ingeniería
×