Alma & CentOS Linux en servidores IBM Power

Durante los últimos dos añs, el proyecto CentOS, distribución comunitaria de Linux basada y binariamente compatible con Red Hat, no ha parado de sufrir cambios. Al igual que ocurre en otros proyectos de software libre, esta popular (y estable) distribución usada por empresas y organismos de todo el mundo, pasaba a ser una “versión de desarrollo” de Red Hat Enterprise Linux. Lo mismo ocurre con oVirt vs RHEV o Foreman + Katello vs Satellite. A cambio, Red Hat ofrece licencias gratuitas para pequeños despliegues y ha ampliado las opciones de suscripciones educativas.

¿Que ocurre con CentOS Stream?

No es que CentOS Stream ya no sea estable, o que sus usuarios se conviertan sin quererlo en beta-testers de Red Hat Enterprise, pero cambiaban aspectos fundamentales. Hasta ahora, cuando Red Hat saba su versión X, unos meses después, se compilaban las mismas versiones de los mismos paquetes creando un “clon” con las mismas funcionalidades para quienes no necesiten un soporte de nivel empresarial. Esto deja de ser así (las actualizaciones y cambios pasan a ser más frecuentes) y, por todo el mundo, sus usuarios se plantean qué hacer. Por ejemplo el CERN de Suiza, ha decidido quedarse con CentOS Stream por el momento. Quizás por aquello de que más vale malo conocido que bueno por conocer.. pero esa es otra historia.

En paralelo, tanto Ubuntu, como Red Hat y SUSE ofrecen todos sus repositorios para x86 pero también para ARM y ppc64le (Linux on IBM Power), con lo que estábamos muy interesados en probar si estas nuevas distribuciones herederas de CentOS, estaban siendo compiladas para estas arquitecturas y si podíamos migrar a ellas desde CentOS Stream. De ser así pensamos que puede ser un buen aliciente para que clientes que dispongan (o se estén planteado adquirir) servidores IBM Power le den una oportunidad a esta tecnología, que de desplegarse satisfactoriamente no solo se consigue un mucho mejor rendimiento por core, sino que los costes en licencias y las horas necesarias para el mantenimiento técnico se reducen mucho.

Alma vs CentOS, Rocky y Oracle Linux

En esta tabla tenemos las distribuciones basadas en Red Hat que podemos (o podremos) instalar en IBM Power, y sus características fundamentales.

Benchmarking against RHEL AlmaLinux Oracle Linux Rocky Linux CentOS Stream CentOS Linux
Disponible desde Marzo 2021  2006  Junio 2021  2019  2004
Compatibilidad binaria 1:1 con RHEL Si Casi *
(cambios en glibc, openssl..)
Si Aplican los límtes de la ACG Si
Actualizaciones cada Diarias Diarias Diarias Upstream de RHEL Diarias
Ciclo de vida 10 Years 10 Years 10 Years 5 Years EOL on 2021-12-31
Soporte comercia Terceros Oracle, terceros Terceros Terceros Terceros
Soporte para PowerPC  Si Si No todavía Si Si
Soporte para s390x  No todavía Por decidir Por decidir Si Si
Propiedad de: AlmaLinux OS Foundation Oracle Inc Rocky Enterprise Software Foundation Red Hat Inc Red Hat Inc
Tipo de organización del propietario Non-Profit 501(c)6 For Profit C-Corp For Profit, Public Benefit Corp For Profit C-Corp For Profit C-Corp

Como veis, si buscamos una alternativa a CentOS Linux para Power, AlmaLinux parece ser la opción más interesante y con 10 años de actualizaciones en cada versión.

Probando AlmaLinux (ppc64le)

Para escribir este artículo hemos hecho dos tipos de pruebas. La primera de ellas ha sido instalar desde el DVD AlmaLinux en un servidor Power8. Como veis más allá del arranque desde el SMS de la LPAR la instalación es igual que en un sistema x86

¿Y si queremos migrar desde CentOS Stream a AlmaLinux?

Existe un script que podeis descargar aquí, que hemos descargado en un segundo entorno con un CentOS Stream recién actualizado.

$ wget https://raw.githubusercontent.com/AlmaLinux/almalinux-deploy/master/almalinux-deploy.sh

Es necesario editar este script antes de ejecutarlo

$ vi almalinux-deploy.sh

Y modificar la siguiente línea, donde verifica la arquitectura porque ppc64le SI ESTÁ SOPORTADA y tenemos todos los paquetes de software disponibles (lo vamos a comprobar).

A continuación ejecutamos el script, que probablemente necesites lanzar con la opción -d para hacer un “downgrade” desde la versión actual de CentOS Stream a AlmaLinux 8.X (siempre será algo más antigua que la última de CentOS Stream)

 

Y a continuación puedes instalar epel-release y el resto de repositorios con software adicional como harías en cualquier entorno x86.

Al ser un entorno IBM Power, es recomendable instalar los paquetes de software que añaden funcionalidades (en base a comandos de AIX) para poder administrar correctamente todo el HW, acceder a la consola HMC y poder realizar cambios de configuración sin reiniciar los sistemas.

$ yum install wget 
$ wget ftp://public.dhe.ibm.com/software/server/POWER/Linux/yum/download/ibm-power-repo-latest.noarch.rpm
$ rpm -ivh –nodeps ibm-power-repo-latest.noarch.rpm

Aquí, una vez más hay que editar el script de configuración para que funcione en AlmaLinux. Verás que hay un exit 1 si no es centos/suse/redhat que vamos a modificar quedando así

$ vi /opt/ibm/lop/configure

$ chmod +x /opt/ibm/lop/configure

$ /opt/ibm/lop/configure

Instalamos el repositorio de epel (contiene mucho software adicional)

$ yum install epel-release

Y vemos como los nuevos repositorios están ya activos

$ yum repolist

migra

Descargamos las utilidades de PowerVM para que la LPAR de Linux sea gestionada desde el HMC

$ yum install src ksh rsct.core devices.chrp.base.ServiceRM DynamicRM

Y reiniciamos los servicios de RMC (que nos valen para añadir o quitar memoria y cpu de manera dinámica)

$ /usr/bin/rmcctrl -z
$ /usr/bin/rmcctrl -A
$ /usr/bin/rmcctrl -p

La prueba final

Vamos a usar un script de bastantes lineas para desplegar un servidor web, base de datos y un sitio con WordPress.

$ wget https://github.com/UncleDan/linux-scripts/blob/master/wordpress-centos8.sh

$ bash wordpress-centos8.sh

Entramos en nuestra IP con el navegador y Wodpress funcionado! Esto es algo que hace dos años no podíamos decir que funcionara con esta seguridad. Nos alegra comprobar que se han hecho muchos avances y que el soporte de aplicaciones para ppc64le es cada vez más extenso y completo. Os animamos a probarlo y sin necesidad de invertir en nuevas licencias.

¿Qué otras aplicaciones y servicios podemos desplegar en Linux sobre IBM Power?

Para acabar este artículo os dejamos un listado de aplicaciones disponibles en OpenShift para Power y que por lo tanto, están totalmente soportadas en cualquier distribución basada en Red Hat, como son AlmaLinux y CentOS. ¿A qué esperas para probarlo?

Sistemas operativos bajo contenedores (docker / runC)

+ Red Hat
+ CentOS
+ SUSE
+ BusyBox
+ AlpineLinux
+ Ubuntu
+ Debian

Middleware

+ WebSphere Liberty
+ Open Liberty
+ Apache Tomcat
+ ActiveMQ
+ JBoss
+ WildFly
+ RabbitM
+ WordPress

Lenguajes

+ Jenkins
+ Ansible
+ Kubernetes
+ Red Hat OpenShift
+ Gradle
+ Maven
+ Terraform
+ Travis CI
+ Python
+ Java
+ PHP
+ GoLang
+ OpenJDK
+ NodeJS
+ R
+ Ruby

 

Bases de datos

+ MongoDB
+ Redis
+ MySQL
+ Cassandra
+ MariaDB
+ PostgreSQL
+ Memcached
+ IBM Db2

Analíticas & IA

+ Grafana
+ Kibana
+ Elasticsearch
+ Logstash
+ Fluentd
+ Kafka
+ IBM Watson Studio
+ IBM Watson ML

Almacenamiento

+ Container Storage Interface
+ IBM Spectrum Virtualize
+ IBM PowerVC CSI Driver
+ NFS

Comunicaciones

+ Prometheus
+ Nginx
+ Apache HTTP Server
+ ZooKeeper
+ HAP oxy
+ etcd

 

Mitos, verdades y nuestra opinión sobre los IBM Cloud Paks

Con la compra de Red Hat por parte de IBM, el conjunto del portfolio de soluciones de software para ciberseguridad, aplicaciones, bases de datos, automatización y gestión de nubes híbridas se ha ido portando a OpenShift bajo la marca IBM Cloud Paks. Esto implica que muchas de estas aplicaciones se ha rediseñado y adaptado para funcionar sobre contenedores (aunque algunas como QRadar ya lo hacían desde hace años) y ser controladas por Kubernetes, que es el orquestador de contenedores en el que se basa OpenShift.

¿Cómo se despliegan los IBM Cloud Paks?

Los Cloud Paks de IBM se instalan sobre un entorno PaaS con OpenShift tanto en data centers propios sobre IBM Power Systems, VMWare, KVM (RHEV / LinuxONE) como en las nubes públicas de Microsoft (Azure), IBM, Amazon (AWS) y Google (GCP). Gracias a IBM Satellite se puede desplegar en una combinación de recursos propios y en la nube, mediante una arquitectura híbrida y flexible. Nuestro departamento de servicios profesionales puede ayudaros.

¿Como se licencian IBM Cloud Paks? ¿Cuanto cuestan?

Esto es quizás una de las partes menos conocidas y a nuestro juicio más polémicas. IBM siempre ha vendido licencias perpetuas para todas su soluciones software. Estas licencias vienen con un soporte técnico básico para incidencias HW y otro más avanzado para el SW (SWMA) que se pueden ir renovando típicamente cada 3 años. Al pasar a un entorno “cloud” vamos hacia sistemas de pago por uso, muy escalable y para qué engañarnos, a veces complicado de estimar. Por ejemplo, en el de Data tiene estos precios por “core virtual”. Es decir, desde unos cientos de dólares hasta a unos cuantos cientos de miles.. :)

Esto tiene ventajas evidentes para soluciones donde el soporte lo razonable que se vaya renovando como es el caso de soluciones abiertas y extremadamente complejas como las basadas en micro-servicios y contenedores. Los clientes que no estén cómodos con este modelo, pueden seguir comprando appliances o licencias para desplegar en su infraestructura muchas de estas soluciones mediante un único pago y un soporte opcional a renovar cada varios años. En otras, este es el único modelo pues son soluciones nativas para entornos basados en Kubernetes y Cloud.

¿Necesito tener OpenShift para instalar un Cloud Pak de IBM?

Respuesta corta: si. Ahora bien, si no lo tienes, lo puedes desplegar sin demasiados problemas gracias a los instaladores incluidos en las últimas versiones tanto en tu propia infraestructura como en una externa (IaaS) de tu proveedor de cloud favorito.

¿Merecen la pena los IBM Cloud Paks?

Como buen verso libre que somos en el sector de los integradores de sistemas, pensamos que algunos si, y otros no tanto (al menos por ahora). Depende del uso que se les vaya a dar, de la dependencia que tengamos con otras aplicaciones y del nivel de madurez en la adopción de contenedores y uso de kubernetes de nuestra organización. Si estamos empezando con Dockers, OpenShift y entornos Cloud, quizás es mejor ceñirnos a un buen plan de transformación y modernización digital en vez de “empezar la casa por el tejado”.

¿Hay cursos o formación de IBM Cloud Paks?

Para poder aprovechar esta tecnología necesitas dominar tanto la infraestructura (OpenShift) de la cual hay formación oficial ofrecida por Red Hat, y un taller intensivo y práctico elaborado por nosotros mismos. Una vez que la infraestructura esté bajo control tendrás que formarte en los diferentes productos y soluciones de IBM que te interesen, pues no dejan de ser colecciones de Software agrupadas por categoría y licenciadas conjuntamente. Por ejemplo, el Cloud Pak for Security, es fundamentalmente IBM QRadar SOAR Platform  mientras que el Cloud Pak for Applications incluye toda la suite de Websphere.

Lo dicho, si queréis, hablamos.

 

Nueva certificación de analista en ciberseguridad con QRadar SIEM 7.4.3

Acaba de salir de la primera de las nuevas certificaciones de IBM QRadar SIEM. Como siempre, han empezado por la más sencilla, la de analista. Está destinada a profesionales que deseen validar sus conocimientos sobre QRadar SIEM en la versión 7.4.3. El exámen es el C1000-139, titulado “IBM Security QRadar SIEM V7.4.3 – Analysis” y la certificación que se obtiene es la de “IBM Certified Analyst – Security QRadar SIEM V7.4.3

Como sabéis (y si no, os lo contamos) la principal novedad en la versión 7.4 es el cambio de interfaz de usuario. Han ido incluyendo paneles de control y de monitorización que permiten mejorar la visibilidad de los incidentes de seguridad con mapeos concretos a metodologías como MITRE ATT&CK. No deja de ser una manera de estandarizar los incidentes, dar un poco de abstracción al producto, proporcionarnos una visión de más alto nivel sobre lo que está sucediendo, más alla de las reglas concretas que han ido aplicando y las cadenas de eventos que se han generado.

Como requisitos previos (no forma parte del examen) es necesario dominar:

  • Conceptos de SIEM (qué es, qué no y para qué sirve)
  • Dominar la teoría de redes TCP/IP
  • Tener un buen conocimiento de terminología de seguridad informática.
  • Conocer los diferentes módulos y plugins de QRadar como son Network Insights o Incident Forensics.

¿Por qué nos preguntan en el exámen?

  • Análisis de ofensas y eventos de seguridad (logs, flujos de red, etc)
  • Comprensión de los listados de datos de referencia (sets, maps, tables, etc)
  • Dominar las reglas y los “building blocks”
  • Saber buscar en informes, crearlos desde cero, programarlos, modificarlos, etc.
  • Tener un conocimiento básico de la arquitectura de QRadar, fundamentalmente sus componentes, licenciamiento y configuración a nivel de red.
  • Por último, las configuraciones multi-dominio y multi-cliente que parece están cada vez más de moda, tienen un apartado dedicado en este exámen.

¿Me debo re-certificar?

En nuestra opinión, si estás certificado en versiones 7.2.X o 7.3.X no hay necesidad alguna de volver a certificarse. Otra cosa es que tu empresa lo requiera para mantener cierto nivel de partner con IBM o sea requisito para alguna licitación pública. Eso si, si vas a certificarte, aprovecha y hazlo cuando vayan saliendo las nuevas versiones.

¿Cuando saldrán el resto de certificaciones en 7.4.2?

Entre este trimestre y el que viene saldrán las de “administrator” y “deployment professional”.  Las diferencias entre todas ellas las cubrimos hace tiempo en este artículo. Aunque cambien las versiones, los tipos de exámenes y sus objetivos son los mismos.

¿Nos podéis ayudar con QRadar?

Claro, ofrecemos formación, servicios profesionales, soporte y también vendemos y renovamos sus licencias. Contáctanos y hablemos.

Actualiza tus IBM Power9 o quizás tus LPARs no arranquen

Muchas veces obviamos la necesidad de realizar actualizaciones preventivas no solo del sistema operativo (AIX, Linux, IBM i) sino también del FW de los servidores IBM Power. IBM publica correcciones para los problemas que otros clientes han experimentado y normalmente no es necesario que tú también lo hagas. De paso mantenemos nuestros sistemas seguros ante todo tipo de amenazas y vulnerabilidades tanto externas como internas.

El problema del que os hablamos en este breve artículo es un error que impedía el arranque de las LPAR en los servidores Power9 si llevaban más de 814 días funcionando. Suena un poco al de las impresoras de hace unos años que fallaban al imprimir varios cientos de miles de páginas, nunca sabemos si adrede o por un error. En el caso de IBM es un fallo reconocido de firmware que se soluciona con la actualización VH950_045_045 / FW950.00 disponible desde el 23 de Noviembre de 2020. Así que si sois algún cliente de IBM donde en los últimos dos años, vuestros ya veteranos sistemas Power9 no se han actualizado, tendréis posiblemente este problema en lo que queda de año.

Os damos una pista, el error es el CA000040 que impide el arranque de la LPAR y cuya solución provisional podría ser usar el modo compatibilidad con Power8 desde el HMC o ASMI mientras instaláis las actualizaciones pendientes.

En Sixe Ingeniería mantenemos preventivamente los sistemas IBM Power de nuestros clientes desde hace más de 15 años. Podemos ayudaros a monitorizar, actualizar y mantener de manera preventiva toda vuestra infraestructura de servidores y almacenamiento IBM y Lenovo. También os ayudamos a minimizar el gasto en licencias y os ofrecemos los mejores precios en las actualizaciones a nuevas generaciones de servidores IBM Power. Contáctanos para más información.

Instalamos y probamos el nuevo IBM AIX 7.3

Tras unirnos al programa OpenBeta de IBM, hemos podido descargar y probar la nueva versión de AIX 7.3 que llega en su 35 aniversario.

Entre sus novedades destacan:

  • Los frameworks de Python y Bash que funcionan directamente con AIX, ¡no tendremos que volver a instalarlos manualmente!
  • Soporte para el comando dnf (standard en Red Hat) para la instalación de paquetes de código abierto desde el AIX Toolbox. AIX habla Linux desde hace mucho tiempo, pero desde la versión 7.3 está cada vez más integrado facilitando a los desarrolladores y administradores de sistemas todas las ulilidades necesarias para modernizar los entornos UNIX.
  • Reducción del tiempo para añadir dinámicamente procesadores/memoria a una LPAR en funcionamiento, de gran ayuda en LPARs con bases de datos que usen cientos de GB o varios TB de memoria RAM. Esto se une a la reducción de los tiempos de arranque (IPL) para este tipo de particiones
  • Los comandos pigz y zlibNX ahora utilizan de forma transparente la aceleración GZIP de NX en Power9 y Power10
  • Soporte mejorado para el cifrado de volúmenes lógicos (LVM) para incluir rootvg y dispositivo de dump.
  • La pila de protocolos TCP ahora es compatible con CUBIC,  un algoritmo que evita la congestión de la red TCP que puede conseguir conexiones de gran ancho de banda a través de las redes de forma más rápida y fiable.
  • Mejoras adicionales en la seguridad IP (IPsec)
  • Posibilidad de crear un archivo OVA a partir de un mksysb mediante el comando create_ova con el objetivo de agilizar los despliegues en cloud (PowerVS) e híbridos.
  • Creación de una imagen ISO a partir del nuevo comando mksysb_iso
  • Integración con los nuevos compiladores IBM Open XL C/C++ y Fortran
  • Aumento del tamaño de los archivos y del sistema de archivos
  • Mejora de la compatibilidad con Ansible y Ansible Tower
  • Integración con PowerVC 2.X

 

Conoce los nuevos servidores IBM Power10 y AIX 7.3

The Power of 10

El 8 de Septiembre es la fecha del anuncio oficial de los nuevos servidores de IBM con procesadores Power10 que vendrá seguido del anuncio de la versión 7.3 de AIX, que ha cumplido en 2021 35 años. Teniendo en cuenta las características técnicas disponibles sabemos que incorporan memoria DDR5, una interfaz PCIe 5.0 y que están diseñados utilizando una tecnología de 7nm de Samsung. Los procesadores Power10 volverán a disponer de dos “sabores”. Uno con 15 cores en modo SMT-8 (ideal para AIX e IBM i) y otros con 30 cores y SMT-4 pensado para cargas de trabajo basadas exclusivamente en Linux. Los chips de Power10 incorporan también grandes mejoras para Inteligencia Artificial (IA), permitiendo ejecutar cargas de Machine Learning hasta 20 veces más rápido que POWER9.

Un millón de SAPS. La infraestructura importa y mucho.

Como es habitual, los primeros sistemas que se anunciarán serán los tope de gama (scale-up) diseñados para entornos altamente virtualizados con aplicaciones que requieren de unos recursos ingentes como SAP HANA. Los benchmarks publicados indican que se consiguen 1 millón de SAPS con 120 cores, es decir la mitad de cores de los que se necesitaban en la generación anterior de Power9 en servidores E980. Comparando con servidores actuales de otros fabricantes disponibles este año, HPE consiguió unos 670.000 SAPS (lo que equivale a unos 120.000 usuarios concurrentes) usando 224 núcleos en su Superdome Flex 280 basados en los procesadores más potentes de Intel (los Xeon Platinum). Para los que esto no os diga gran cosa, la otra lectura es que el rendimiento por core se ha seguido mejorando y mucho mientras el resto de fabricantes lo mantienen estancado paliándolo añadiendo otro tipo de hardware complementario (memorias flash, más cores, etc).

Toda la memoria que necesites

La llegada de la tecnología “Memory Inception” permite que crear clusters de sistemas que compartan memoria entre ellos, pudiendo llegar a varios Petabytes de RAM disponibles para un mismo entorno dividido en varios servidores físicos. Con esto IBM se sitúa como líder en el desarrollo de tecnologías hardware para los clusters de aplicaciones sobre Red Hat OpenShift. En breve se anunciarán los servidores “medianos” de dos y cuatro sockets donde podremos seguir desplegando bien entornos mixtos de IBMi, AIX y Linux.

Encriptación “end-to-end”

No podemos finalizar este artículo sin mencionar una de las características claves de la plataforma IBM Power, que es la seguridad de los datos. Los nuevos procesadores incorporan cuatro veces más componentes de encriptación AES para anticipar las necesidades de los estándares criptográficos que llegarán desde 2022 como son las criptografía con seguridad cuántica o el cifrado totalmente homomórfico. Todo ello, aplicable a las nuevas cargas de trabajo basadas en contenedores donde la seguridad se ha convertido en la primera preocupación de las organizaciones que las utilizan.

AIX 7.3, UNIX más allá de 2030

Aunque dará para otro artículo, con la llegada de Power10 se anunciará la nueva versión de AIX, que será la 7.3, lo que no sucedía desde 2015. La numeración una cuestión de márketing. Si IBM hubiera optado por llamar a esta versión 8.1 hubiera quizás, generado dudas sobre si las novedades impactaban a la estabilidad para las aplicaciones existentes, pero como toda nueva versión incorpora muchas e interesantes nuevas funcionalidades. Hoy en día seguimos desplegando nuevos entornos en AIX, además de migrar otros desde Solaris, HP-UX e incluso Linux.

En todos nuestros grandes y medianos clientes existe una parte de sus entornos productivos donde se procesa la información que mantienen con vida sus negocios y procesos internos. ¿Dónde instalan Oracle, DB2, SAP, SAS, etc? En AIX. Ningún otro sistema operativo tipo UNIX ofrece la misma madurez, estabilidad, rendimiento y escalabilidad. Se trata de un UNIX moderno, con gran compatibilidad con aplicaciones modernas como Chef, Puppet, Ansible y que convive de maravilla con el resto de entornos basados en Linux, IBM i o Z/OS al que le queda mucha vida por delante y la nueva versión 7.3 es buena prueba de ello. Además tiene tres grandes ventajas para los departamentos y responsables de sistemas: todo funciona (vs esa sensación de hacer de beta-tester tan arraigada en Linux), corren sobre los servidores más estables y robustos que existen (excepción del Mainframe) y se aprende una sola vez, en lugar de cada vez que sale una nueva versión: todos recordamos ese momento donde el “ifconfig -a” dejó de funcionar en Red Hat :)

Tiempo de renovar equipos, licencias.. y de actualizar

Con la llegada de una nueva tecnología de procesadores, comienzan las “rebajas” en IBM. Si tenéis equipos Power7 o Power8 cuyos contratos de mantenimiento vayan a vencer (o incluso estén ya fuera de soporte) y os estéis planteando renovarlos o no contad con nuestra ayuda. Os asesoramos sobre como ahorrar mucho dinero con nuestros servicios de auditoría y renoviación de licencias, aprovechar al 100% los equipos IBM Power de los que disponéis y os ofrecemos a precio de coste nuevos servidores Power9 y en breve Power10.

¿Necesitas soporte técnico?

En Sixe Ingeniería ofrecemos soporte técnico y mantenimiento preventivo de AIX y Linux sobre Power Systems directamente y sin intermediarios. Estaremos encantados de ayudarte.

Aproveche el verdadero poder de CI/CD con Tekton y Kubernetes Pipelines

La introducción de las pipelines de Kubernetes (Tekton) ha supuesto una revolución en la forma de gestionar los flujos de trabajo de CI/CD en el desarrollo de software. La incorporación de Tekton a Kubernetes, nos ha dado más poder y flexibilidad en la creación y gestión de pipelines. Este artículo se centra en la importancia de Kubernetes Pipelines y Tekton en Red Hat OpenShift, y en cómo estas herramientas pueden ayudarte a que tu proceso de desarrollo sea realmente continuo.

¿Qué es una “pipeline”?

Una pipeline es un proceso automatizado que conduce el software a través de las etapas de construcción, prueba y despliegue del ciclo de vida del desarrollo de software. En otras palabras, una pipeline ejecuta el flujo de trabajo de Integración Continua y Entrega Continua (CI/CD). Gestiona automáticamente las tareas de ejecución del conjunto de pruebas, el análisis del código, la creación de binarios, la contenerización y el despliegue de los cambios en la nube o en las soluciones locales.

¿Por qué debería construir pipelines con Kubernetes?

A medida que el mundo del desarrollo avanza hacia la adopción de aplicaciones basadas en microservicios en lugar de aplicaciones monolíticas, el proceso de CI/CD se ha convertido en algo verdaderamente continuo con actualizaciones incrementales de la base de código que se pueden desplegar de forma independiente.

En un entorno así, Kubernetes simplifica el proceso de creación y mantenimiento de canalizaciones CI/CD. Despliega cada microservicio en un único clúster de Kubernetes y mantiene varias copias de cada microservicio para que sirvan como versiones de desarrollo, prueba y producción.

Con los pipelines de Kubernetes, ya no es necesario reconstruir toda la aplicación durante cada compilación. En su lugar, Kubernetes actualiza el contenedor del microservicio y lo despliega a través del pipeline definido. Ya no es necesario escribir scripts de compilación, ya que Kubernetes se encarga automáticamente del proceso con sólo unas pocas opciones de configuración que proporcionamos. Esto reduce la posibilidad de errores humanos en el flujo de trabajo de CI/CD.

¿Qué es Tekton?

Tekton le permite llevar los pipelines de Kubernetes al siguiente nivel. Es un marco de trabajo nativo de Kubernetes y de código abierto para el desarrollo de canalizaciones CI/CD. Tekton proporciona extensiones a las definiciones de recursos personalizadas (CRD) en Kubernetes para facilitar la creación y estandarización de canalizaciones. Tiene soporte incorporado para el acoplamiento con herramientas CI/CD existentes en la industria como Jenkins, Jenkins X, Skaffold, Knative y OpenShift.

La integración en OpenShift de Tekton, denominada OpenShift Pipelines, introduce aún más potencia y flexibilidad en este sistema a través de las herramientas para desarrolladores de RedHat y OpenShift.

¿Por qué debería utilizar Tekton?

Los pipelines de Tekton utilizan clusters de Kubernetes como tipo de primera clase y contenedores como sus principales bloques de construcción. La naturaleza desacoplada de Tekton garantiza que pueda utilizar una única canalización para desplegar en clústeres Kubernetes separados. Esto facilita el despliegue de servicios en múltiples soluciones en la nube suministradas por diferentes proveedores o incluso en sistemas locales.

Tekton permite ejecutar las tareas automatizadas de forma aislada, sin que se vean afectadas por otros procesos que se estén ejecutando en el mismo sistema. Otra especialidad de Tekton es la flexibilidad que proporciona para cambiar los recursos, como los repositorios de GitHub, entre las ejecuciones de la tubería.

También facilita el cambio de implementación de la tubería en función del tipo de recurso. Por ejemplo, puede configurar una implementación única para manejar imágenes.

Tekton acoplado a OpenShift garantiza una alta disponibilidad del sistema al permitir que cada unidad escale de forma independiente bajo demanda. Además, Kubernetes incorpora herramientas de registro y supervisión mejoradas y funciones de autorrecuperación rápida.

¿Cómo funciona Tekton?

Tekton proporciona CRDs al estilo de Kubernetes para declarar pipelines CI/CD. Los recursos se declaran en un yaml que, normalmente, se almacena con el repositorio de código. Vamos a considerar los CRD básicos que son esenciales a la hora de crear tuberías.

Tarea

Una Tarea es la unidad configurable más pequeña de una pipeline Tekton. Es similar a una función que acepta un conjunto de entradas y produce ciertos resultados. Cada tarea puede ejecutarse de forma individual e independiente o como parte de la cadena de producción. Un comando ejecutado por una Tarea se llama Paso. Cada tarea consta de uno o varios pasos. Tekton ejecuta cada tarea en su propio pod de Kubernetes.

Tubería (pipeline)

Una pipeline consiste en un número de tareas que forman el flujo de trabajo final automatizado de CI/CD. Además de las tareas, también contiene PipelineResources. Se proporcionan como entradas y salidas a las Tareas de la Red.

PipelineResource

Un PipelineResource es un objeto que se utiliza como entrada o salida de una Tarea. Por ejemplo, si la tarea acepta un repositorio de GitHub como entrada y construye y emite la imagen Docker relacionada, ambos se declaran como objetos PipelineResource.

PipelineRun

Un PipelineRun es una instancia de un Pipeline que se está ejecutando. Inicia la ejecución del Pipeline y gestiona los PipelineResources pasados a las Tareas como entradas y salidas.

TaskRun

Una TaskRun es una instancia en ejecución de una Tarea. PipelineRun crea objetos TaskRun para cada Tarea en el Pipeline para iniciar la ejecución.

Disparador

Un Trigger es un evento externo que desencadena el flujo de trabajo CI/CD. Por ejemplo, un pull request de Git podría actuar como un Trigger. La información transmitida con la carga útil del evento se utiliza entonces para activar las tareas en la canalización.

Condición

Las condiciones son similares a las sentencias if de la programación normal. Realizan una comprobación de validación con respecto a las condiciones proporcionadas y devuelven un valor Verdadero o Falso. El pipeline comprueba estas condiciones antes de ejecutar una tarea. Si la condición devuelve True, la tarea se ejecuta, y si devuelve False, la tarea se omite.

Con estos componentes, puede crear canalizaciones complejas y totalmente automatizadas para crear, probar e implantar sus aplicaciones en la nube o en soluciones locales.

¿Quién debe utilizar Tekton?

Los ingenieros de plataforma que construyen flujos de trabajo CI/CD para los desarrolladores de una organización encontrarán en Tekton un marco ideal para hacer este proceso más sencillo. Los desarrolladores también pueden crear flujos de trabajo CI/CD con Tekton para proyectos de desarrollo de software y aplicaciones. Esto les permite gestionar fácilmente las diferentes etapas del proceso de desarrollo, como las versiones de desarrollo, prueba y producción del producto, con una interferencia humana mínima.

¿Qué es lo siguiente?

Consulte la documentación oficial de Tekton y OpenShift Pipelines para obtener más información sobre cómo configurar pipelines de CI/CD que satisfagan las necesidades de su organización con facilidad.

¿Necesitas ayuda?

Ofrecemos Kubernetes y OpenShift formaciones y podemos ayudarle a comprar, desplegar y gestionar su
Entorno OpenShift en IBM Power Systems
.

Todo lo que necesita saber sobre Rancher: gestión de Kubernetes para empresas

Una de las innovaciones más valiosas que se han producido en la computación en nube es el uso de contenedores para ejecutar aplicaciones y servicios basados en la nube. Plataformas como Kubernetes han facilitado mucho la gestión de cargas de trabajo y servicios en contenedores en plataformas en la nube. Para los que no lo sepan, Kubernetes es una plataforma de código abierto para desplegar, gestionar y automatizar cargas de trabajo y servicios en contenedores.

Al ser de código abierto, Kubernetes tiene varias distribuciones entre las que puedes elegir si pretendes desplegar cargas de trabajo en la nube. Una de las distribuciones que elige es Rancher. Si quieres saber más sobre Rancher y cómo se compara con otras distribuciones de Kubernetes, este artículo es para ti. Hablaremos de lo que es Rancher, de sus principales características, de por qué debería usarlo y de cómo se compara con otras alternativas. Vamos a sumergirnos.

suse rancher que es

¿Qué es el ranchero?

Rancher es una pila de software que se utiliza para gestionar clústeres Kubernetes. Se trata básicamente de un software que DevOps puede utilizar al adoptar el usuario de contenedores. Rancher incluye una distribución completa de Kubernetes, Docker Swarm y Apache Mesos, lo que facilita la gestión de clústeres de contenedores en cualquier plataforma de nube. Algunas de las empresas populares que utilizan Rancher son: Alibaba travelers, Abeja, Trivago, UseInsider, Starbucks, Oxylabs, yousign, y muchas más.

Rancher ha sido comprado recientemente por SUSE, y esta adquisición cambiará significativamente su dirección. SUSE ya tenía su solución de gestión de contenedores, pero después de adquirir Rancher, lo más probable es que se desvíe de su solución inicial y se centre en hacer de Rancher un software mucho mejor.

Una de las ventajas significativas de Rancher es la capacidad de gestionar múltiples clústeres Kubernetes de forma simplificada. Ofrece una gestión simplificada de múltiples clústeres Kubernetes que pueden ser creados manualmente utilizando la distribución de Kubernetes de Ranchers llamada RKE (Rancher Kubernetes Engine) o importados en el panel de gestión del gestor de clústeres.

Además de Rancher Kubernetes Engine (RKE), Rancher ha iniciado otros proyectos innovadores, y uno de ellos es el K3S, un panel de control de Kubernetes más sencillo que se utiliza principalmente en la computación de borde. Ahora que SUSE se ha hecho con Rancher, esperamos que lo mejoren aún más para convertirlo en una plataforma Kubernetes completa.

Características de la ranchera

Algunas de las principales características de Rancher son las siguientes

  • Aplicación del catálogo Docker
  • Distribución de Kubernetes incluida
  • Distribución de Docker Swarm incluida
  • Distribución de Mesos incluida
  • Gestión de infraestructuras
  • Algunas de las características clave de Rancher son las siguientes;
  • Gestión de hosts, despliegue de contenedores, supervisión de recursos
  • Gestión de usuarios y colaboración
  • APIs y herramientas nativas de Docker
  • Control y registro
  • Conectar contenedores, gestionar discos, desplegar balanceadores de carga

¿Por qué utilizar Rancher?

Con varias otras distribuciones de Kubernetes en el mercado, ¿por qué elegir Rancher? Veamos algunas de las principales ventajas/beneficios que plantea Rancher.

  • Es fácil de usar: Una de las razones por las que uno elegiría Rancher en lugar de cualquier otra plataforma Kubernetes es la interfaz de usuario web simplificada que hace que sea fácil hacer cualquier cosa que necesites. Es una plataforma con la que incluso los desarrolladores que no tienen tanta experiencia con Kubernetes pueden iniciarse fácilmente.
  • Se puede desplegar fácilmente en cualquier infraestructura de nube: Otra ventaja crítica que tiene Rancher sobre otras plataformas Kubernetes es su compatibilidad con diferentes plataformas en la nube; así, puedes desplegarlo rápidamente en cualquier infraestructura en la nube.
  • Simplifica la gestión de los clústeres: Rancher es probablemente la mejor opción para gestionar varios clústeres de Kubernetes desde una sola interfaz. Su capacidad para gestionar múltiples clusters es uno de los puntos fuertes significativos que se construyeron en el núcleo de Rancher.
  • Incluye balanceo de recursos y monitorización automáticas: Esta es una de las principales características que se incluyen en Rancher, que es muy útil si usted tiene la intención de desplegar un sistema que probablemente obtendrá un gran tráfico.
  • Es de código abierto y totalmente gratuito: RKE, K3s y todos los demás productos de Rancher son de código abierto y de uso gratuito para cualquiera. Si no tiene un presupuesto para gastar en un software de gestión de contenedores, entonces Rancher es la mejor opción para usted. Sin embargo, para obtener el apoyo de los laboratorios Rancher tendrá que pagar algo de dinero.

Cuándo no usar el Rancher.

A pesar de tener muchas ventajas, hay ciertos escenarios en los que es aconsejable no utilizar Rancher. A continuación se indican algunas de las situaciones en las que debería evitar el uso de Rancher.

  • Si está interesado en productos más maduros: En comparación con otras plataformas Kubernetes como OpenShift, Rancher es bastante nuevo y aún está evolucionando. Si eres de los que adoran utilizar productos ya maduros que no experimentan ningún cambio radical, puede que te decepcione Rancher.
  • Si no tiene intención de utilizar múltiples clusters: Uno de los principales puntos fuertes que tiene Rancher sobre otras distribuciones de Kubernetes es su capacidad para gestionar múltiples clústeres de contenedores desde una sola interfaz. Para aquellos que gestionan clústeres individuales, es probable que no le den un buen uso a Rancher, por lo que es mejor que elijan otra plataforma.

Cómo se compara Rancher con otras alternativas como OpenShift

Una de las principales fortalezas que tiene OpenShift sobre Rancher es que es una plataforma madura y cuenta con el apoyo total de Red Hat. Si ya estás en el ecosistema de Red Hat, tu opción obvia para gestionar contenedores debería ser OpenShift. Rancher también tiene soporte de Rancher Labs, pero no es tan fiable como el de Red Hat. El uso de Rancher es más lógico si se pretende gestionar varios clusters de contenedores.

Conclusión

Rancher es una excelente herramienta para gestionar y automatizar los clústeres de Kubernetes. También tiene un montón de características útiles que usted puede tomar ventaja de, especialmente si usted está administrando múltiples clusters Kubernetes.

La capacidad de gestionar todos sus clusters desde un solo lugar es una de las razones por las que debería elegir Rancher en lugar de cualquier otra plataforma si tiene la intención de gestionar varios clusters. Rancher también es muy fácil de aprender y utilizar, por lo que los nuevos Kubernetes usuarios pueden empezar rápidamente con Rancher.

¿Necesita formación, consultoría o arquitectura?

Somos socios comerciales de SUSE y Red Hat. Podemos ayudarle a desplegar PoCs tanto de Rancher como de OpenShif para que pueda evaluar y probar ambas soluciones. También hemos desarrollado algunas formaciones prácticas de Docker / Kubernetesy OpenShift 4 que pueden ser de su interés.

red hat openshift plus edition

Red Hat OpenShift Platform Plus: ¿Cuales son las novedades?

Openshift Platform Plus es el último miembro de la familia OpenShift. La solución PaaS de Red Hat para aplicaciones basadas en Kubernetes. Se ha anunciado junto con la versión 8.4 de Red Hat Linux. Gracias a Red Hat Openshift Plus, las organizaciones pueden, por un ligero coste adicional (del que hablaremos más adelante) gestionar no solo las aplicaciones, sino también sus políticas y configuraciones de seguridad, independientemente de dónde se encuentren sus aplicaciones, ya que incluye un nuevo soporte integrado para el ciclo de vida de las aplicaciones en entornos multiclúster, así como la posibilidad de crear clústeres de tan solo 3 nodos o incluso con nodos “trabajadores” remotos que permiten ampliar los clústeres de Kubernetes a casi cualquier ubicación, lo que incluye instalaciones con poca potencia disponible.

red hat openshift plus edition

¿Qué incluye OpenShift Platform Plus?

  • MotorKubernetes (capa base de OpenShift en el sistema operativo Linux)
  • Orquestación/control de gestión(Red Hat Advanced Cluster Manager for Kubernetes-ACM)
  • Protocolos de seguridad(Red Hat Advanced Cluster Security for Kubernetes-ACS)
  • Software de registro(Red Hat Quay)

OpenShift Platform Plus proporciona todas las características de base, gestión y seguridad en un solo paquete, que estaban disponibles por separado a sus precios. Advanced Cluster Security (ACS) se añadió a Openshift tras la adquisición de StackRox, un proveedor de seguridad nativo de Kubernetes.

Multi-nube y preparado para CI/CD

OpenShift ofrece una solución de configuración completa para crear un entorno o ejecutar una aplicación basada en contenedores en una nube híbrida o en una infraestructura de servidor local. Openshift ofrece dos tipos son infraestructura de aplicaciones de contenedores, es decir, gestionada y autogestionada. Las plataformas gestionadas son servicios basados en la nube con todas las funciones, como Azure, IBM, AWS y Google Cloud. Al mismo tiempo, las plataformas autogestionadas son altamente personalizables, pero requieren un equipo altamente cualificado para cada parte del despliegue.

OpenShift evolucionó con el tiempo e incluyó características críticas para mejorar la funcionalidad. Al principio, se introdujo OpenShift Kubernetes Engines, que incluye el tiempo de ejecución de Enterprise Kubernetes, el sistema operativo de contenedores inmutables Red Hat Enterprise Linux CoreOS, la consola del administrador y Red Hat OpenShift Virtualization. Luego viene la plataforma de contenedores OpenShift aumentada con la consola del desarrollador, la gestión de registros y costes, OpenShift Serverless (Knative), OpenShift Server Mesh (Istio), OpenShift Pipelines y OpenShift GitOps(Tekton, ArgoCD). Con todas las características disponibles anteriormente, OpenShift Platform Plus viene con características adicionales.

Características de la plataforma OpenShift Plus

Gestión avanzada de clústeres de Red Hat para Kubernetes

Es una opción de control de gestión avanzada de OpenShift. Proporciona a los clientes un acceso completo a la gestión unificada de múltiples clústeres (edición de los clústeres en nubes públicas o privadas, asignación de recursos para los clústeres y resolución de problemas en todo el dominio desde una única disposición) a través de la consola web de Openshift. Además, proporciona una gestión basada en políticas que incluye la estandarización de los parámetros de las políticas para la seguridad, la aplicación y el marco de la infraestructura.

Las aplicaciones pueden desplegarse en la red mediante una gestión avanzada del ciclo de vida de las aplicaciones. También ayuda a controlar el flujo de aplicaciones en los nodos, la gestión de la configuración del día 2 mediante Ansible. El objetivo de Advanced Cluster Management (ACM) es proporcionar soluciones de salud del clúster relacionadas con el almacenamiento, la optimización y la resolución de problemas. Las herramientas de monitorización de OpenShift están bien diseñadas para operar con facilidad y eficiencia.

Red Hat Advanced Cluster Security for Kubernetes (ACS)

ACS se incorporó a la familia OpenShift tras la adquisición de StackRox, potenciando el ACS como componente principal de OpenShift Platform Plus. Esta característica de seguridad es diferente de las medidas de seguridad implementadas anteriormente. Anteriormente, los protocolos de seguridad se aplicaban después de desarrollar la aplicación. ACS ofrece la inclusión de la seguridad desde el principio, es decir, en el código base. Las funciones de seguridad avanzadas aumentan cada paso del ciclo de vida del desarrollo de aplicaciones.

La seguridad avanzada de los clústeres sigue los estándares internacionales de seguridad de los contenedores, como las referencias del CIS y del NIST. Los protocolos de seguridad incluyen la seguridad contra la violación de datos, la protección de la red, la eliminación de puntos ciegos, la reducción de tiempo y costes mediante la aplicación eficaz de los códigos de la política de seguridad, la evitación de conflictos operativos, el solapamiento de datos y la redundancia. ACS es una ejecución perfecta de los protocolos DevSecOps.

Red Hat Quay

Un registro de contenedores es una plataforma de almacenamiento utilizada para almacenar contenedores para Kubernetes y otros desarrollos de aplicaciones basados en contenedores como DevOps. Cuando se forma una aplicación de contenedor, se crea su imagen. Es una especie de archivo .exe que contiene todos los archivos y componentes para una instalación exitosa. Cuando una imagen de contenedor se coloca en otras plataformas, se utiliza para crear la misma aplicación de contenedor. Una imagen de contenedor es una plantilla utilizada para crear más aplicaciones.

Red Hat Quay es un registro privado de contenedores utilizado para crear, distribuir y almacenar imágenes de contenedores. Cuando la imagen del contenedor se comparte en el repositorio de la red, aparecen vulnerabilidades específicas. RedHat Quay utiliza la seguridad Clair para hacer frente a estas vulnerabilidades proporcionando estrictos controles de acceso, protocolos de autenticación y otras cuestiones de distribución.

Características de RedHat Quay

  • Cada imagen está etiquetada con la marca de tiempo; RedHat Quay ofrece Time Machine para etiquetar la versión de la imagen y la capacidad de reversión como la degradación o la restauración de la configuración de fábrica. Proporciona un historial configurable de 2 semanas para las etiquetas de las imágenes.
  • La distribución geográfica garantiza imágenes rápidas e impecables utilizando redes de distribución de contenidos (CDN) para que cada punto de acceso tenga su repositorio cercano. RedHat Quay también utiliza la tecnología BitTorrent para reducir el tiempo de espera para la disponibilidad de contenidos.
  • La recolección de basura de recursos en tiempo de ejecución ayuda a identificar las operaciones inútiles o menos utilizadas para optimizar el uso de los recursos y aumentar la eficiencia.
  • RedHat Quay ofrece almacenamiento ilimitado para múltiples colecciones de imágenes.
  • Activación automatizada de la canalización de integración continua/entrega continua (CI/CD)
  • Auditoría basada en registros mediante el escaneo de APIs e interfaces de usuario
  • Los protocolos de autenticación que utilizan LDAP, OAuth, OIDC y keystone garantizan un registro seguro y un control de acceso jerárquico de la organización.
  • La automatización de la cuenta proporciona la creación de las credenciales necesarias para ejecutar el programa.
  • Adaptabilidad multiplataforma

Precios de RedHat OpenShift Platform Plus

Se considera que las funciones avanzadas de OpenShift Platform Plus estarán disponibles entre abril de 2021 y junio de 2021. El precio actual aún no está disponible. OpenShift.io es una plataforma gratuita para el despliegue en la nube. El coste de la Plataforma Plus depende del tamaño y de la suscripción. Según Capterra, cada función Plus cuesta 20 dólares al mes en los planes autogestionados. Una mejor manera de leer y elegir un modelo de suscripción, y contactar con nuestro departamento de ventas. También puede solicitar una demostración de OpenShift Plus de forma gratuita.

Formación y servicios profesionales de RedHat OpenShift Platform

Ofrecemos cursos de Kubernetes y OpenShift asi como servicios de venta, instalación y soporte técnico para OpenShift en IBM Power Systems. Contáctenos para más información

Nuevos cursos de IBM QRadar actualizados a la versión 7.4.2

De todos los cursos de IBM, quizás los más demandados y valorados por clientes y socios de IBM son los de QRadar SIEM. Por eso, a partir del mes de Junio de 2021 estarán disponibles los nuevos cursos oficiales: QRadar SIEM Fundamentals (BQ104G) y QRadar SIEM funcionalidades avanzadas (BQ204G) También hemos actualizado nuestro taller práctico de pre-venta, arquitectura, despliegue y configuración inicial a la versión 7.4. Desde 2014 hemos formado a más de 35 clientes y 400 alumnos de 20 países diferentes en esta increíble tecnología. Hemos transmitido toda nuestra experiencia práctica en proyectos reales y hemos ayudado a superar con éxito las certificaciones oficiales.

¿Qué es QRadar?

La solución lider en el mercado para la prevención, detección y remediación de incidentes de seguridad. Cientos de SOCs (Centros de Operaciones de Seguridad) de todo el mundo basan sus capacidades en la tecnología desarrollada por Q1 Labs y adquirida por IBM en 2011 para completar sus capacidades de ciberseguridad. QRadar nos permite poner en relación eventos que van desde la seguridad física (controles de acceso), lectores de tarjetas de identificación, dispositivos OT pasando por la infraestructura de servicios desplegada en la nube o hasta los registros de la actividad diaria de los usuarios. Sus capacidades permiten analizar miles de eventos por segundo para garantizar que nuestra organización no solo está segura, sino que se cumplen las normativas y legislaciones aplicables de cada sector. QRadar tiene además alianzas estratégicas con Juniper Networks, Enterasys, Nortel, McAfee, Foundry Networks y 3Com entre otras compañías. El producto es tan potente que muchas de estas compañías venden sus propios SIEM basados en la tecnología de QRadar.

¿Qué novedades hay?

En el último año y medio muchas cosas han ido cambiando. Desde el interfaz de usuario que ha sido totalmente renovado, hasta nuevas aplicaciones que permiten analizar los incidentes de una manera totalmente automatizada. Por ejemplo la aplicación QRadar Advisor con Watson (IA de IBM) asigna automáticamente las tácticas y técnicas disponibles en la base de datos MITRE ATT&CK a reglas internas de QRadar. A través de un novedoso panel de monitorización se puede ver las técnicas empleadas por los atacantes y su relación con los incidentes de seguridad abiertos.

La nuevas versiones permiten usar los consejos y pistas que nos da IBM QRadar Use Case Manager (anteriormente QRadar Tuning app) para ayudarnos a optimizar la configuración y ajuste de las reglas de QRadar, manteniéndolas siempre actualizadas y listas para cuando sean necesarias.

 

¿Y las certificaciones?

Llevamos mucho tiempo tanto ayudando a preparar los exámenes oficiales de IBM en las tecnologías que enseñamos. Por eso hemos decidido que desde Junio de 2021, vamos a incluir sin coste adicional una jornada de preparación para las certificaciones en todos los cursos privados que se nos contraten con al menos 4 alumnos inscritos.

Quiero inscribirme en un curso

Contáctanos y en menos de 24h recibirás una oferta. Todos los cursos se imparten tanto presencialmente como a distancia. Nuestros instructores hablan inglés, francés y español.

¿Necesitas más ayuda?

En Sixe Ingeniería somos BP de seguridad de IBM. Vendemos, instalamos y ofrecemos soporte técnico de IBM QRadar SIEM. También realizamos formación, seminarios y charlas técnicas a medida. También te asesoramos con las licencias y la definición de la arquitectura que necesitas sin coste adicional. Solicita una demostración del producto sin compromiso.
SiXe Ingeniería