Inscríbete en nuestro webinar gratuito de Red Hat OpenShift 4.6

En Sixe Ingeniería queremos dar a conocer la última versión de Red Hat Openshift Container Platform 4.6. Nuestra tecnología predilecta para cargas de trabajo basadas en contenedores y de PaaS (Plataforma como Servicio) en general. Por ello ofrecemos a todo el mundo hispanohablante una vez al mes un curso intensivo en formato webinar impartido en español y totalmente gratuito. Comenzaremos desde cero y no hace falta experiencia previa en docker ni en kubernetes (tecnologías de las que hablaremos brevemente durante la formación).

La próxima edición será el Martes 19 de Enero de 2021 a las 16:oo de Madrid, 9:00 en México DF y 10:00 en Bogotá. 

 

En este primer webinar hablaremos de las arquitecturas de referencia existentes, de su relación con Kubernetes y de las posibilidades que tenemos para su instalación. Abarcaremos tanto despliegues en nuestro centro de datos como en nuestro proveedor de cloud favorito (Google, Azure, AWS, IBM). Sin olvidarnos de los entornos mixtos también conocidos como de cloud híbrida, donde elegimos que aplicaciones desplegaremos “on-premises” y cuales “off-site” o directamente en la nube. Discutiremos sobre los costes de la solución, las capas de seguridad disponibles y también debatiremos sobre los últimos casos de éxito entre nuestros clientes. Este taller está basado en nuestro popular curso de despliegue y operaciones, del que tomaremos prestados algunos ejemplos que te permitirán comprender mediante unas breves demostraciones en directo, el potencial de esta tecnología.

Agenda del seminario online

  • Presentación de Red Hat OpenShift 4.6
  • Arquitectura de Red Hat OpenShift Container Platform
  • Despliegue de la solución
  • Novedades y migración desde versiones anteriores
  • Casos de éxito.. y de fracaso (spoiler: ninguno cliente nuestro xD)
  • Debate abierto, ruegos y preguntas.

Aunque se trata de un seminario online, las plazas son limitadas. Inscríbete ahora mismo. Te enviaremos un correo unos días antes con todos los detalles y la información necesaria para conectarse.

 

Mitos y verdades sobre la seguridad en Red Hat OpenShift

Muchos de nuestros clientes están planeando empezar a usar Red Hat OpenShift, nuestra plataforma de orquestación de contenedores predilecta. Sus ventajas se pueden resumir en que permite una una progresiva modernización de las aplicaciones existentes y el despliegue de muchas otras que, para qué negarlo, con un diseño basado en micro-servicios se van imponiendo en muchas las nuevas arquitecturas de TI. El solo hecho de pensar en no tener que “preparar” nunca más una máquina (instalar sistema operativo, configurar red, seguridad, instalar librerías y software dependiente) cada vez que queremos desplegar un entorno justifica darle una oportunidad a esta tecnología.

Kubernetes es a los contenedores lo que OpenStack fue a los entornos Cloud. Una solución de código abierto, que permite compartir una parte de la infraestructura disponible en nuestros centros de datos: servidores, redes, almacenamiento en pools de recursos sobre los que desplegar, de manera automática diversas cargas de trabajo. A través de un portal de auto-provisionamiento, nuestros desarrolladores podrán no solo desplegar los entornos que necesiten para que sus aplicaciones funcionen perfectamente, sino también comprobar de manera automática y de manera continua, que esas aplicaciones funcionan correctamente. Si el “commit” de un desarrollador a última hora del día, provoca un fallo, se puede volver a la versión del día anterior sin que nadie tenga que intervenir.

Si a esto le sumamos la capacidad de hacer despliegues paulatinos, donde un porcentaje pequeño de los usuarios disfruten de una nueva versión de nuestra aplicación mientras el resto siguen utilizando la última versión estable; una alta disponibilidad que funciona sin ninguna configuración adicional, la asignación de recursos (desarrolladores, memoria, CPU, espacio en disco, asignación de direcciones IP) por proyecto o la capacidad de medir en tiempo real qué parte de nuestra infraestructura estamos usando, con qué nivel de eficiencia y con qué resultados, pocos responsables de sistemas dirán que no a semejante maravilla. Sin olvidarnos de la posibilidad de escalar automáticamente las aplicaciones añadiendo o eliminando contenedores según se necesite.

Por suerte o por desgracia, ya no todo está en la mano de los responsables de sistemas. ¿Qué ocurre con la seguridad? ¿Qué opinan los CISOs? Toca repasar algunos “mitos”.

OpenShift es tremendamente seguro por diseño. En nuestra opinión, su tecnología básica (los contenedores) es tan segura, como lo sea el Kernel de Linux en cada momento. Es decir, los procesos de los contenedores están separados por “namespaces” del kernel de linux, los recursos que usan por “cgroups” y la seguridad de los mismos y su contexto por SELinux. Es potente, si, pero no dejamos de estar compartiendo en cada uno un kernel entre muchos contenedores.. y el kernel hay que parchearlo, también por motivos de seguridad. La inclusión de RHCOS (Red Hat Core OS) nos ha permitido avanzar mucho en estos últimos tiempos en cuanto a la seguridad del sistema operativo sobre el cual corre esta distribución de Kubernetes. Ahora bien, dado que los nodos del RHCOS están destinados a funcionar sin apenas cambios, es importante que cualquier mejora relacionada con la seguridad de esos nodos se haga con extremado cuidado.. no vaya a ser que consigamos el efecto contrario.

Las imágenes que descargamos están siempre verificadas y su código auditado por Red Hat.  Bueno, en realidad el acceso a las imágenes de contenedor (descargadas o propias) se gestionan de manera similar a los RPMs. Existe repositorios públicos o privados a los que nos conectamos, con sus claves y sus firmas. Las vulnerabilidades siguen saliendo todos los días así que necesitamos tener algún tipo de solución que supervise los contenidos de las imágenes de contenedor disponibles en nuestros repositorios, en especial las imágenes descargadas e instaladas en nuestro entorno.

OpenShift es compatible con Artifactory de JFrog, Black Duck Hub y Docker Trusted Registry. También se puede usar Red Hat CloudForms SmartState para marcar las imágenes vulnerables de tal manera que OpenShift evite que esas imágenes sean usadas. También son útiles para las aplicaciones que realizan pruebas de seguridad de aplicaciones estáticas (SAST) y pruebas de seguridad de aplicaciones dinámicas (DAST), como HP Fortify y IBM AppScan.

OpenShift tiene un sistema de autenticación robusto y seguro. En realidad cada cluster de OpenShift usa cuentas de usuarios, grupos y roles.

Para gestionar el acceso que cada usuario tiene a los componentes de OpenShift y ser capaz de verificar la identidad de cada usuario, el cluster se conectará a diferentes proveedores de identificación (OpenID, LDAP, Active Directory, Github, etc). Cada uno de los cuales tendrá su propia configuración, ventajas e inconvenientes.

El aislamiento de redes y comunicaciones entre proyectos de OpenShift es suficiente. Es robusto, pues está basado en los componentes de red de Kubernetes, pero existen operadores y plug-ins que nos pueden ayudar a aislar las diferentes redes o dar accesos dedicados a ciertas tarjetas de red usando tecnologías como SR-IOV. Plugins como Multus-CNI que permiten esta y otras funciones, complementando las características del Operador de Red del Clúster (CNO), los CNI’s “Container Network Interfaces” y CoreDNS .

¿Te interesa saber más sobre OpenShift? Quizás te interese nuestro curso de Red Hat OpenShift 4.X en formato intensivo de tres días. También ofrecemos formación oficial de IBM si lo que quieres es desplegarlo servidores IBM Power Systems.

 

Despliega OpenShift 4.6 en cinco minutos en tu propio portátil o servidor

Quizás uno de los retos a la hora de aprender sobre Red Hat OpenShift, es disponer de un buen entorno de pruebas para comprender bien la plataforma, poder desplegar aplicaciones de prueba y familizarizarse tanto con el GUI como con la línea de comandos. Si bien un cluster mínimo a partir de la versión 4 de OpenShift, require de al menos 6 nodos, existe un sistema todo-en-uno llamado Red Hat CodeReady Containers. Incluye un cluster mínimo de la última versión OpenShift 4 con una serie de ajustes para que funcione en una única máquina virtual que podemos desplegar en nuestros servidores de prubas, o incluso en tu propio ordenador portátil. Si bien se trata de un proyecto dirigido principalmente para los desarrolladores de software, pero que nos sirve perfectamente, para aprender a configurar y administrar esta plataforma.

¿Qué otras diferencias existen?

  • Solo hay un nodo, que actúa como “master” y “worker” a la vez. Verás muchos mensajes de “warning” pero no es un problema.
  • Los Operadores de Kubernetes están deshabilitados. También la monitorización para ahorrar recursos.
  • No se puede actualizar a versiones nuevas de OpenShift. Aunque esto no es un problema porque podemos descargar y ejecutar las nuevas versiones de esta máquina virtual que Red Hat va publicando regularmente.
  • Se trata de un entorno que hay que recrear cada cierto tiempo. Red Hat recomienda hacerlo una vez al mes, pero en nuestra experiencia práctica, cada dos o tres días de uso, se va volviendo cada vez más lento y es necesario destruirlo y volver a crearlo.
  • Como se ejecuta dentro de una máquina virtual, puede que nos toque hacer alguna configuración adicional de la red a mano.

¿Cuales son los requisitos de HW y SW?

  • Última versión de Red Hat o Centos 7.X o 8.X. Nosotros preferimos Centos pues la configuración es más rápida.
  • 4 virtual CPUs (vCPUs)
  • 8 GB de memoria RAM
  • 35 GB de espacio en disco.

Si nada de esto te supone un problema, puedes descargar aquí la imágen. Ten en cuenta que necesitas una cuenta de desarrollador de Red Hat (gratuita).

Verás que además de seleccionar el sistema operativo (hay una imágen para cada tipo de “Hypervisor”), también existe un “secret”, esto no deja de ser una especie de clave-licencia, que nos pedirá durante la creación del entorno virtual. No la descargues aún, pero anota el “pull secret” en un bloc de notas o similar.

Si estamos desplegando el entorno en Red Hat Linux, necesitaremos ejecutar estos dos comandos para instalar y activar el NetworkManager:

$ su -c ‘yum install NetworkManager’

$ su -c ‘sytemctl start NetowrkManager’

También añadiremos un usuario no administrador con permisos de sudo, imprescindible para que todo funcione correctamente.

$ useradd crc

$ passwd crc

$ vi /etc/sudoers

## Allow root to run any commands anywhere

root    ALL=(ALL)       ALL

crc     ALL=(ALL)       ALL      

Con este usuario, descargaremos Code Ready Containers y lanzaremos el configurador del entorno.

$ su – crc

$ cd /home/crc/

$ wget https://mirror.openshift.com/pub/openshift-v4/clients/crc/latest/crc-linux-amd64.tar.xz

$ tar -xvf crc*.xz

$ mv crc-linux-1.xxx-amd64/* /home/crc/bin/

$ crc setup

Esto último es un truco necesario para que funcionen correctamente los DNS

$ crc start -n ‘8.8.8’

Al cabo de unos minutos deberías ver este mensaje.

To access the cluster, first set up your environment by following ‘crc oc-env’ instructions.

Then you can access it by running ‘oc login -u developer -p developer https://api.crc.testing:6443’.

To login as an admin, run ‘oc login -u kubeadmin -p dpDFV-xamBW-kKAk3-Fi6Lg https://api.crc.testing:6443‘.

Necesitas configurar una serie de variables de entorno con

$ eval $(crc oc-env)

Ahora puedes registrarte como administrador:

$ oc login -u kubeadmin -p dpDFV-xamBW-kKAk3-Fi6Lg https://api.crc.testing:6443

.. o como desarrollador:

$ oc login -u developer -p developer https://api.crc.testing:6443

Si no tienes entorno gráfico instalado en este servidor, no podrás acceder al entorno web (via crc console), pero puedes usar el Firefox de cualquier otro sistema donde tengas Linux instalado.

Es necesario que copies el contenido de /etc/hosts del servidor donde hayas instalado OpenShift al final de tu fichero local /etc/hosts

A continuación deberás abrir una VPN por ssh desde un entorno de escritorio como Ubuntu hasta el servidor donde hayas desplegado OpenShift

$ sudo apt-get install sshuttle

$ sudo sshuttle -r root@remote-server-ip -x remote-server-ip 0.0.0.0/0 -vv

Y ahora, si abres el navegador y accedes a https://console-openshift-console.crc.testing verás el GUI

 

Si necesitas saber más, tenemos cursos prácticos tanto de Docker y kubernetes como de OpenShift. Consúltanos sin compromiso.

Cinco cosas que debes saber sobre nuestros servicios de laboratorio

Si su empresa necesita ayuda técnica de completar con éxito sus proyectos de infraestructura y servicios para centros de datos ha acudido al lugar correcto. Nuestros servicios de despliegue y laboratorio de sistemas ayudan a las organizaciones de todo el mundo a desplegar los componentes básicos de la infraestructura de TI de última generación, desde servidores y hasta sistemas de almacenamiento y software.

A través de breves contratos de consultoría, formación o servicios, ayudamos a los clientes y socios de IBM, Lenovo, SUSE y Red Hat a implementar, optimizar y adquirir habilidades necesarias para sacarle el máximo provecho a las nuevas soluciones de cloud privada, pública, infraestructuras cognitiva y entornos críticos en general. Nuestros consultores aportan una gran experiencia en TI así como conocimientos clave para ayudar a las empresas a sacar el máximo provecho de sus inversiones en tecnología.

Todos nuestros servicios servicios se proporcionan tanto de forma virtual o en sus instalaciones en cualquier lugar del mundo.

Si nunca ha trabajado con nuestros servicios profesionales aquí tiene cinco puntos clave que debe saber sobre nosotros:

1. Ofrecemos toda su experiencia técnica.

Somos un equipo global de consultores técnicos con experiencia en IBM Power Systems, IBM Storage y Lenovo así como en AI, nube y seguridad. Nuestros equipos aprovechan los profundos conocimientos técnicos, junto con herramientas y metodologías probadas durante muchos años y cientos de proyectos.

Tanto si su organización busca desplegar servidores de alto rendimiento para iniciativas de multi-cloud, IA, blockchain y análisis; asegurar sus datos con soluciones de almacenamiento físicas y de software definidas; o maximizar sus inversiones en infraestructura con software para ayudarle a acelerar las cargas de trabajo y simplificar la administración, podemos ayudarle.

2. Diseñamos nuevas soluciones junto con nuestros clientes y socios tecnológicos

Apostamos por una estrategia de cooperación para desarrollar nuevos modelos de negocio, productos y servicios. Colaboramos con su organización, con los equipos de desarrollo de productos y con otras empresas que también presente servicios a su organización para diseñar y ofrecer la solución innovadora que su negocio necesita para ganar y crecer en el mercado.

Juntos, siguiendo un enfoque ágil, evaluamos su entorno y necesidades actuales, definimos una hoja de ruta y diseñamos e implementamos la solución más valiosa para y con usted, para que al final su equipo esté totalmente capacitado para gestionar el entorno y la solución.

3. Ayudamos a nuestros clientes a adquirir nuevas habilidades que les permitan estar preparados para el futuro.

Estés migrando a un nuevo hardware, adoptando soluciones de almacenamiento para la IA o diseñando una infraestructura multi-cloud para las transacciones de la empresa, no sólo abordamos el desafío actual sino que también transferimos habilidades y conocimientos a tu equipo.

La transferencia de habilidades es un componente clave de nuestro modelo de compromiso que ayuda a asegurar que nuestros clientes tengan la competencia necesaria para gestionar sus soluciones en el futuro.

4. Ofrecemos formación técnica.

Nuestros cursos y talleres prácticos tienen lugar en todo el mundo durante todo el año para proporcionar formación a clientes y socios. Ofrecemos regularlmente sesiones de formación específicas y exhaustivas impartidas por ingenieros, desarrolladores o expertos en nuestros productos favoritos de IBM, Lenovo, Red Hat y SUSE para ayudar a nuestros clientes y socios a aprender, crecer y conectarse con desarrolladores, líderes de la industria y ejecutivos de las empresas con las que trabajamos.

5. Ayudamos a nuestros clientes a adoptar soluciones híbridas de cloud y de inteligencia artificial de última generación.

Hemos ayudado a numerosos clientes a diseñar infraestructuras híbridas multi-cloud y a implementar aplicaciones empresariales de IA. Comprendemos los desafíos que los clientes enfrentan en torno a la nube híbrida y podemos servir como asesores de confianza en cualquier etapa del viaje a la nube – desde el diseño hasta la gestión y la optimización. Esto incluye el apoyo para ayudar a las empresas a trasladar las aplicaciones a la nube de manera más fácil y, sobretodo,  segura.

 

 

No te la juegues: fórmate en IBM y Red Hat con SiXe

Sixe Ingeniería está formada exclusivamente por ingenieros especialistas en soluciones para centros de datos y ciberseguridad. Somos socios de negocio de fabricantes como IBM, Red Hat, HCL, SUSE, o Lenovo e impartimos todos los cursos que ofrecemos directamente. ¿Y el resto?

Bueno, en verdad, si buscas por internet cursos sobre muchas de las tecnologías con las que trabajamos, verás multitud de empresas, cientos de códigos, temarios, ofertas y formularios de contacto. Son empresas que ni tienen personal técnico en plantilla ni muchas veces conocen en profundidad los productos de los que venden formación. Si tienen contactos, personal comercial y una amplia red de “colaboradores”, como lo fuimos nosotros cuando estudiábamos en la universidad, hace ya muchos años.

¿Qué tiene de malo? Bueno, a nuestros clientes les contamos siempre la misma anécdota. Cuando vas a un restaurante, y en la carta aparecen 200 platos de todo tipo: carnes, pescados, pasta, sushi. ¿Te da confianza? ¿Cómo sabes que lo han cocinado ellos y que está fresco? En la formación técnica y en los proyectos de tecnología suele ocurrir lo mismo. Vivimos en un mundo donde se valora más tener un buen contacto dentro de una empresa que te “compre cosas” que una ingeniería o veinte años de experiencia de campo. Dinero rápido y fácil. Compro por 10 vendo por 20. ¿Os suena? Y si el puente se cae, que se caiga.

Es habitual que, cuando el curso se vende, comience una suerte de subasta en busca del instructor más barato. En los casos de formación no oficial, esta persona estará a cargo de proporcionar materiales, laboratorios, soporte técnico y hasta en elegir un lugar para desayunar si se tercia. Nos ha pasado muchas veces, y hace años, hasta aceptábamos por eso de tener la manía de comer todos los días :-)

¿Qué puede salir mal? Todo. La elaboración de cursos lleva tiempo, recursos. Los laboratorios complejos no se montan en una tarde. Los cursos hay que probarlos, depurarlos, mejorarlos con el feedback de las diferentes sesiones. Como todo en la vida, al final, lo barato, puede salir muy caro: cursos que se tienen que repetir, formaciones que no logran objetivos, instructores que no han participado en proyectos reales con la tecnología que enseñan y un largo etcétera.

Durante muchos años, nosotros fuimos ese último eslabón de la cadena. Instructores fiables a los que llamaban cuando había un problema o  existía un compromiso con un cliente crítico que se podía perder. Tenemos miles de anécdotas, pero lo más común era que para “proteger” esa relación comercial, hasta que el Lunes por la mañana llegabas a dar el curso, ni sabías para quién era ni qué necesidades tenían. Otras veces te tocaba impartir un curso que había salido fatal y te habían llamado para repetirlo (sin avisarte). Las mejores eran las situaciones donde el curso que ibas a dar no era el que esperaban, pero se llamaba parecido. Alguna semana de vacaciones pagadas se lo debemos a esos comerciales (y a nuestros abogados).

Lo habitual es que cuando un cliente tiene una necesidad en alguna de las tecnologías que dominamos, nos suene el teléfono tantas veces, como empresas de formación contacten. Parece obvio, pero no hay tanta gente experta en cosas como AIX, Red Hat, Tivoli, QRadar, Spectrum Protect o PowerVM, que esté disponible para dar un curso de tres días o coger un avión mañana para ir a Dinamarca a realizar el seguimiento de un proyecto.

Con el paso de los años, y según nuestra empresa crecía, apostamos por un modelo radicalmente distinto. Negociamos con los diferentes fabricantes para impartir formación oficial y desarrollamos cursos propios en aquellas áreas donde detectamos demanda y no existían formaciones que las cubrieran. Restringimos nuestro portfolio a las soluciones que dominamos y empezamos a vender, siempre que podemos, la formación directamente. Nos toco aprender a ser además de instructores, pre-ventas, ingenieros de campo y hasta comerciales con diverso grado de éxito. En paralelo seguimos trabajando como proveedores de algunas empresas de formación que revenden nuestros cursos con un alto grado de profesionalidad, implicándonos desde el primer momento y recibiendo una comisión comercial justa. También participamos en proyectos internacionales como instructores independientes de ciertos fabricantes como IBM o Lenovo.

Nuestros clientes están más que contentos. Reciben formación oficial o a medida vendida directamente por las personas que la van a impartir. Les ofrecemos la posibilidad de personalizar los contenidos, incluir consultoría o usar laboratorios que simulan sus entornos de producción. Cuando la formación no es suficiente, podemos ayudarles con servicios profesionales y soporte técnico durante el tiempo que haga falta. Nunca dedicamos a formación más del 50% de nuestro tiempo así que estamos bastante al día en las tecnologías con las que trabajamos. Todo ello sin reproducir las dinámicas que no nos gustan de este sector y de las que hemos hablado anteriormente y garantizando que, si de algo no sabemos, ni vendemos soluciones, ni ofrecemos servicios, ni impartimos cursos. Las relaciones de confianza con nuestros clientes y socios tecnológicos son la base de nuestro negocio y esperamos seguir así muchos años.

¿Hablamos?

Instala en diez minutos la versión 7.3.3 de QRadar Community Edition

Tras una larga espera, por fin está disponible la versión gratuita de IBM QRadar SIEM.  Esta edición, llamada “Community” contiene todas las funcionalidades de QRadar SIEM y require poca memoria (funciona con apenas 8 o 10GB) comparado con los al menos 24G necesarios para un entorno mínimo de su versión comercial. También incluye una licencia que no caduca y permite instalar todo tipo de plugins y aplicaciones. El objetivo es su uso con carácter privado para aprendizaje, demos, test y fundamentalmente, desarrollo de aplicaciones compatibles con QRadar. Es por ello que sus capacidades están limitadas a la gestión de hasta 50 eventos (logs) por segundo y 5.000 paquetes de red por minuto, lo cual tampoco no esta nada mal :)

Hay que tener en cuenta que uno de los principales inconvenientes que no trae soporte para todos los dispositivos y entornos de la versión comercial. Si queremos monitorizar una base de datos, o un firewall, necesitaremos instalar cada uno de los módulos de manera manual

¿Cuales son los requisitos de hardware?

  • Memoria: 8 GB de RAM o 10 GB si se instalan aplicaciones, es decir, puede correr un un ordenador portátil moderno.
  • Disco: 250 GB aunque nuestra experiencia nos dice que con unos 30G es suficiente para entornos efímeros. El espacio se va usando conforme se mantiene en uso el SIEM. Si se crean y destruyen maquinas virtuales para pruebas cortas, no hace falta tanto.
  • CPU: 2 cores, pero 4 o 6 sería mejor aún.
  • Red: Acceso a Internet, una red privada y nombre de host FQDN.

¿Cómo se instala?

IBM proporciona para esta versión una imagen en formato OVA descargable desde este este enlace. Ya no tenemos que lanzar el instalador en un sistema CentOS creado por nosotros y con los habituales pequeños errores a corregir, lo cual se agradece. Solo hay que tener creada una cuenta de IBM, algo que se puede hacer en el momento y de manera gratuita. La imagen OVA se puede desplegar en VMWare, KVM o VirtualBox.

El proceso de instalación es rápido y sencillo como se muestra en el siguiente video:

New Free QRadar CE version 733New Free QRadar CE version 733

Tras lo cual, podéis empezar a explorar y trabajar siguiendo las pistas disponibles en la “Getting started guide”

Una vez el entorno está funcionando, se pueden instalar aplicaciones

QRadar CE 733 Add an App from the App ExchangeQRadar CE 733 Add an App from the App Exchange

E incluso monitorizar la red de nuestra casa: teléfonos, portátiles, sistemas de domótica, etc

Use The Free QRadar CE to Monitor your Home's Network (flows)Use The Free QRadar CE to Monitor your Home's Network (flows)

¿Quieres saber más de IBM QRadar SIEM?

Ofrecemos servicios profesionales (consultoría, despliegue y soporte), formación oficial y privada. También preparamos las certificaciones oficiales. Consúltanos sin compromiso.

 

Novedades en Red Hat OpenShift Platform 4.3

El pasado mes de Enero, Red Hat anunció la disponibilidad general de Red Hat OpenShift 4.3. Como todos sabéis OpenShift es la distribución de Kubernetes más popular y usada en todo el mundo. Si bien OpenShift tiene muchas e potentes características para entornos de DevOps, son las dudas relativas a la seguridad una de las principales preocupaciones de usuarios y clientes. Cuando ofrecemos nuestros cursos de formación en OpenShift bromeamos con que la regla en este “mundo” es características primero, seguridad después (si es que llega). Es por ello, que esta nueva versión, fundamentalmente se centra en mejorar en este ámbito, aunque también incluye mejoras en el almacenamiento y el interfaz de usuario.

Seguridad

OpenShift 4.3 ofrece por primera vez un cifrado conforme al estándar FIPS (Federal Information Processing Standard) y mejoras adicionales de seguridad para las empresas de todos los sectores con el objetivo de ayudar a proteger los datos confidenciales de los clientes con controles de cifrado más fuertes. También se busca mejorar la supervisión del control de acceso a través de nuevas características que tienen que ver con el acceso basado en roles y el control de autorizaciones de usuarios y aplicaciones en general.

Por otro lado, se puede instalar el módulo (operador de kubernetes) “Quay Container Security” que permite conocer las vulnerabilidades de nuestros PODs

openshift 4 quay image security integration

 

Almacenamiento

Este lanzamiento también coincide con la disponibilidad general de Red Hat OpenShift Container Storage 4, que ofrece mayor portabilidad, simplicidad y escala para las cargas de trabajo de los Kubernetes centradas en los datos. Red Hat OpenShift Container Storage 4, que está diseñado para ofrecer una almacenamiento multi-cloud a través de tecnologías de gateways entre los distintos proveedores (Amazon, Google, Azure). Esto es posible gracias a la solución de SDS (Software Defined Storage) de NooBaa, empresa adquirida recientemente por de Red Hat. De esta manera, los clientes pueden desplegar sus servicios en múltiples nubes públicas, mientras operan desde panel de control unificado que cubre no solo las aplicaciones sino también el almacenamiento.

Interfaz de usuario

La vista de la topología es una interfaz pensada para los desarrolladores, permitiéndoles no solo entender la estructura de sus aplicaciones, sino modificar su configuración e incluso la conectividad con otros servicios directamente desde la consola como se ve en la siguiente imagen. La vista de topología ha sido mejorada considerablemente, mostrando cambios en tiempo real.

Y permitiendo funciones como la modificación de la conectividad entre las aplicaciones y servicios, así como la eliminación de las mismos.

 

Suplantando usuarios

Imagina que eres un administrador de cluster donde hay miles de usuarios. En cuanto llegues a tu puesto de trabajo, lo más probable es que te llegue algún ticket donde un desarrollador se queja de tiene problemas con la consola o alguna de las funcionalidades de Red Hat OpenShift. Pues bien, desde la versión 4.3, es posible suplantar usuarios, o lo que es lo mismo hacernos pasar por el usuario que queramos. Usando sus roles y configuración específica podemos realizar las típicas tareas de resolución de problemas mucho más rápido y fácilmente.

Otras mejoras

Gracias al proyecto Tekton, en al versión 4.3 de OpenShift, los usuarios pueden activar las “pipelines” de cualquier aplicación. Una vez están asociadas, aparecerán en la vista de topología junto con sus logs en tiempo real. También se incluye por primera vez y a modo de technology preview el soporte para KNative, la tecnología server-less de kubernetes.

¿Quieres saber más?

En Sixe Ingeniería llevamos desde 2013 trabajando con OpenShift (versión 2.0). Ofrecemos servicios profesionales y formación privada. Ponte en contacto con nosotros y dinos qué necesitas.

 

 

 

Novedades en IBM QRadar SIEM versión 7.3.3 (hacia la 7.4)

La última versión de IBM QRadar SIEM, la V 7.3.3 es la release previa a la publicación de la esperada 7.4 para finales del primer trimestre de 2020. Incluye mejoras en el rendimiento, el flujo de trabajo de los analistas, la seguridad del producto, y, fundamentalmente, en la experiencia del usuario. La actualización es sencilla, a través de un script proporcionado por IBM que desde la consola, actualiza el conjunto del despliegue.

A continuación vamos repasar algunos elementos, que a nuestro juicio, hacen interesante actualizar a esta versión mientras se publica la ansiada 7.4 en los próximas meses.

Soporte para pares de claves y valores en el editor de DSM.

Hasta ahora, al crear un origen de log manualmente, necesitábamos hacer uso de expresiones regulares para extraer cada uno de los campos. Desde la versión 7.3.3 es posible usar simples delimitadores del tipo clave = valor. Esto va  un paso más allá de la mejora en el procesamiento de eventos en formato CEF y LEEF de QRadar 7.3.2 que permitía por primera vez detectar de manera automática nuevas propiedades. Además los usuarios con permisos, pueden dar de alta esa “custom properties” directamente desde el editor de DSM, ahorrando tiempo y facilitando el conjunto del proceso. Por último se ha implementado una opción para exportar las configuraciones de los nuevos orígenes de logs desde el mismo editor.

Mejoras en los flujos (flows)

Desde esta versión se detecta la información VXLAN que está presente en los paquetes que se envían a QFlow (a través de Azure vTap, Technocrat
o tarjeta de monitorización, o NIC) se extrae y se añade a los registros de flujo del QRadar.

Novedades en Network Insights

Si se dispone de Network Insights se ha mejorado el modulo que inspecciona las conexiones RDP detectando el tipo de encriptación utilizada y se ha añadido un módulo para detectar conexiones rsh, rexec y rlogin. Otra mejora interesante es que desde ahora todos los protocolos: NFS , POP, SSL, TSL, HTTP, SSH, RDP, etc son detectados acompañados de su versión, como se muestra en esta tabla.

¿Qué nos espera en la versión 7.4?

El lanzamiento del QRadar 7.4 está planificado para el primer trimestre de 2020 e incluirá importantes mejoras. Esta versión se basará en Red Hat Enterprise Linux 7.7. Se espera que tenga soporte para Python 3.X y, como curiosidad, no está claro que sea compatible en navegadores Internet Explorer. Es importante destacar que se trata de una actualización mayor, con cambios en la versión base del sistema operativo. Esto implica tareas adicionales y precauciones adicionales.

Si das servicios  a varios clientes desde tu SOC y usas QRadar estás de enhorabuena. Hay bastantes esperanzas que en por fin veamos importantes mejoras la interfaz gráfico junto con una actualización mayor del Framework de Aplicaciones que proporcione un completo soporte multi-tenancy. Eso si, las aplicaciones tendrán que ser actualizadas para que sean totalmente compatibles. Se sabe que el equipo de desarrollo de la UBA ya está trabajando en una actualización que haciendo uso de estas funciones, permita segmentar los datos de comportamiento de usuarios por cliente y dominio.

De hecho serán las empresas que proporcionen servicios de SOC virtuales o en remoto en entornos multi-cliente quienes más se beneficiarán de las nuevas características de la versión 7.4. En otro post hablaremos más de esto y de como integrar QRadar en entornos semi-automatizados de respuesta ante incidentes a través de diferentes soluciones SOAR como Resilient IRP. El futuro de los SOCs pasara por seguir integrando herramientas y automatizando procesos, como se lleva años haciendo en entornos distribuidos con la implantación de las metodologías de DevOps & SysOps.

Si quieres saber más de esta solución, en Sixe ofrecemos servicios de formación, consultoría y soporte técnico para IBM QRadar SIEM. También vendemos y desplegamos, migramos e integramos QRadar en todo tipo de entornos y clientes. Contáctanos si necesitas nuestra ayuda :)

Fin de soporte de IBM Power6/7. ¿Migramos?

Si tiene sistemas AIX, IBM i o Linux corriendo en IBM Power Systems, puede que este artículo sea de su interés. IBM ha finalizado el soporte de hardware en las máquinas POWER6 (lanzados al mercado en 2007) a finales del primer trimestre de 2019, tras más de 12 años. Lo mismo sucederá con POWER7 a finales del tercer trimestre de 2019. Los detalles sobre los servidores afectados por la interrupción del servicio están en el siguiente anuncio.

¿Cómo me afecta?

Muchísimos clientes tienen funcionando sistemas Power 6 y Power 7. Todos ellos en general, en perfectas condiciones pues bien es conocido en cualquier centro de datos que un sistema Power está tan bien diseñado y construido que algún reemplazo de discos o fuentes de alimentación por medio, no es raro que lleguen a los 10 o 15 años de vida. Con los años, no es raro encontrar clientes que descubren tras varios años que parte de su infraestructura corría en un servidor Power que no sabían ni que existía :)

Volviendo a estos casos, es importante planificar una transición a los nuevos sistemas POWER8 y POWER9 a fin no solo volver a tener un soporte por parte del fabricante sino también para ahorrar mucho dinero. No es complicado migrar a 10 sistemas Power6 a un entorno con 2 Power9 en DR, gracias a la virtualización PowerVM y el adecuado uso de LPARs. Esto aplica para sistemas con IBM i, AIX y Linux indistintamente.

Otros retos a los que enfrentarse en estos meses pasan por la actualización de los servidores VIO, sistema operativo, HMC y firmware de los servidores, en muchos casos como paso anterior a la migración a sistemas modernos.

¿Qué opciones tengo?

En Sixe Ingeniería sabemos que muchas compañías no están seguras de qué pasos tomar para asegurar una transición sin problemas y que, fundamentalmente, no implique riesgos ni interrupciones significativas del servicio. Los costes también son una preocupación bastante extendida. Por ello hemos desarrollado varias opciones para los clientes afectados por estos plazos de finalización de la vida útil.  Ofrecemos servicios y soluciones de infraestructura enfocada en IBM i, AIX y Linux. Tenemos un portfolio bastante completo de soluciones y servicios para ayudarle a través del proceso incluyendo el diseño de la nueva arquitectura, la adquisición del HW, eliminación o consolidación de licencias innecesarias, instalación de hardware y sistemas operativos, configuración, migración de los de los entornos, ajuste de rendimiento y soporte post-proyecto.

Seguimos recomendando mantener los entornos críticos en Power, usando el sistema operativo que mejor se adapte a las cargas de trabajo que ejecute. Ningún otro hardware le proporciona la mitad de años de soporte continuado ni puede ofrecer un 99,96% de disponibilidad.

Consúltenos sin compromiso.

SIXE
×