IBM Power 11 logo no oficial

¿Qué esperamos de IBM Power11?

La evolución de la arquitectura Power de IBM ha sido objeto de intenso debate en la comunidad tecnológica. En los últimos años, esta arquitectura ha experimentado cambios estratégicos significativos que han generado críticas y expectativas por igual. Como con KVM, casi adivinamos todo lo que iba a anunciar IBM; vamos a hacer un segundo intento con Power11. En este caso, no tenemos las listas de kernel.org para darnos pistas, pero sí 10 años de trayectoria desde Power8 y un mercado con demandas muy claras para arquitecturas alternativas a x86, más aún cuando Intel pasa por uno de sus peores momentos de su historia.

Antecedentes y un poco de historia

Con el Power8, llegaron los sistemas OEM/LC de Power, las GPUs de NVIDIA, el conector NVLink y la posibilidad de tener una primera versión de KVM en Power (no confundir con el anuncio de 2024). Sin embargo, en la práctica, los retos superaron a las oportunidades… y vamos a dejarlo ahí 🙂. Algunos opinan que IBM se adelantó al mercado, mientras que otros consideran que faltaron soluciones soportadas y probadas en estos servidores para lograr el impacto anticipado; incluso se habló de una adopción masiva por parte de Google o Rackspace.

Power9 representó un hito en la estrategia de IBM al ofrecer una arquitectura más abierta y accesible para la comunidad. A través de la OpenPOWER Foundation, IBM liberó una parte significativa de las especificaciones y tecnologías asociadas al Power9, permitiendo a terceros diseñar y fabricar sus propios sistemas basados en esta arquitectura, similar a lo que se hace con ARM o x86. Empresas como Raptor Computing Systems desarrollaron sistemas basados en Power9 que utilizan firmware y software de código abierto, ofreciendo plataformas altamente auditables y controlables por el usuario.

Sin embargo, en la generación siguiente, los retrasos en el desarrollo—quizás exacerbados por la pandemia de COVID-19—llevaron a IBM, al lanzar el Power10, a licenciar bloques de propiedad intelectual de Synopsys para componentes como el PHY de DDR4/5 y PCIe 5.0. Esta decisión introdujo firmware propietario en el sistema, rompiendo con la tradición de apertura establecida con el Power9 y limitando la participación de la comunidad en el desarrollo de estas tecnologías. Además, los cambios en la estrategia de NVIDIA, desde el Power9, al utilizar arquitecturas alternativas como GPUs basadas en ARM, dificultaron el regreso de las GPUs a Power. De hecho, en el Power10, la apuesta por la inferencia en el núcleo del procesador, sin depender de GPUs, fue una respuesta estratégica que permitió realizar procesamiento de inteligencia artificial directamente en el procesador.

Ante la posible llegada del Power11, surge la expectativa de que IBM aborde desafíos previos y alinee su estrategia con las demandas actuales del mercado. Esto implica reintegrar GPUs y otros aceleradores, mejorar el soporte para cargas de trabajo de código abierto y aplicaciones Linux, y continuar el desarrollo de AIX y IBM i como componentes fundamentales del ecosistema Power.

Imagen de IBM Power desde 2010 en adelante explica las características de cada IBM Power

Evolución de IBM Power desde 2010 hasta el 16/10/2024

Nuestras expectativas

Las decisiones en torno a Power10 han tenido un impacto significativo en la comunidad y el mercado. El giro hacia una arquitectura cerrada generó escepticismo entre desarrolladores y empresas que valoran la transparencia y el desarrollo colaborativo. Competidores con arquitecturas abiertas, como RISC-V, han ganado terreno ofreciendo la libertad y flexibilidad que Power10 no brindó. Esto subraya la importancia de la apertura como ventaja competitiva en un entorno tecnológico en constante cambio, donde las soluciones de código abierto dominan el mercado de nuevas cargas de trabajo.

Con la mirada puesta en Power11, existe una clara expectativa de que IBM atienda estas preocupaciones. Desde SIXE, defendemos un retorno a prácticas de desarrollo abiertas, proporcionando acceso al código fuente del firmware y a especificaciones que promuevan una mayor colaboración e innovación.

Confiamos en que Power11 rectificará las limitaciones de Power10, retomando el control sobre el desarrollo de componentes clave como el DDR PHY y las interfaces PCIe. Evitar la dependencia de propiedad intelectual externa es crucial para alcanzar una arquitectura completamente abierta. Al hacerlo, IBM puede alinear sus esfuerzos con las expectativas de la comunidad y aprovechar el conocimiento colectivo de desarrolladores y empresas comprometidas con los principios del código abierto.

Por otro lado, la reintegración de GPUs y otros aceleradores es fundamental para responder a la creciente demanda de computación heterogénea. Al admitir una variedad de aceleradores—incluyendo GPUs, FPGAs y procesadores especializados en inteligencia artificial—IBM puede ofrecer soluciones potentes y flexibles, ajustadas a necesidades específicas. Este enfoque coincide con las tendencias de la industria hacia arquitecturas modulares y escalables, capaces de gestionar cargas de trabajo complejas y cambiantes.

Reforzar el soporte para cargas de trabajo de código abierto y ampliar la compatibilidad con aplicaciones Linux son elementos clave para la adopción de Power11. Garantizar una integración fluida con frameworks y herramientas de código abierto atraerá a una comunidad más amplia de desarrolladores, facilitando la migración de aplicaciones existentes a la plataforma Power. Esta estrategia no solo fomenta la innovación, sino que también responde a la demanda del mercado por soluciones flexibles y rentables.

Además, queremos ver cómo estas innovaciones de hardware se pueden aprovechar desde AIX e IBM i, demostrando el compromiso de IBM con su gran y fiel base de clientes. Es esencial que las empresas que dependen de estos sistemas operativos puedan beneficiarse de los avances de Power11 en sus sistemas críticos, sin comprometer estabilidad, rendimiento, compatibilidad o disponibilidad.

Conclusión

Si algo tenemos claro es que no existe un sistema operativo o una arquitectura que se adapte a todas las cargas de trabajo. Lo más valioso para los clientes de Power es la posibilidad de integrar en las mismas máquinas las bases de datos de las que depende su negocio en AIX o IBM i, nubes privadas con KVM, front-ends con Kubernetes en Linux y, esperamos que pronto, también cargas de trabajo de IA, ML, HPC, etc.

En SIXE pensamos que, al igual que no existe una música perfecta para cada momento, tampoco existe un sistema operativo, una base de datos o un lenguaje de programación universal. En Power podemos tenerlos todos, y por eso nos encanta.

Para nosotros, el Power11 representa una oportunidad para que IBM realinee su estrategia: integrando GPUs y aceleradores para satisfacer las necesidades de computación de alto rendimiento, mejorando el soporte para cargas de trabajo de código abierto y aplicaciones Linux, y continuando el desarrollo de sus sistemas operativos de vanguardia para entornos críticos, como AIX y IBM i. Al hacerlo, IBM puede ofrecer una plataforma versátil y potente que atraiga a un amplio espectro de usuarios. El éxito del Power11 dependerá de la capacidad de IBM para equilibrar la innovación propietaria con la apertura y la colaboración con terceros.

Necesitas ayuda con IBM Power?

Contacta con SIXE; no solo somos expertos en todo lo que funciona en servidores Power, sino también promotores activos y parte de la comunidad de IBM Champions. Contamos con un amplio conocimiento en virtualización, seguridad, entornos críticos en AIX, modernización de aplicaciones con RPG e IBM i, así como en nuevos casos de uso con Linux en Power

 

Logo FreeRTOS con TUX de fondo

Linux en tiempo real (RTOS) – Ahora parte de su kernel

¿Sabías que mientras has abierto el navegador para leer esto… tu ordenador ha decidido priorizar ese proceso dejando a la cola muchos otros?🤯 ¿Quieres saber cómo lo hace? ¿Qué significa que Linux se convierta en un RTOS? Pues sigue leyendo que te lo enseño. Y ojo, porque si te interesa el mundo del SO del pingüino, te vamos a contar más de un dato que quizá no sepas…💥

¿Cómo funciona el planificador de Kernel de Linux?

El planificador de Linux funciona tal y como en el ejemplo anterior: Básicamente, decide en qué estado poner los procesos (en ejecución, interrumpible, no interrumpible, zombie o detenido) y su orden de ejecución para mejorar tu experiencia. Para su orden de ejecución, cada proceso cuenta con un nivel de prioridad. Supongamos que tienes un proceso en segundo plano ejecutándose y abres el navegador. El planificador interrumpirá ese proceso en segundo plano y centrará los recursos en abrir el navegador, asegurándose así de que se ejecute de forma rápida y eficaz.

El concepto de expropiación (preemption)

¿Expropiación en Linux🐧? No es en lo que estás pensando… La expropiación es una característica fundamental, ya que permite que los procesos sean interrumpidos si irrumpe uno de mayor prioridad. En la versión 2.6 de Linux, se añadió al kernel la capacidad de expropiar procesos, es decir, el kernel puede interrumpir procesos. Los sistemas que no son preemptibles deben terminar la tarea que esté en ejecución para poder llegar a la siguiente.

En el caso de Linux, desde la versión 2.6.24, se usa el Completely Fair Scheduler (CFS) como planificador. Este planificador se rige por garantizar un acceso “justo” a la CPU.

Completely Fair Scheduler: ¿cómo se decide qué proceso debe ejecutarse en cada momento para tener un acceso justo a la CPU?

Existen dos tipos de prioridades: estática y dinámica.

  • Estática (Niceness): Se puede ajustar por el usuario. Cuanto más bajo sea su valor, más importante es el programa y más tiempo de CPU consume.
  • Dinámica: Se establece según el comportamiento del programa. Pueden ser I/O Bound (programas que necesitan mucho tiempo de CPU porque suelen estar a la espera) o programas CPU Bound (que requieren menos tiempo de CPU, ya que suelen realizar tareas intensivas que podrían colapsar otros procesos).

¿Cómo ordena las prioridades el planificador?

El sistema operativo mantiene dos listas de programas:

  • Lista 1: Programas que aún tienen tiempo para usar.
  • Lista 2: Programas que han usado su tiempo.

Cuando un programa utiliza su tiempo, el sistema calcula cuánto tiempo debería tener la próxima vez y lo mueve a la segunda lista. Cuando la primera lista se vacía, las dos listas se intercambian. Esto ayuda al sistema a trabajar de manera eficiente.

Linux 2.6, con el kernel totalmente preemptible, mejoró considerablemente la capacidad de respuesta del sistema. Ahora, el kernel puede ser interrumpido en tareas de baja prioridad para responder a eventos prioritarios.

 

PREEMPT_RT dentro del Kernel de Linux

Con una nueva actualización del kernel, Linux podrá ser controlado con una precisión milimétrica. Un RTOS implica que el sistema será preciso para tareas críticas, como en centros médicos. Sin embargo, como Linux no fue pensado para eso, que ahora sea parte de su núcleo aporta ciertas características, aunque no lo conviertan en un RTOS.

Característica Mejora
Integración directa y mantenimiento simplificado
  • Menos dependencia de parcheo externo: Acceso directo a mejoras sin gestionar parches.
  • Mantenimiento más sencillo: Actualizaciones más fáciles y menos problemas de compatibilidad.
Mejora de la estabilidad y el rendimiento
  • Pruebas y validación: Mayor estabilidad y rendimiento gracias a pruebas rigurosas.
  • Desarrollo continuo: Mejoras continuas en la funcionalidad y rendimiento.
Accesibilidad para desarrolladores
  • Facilita el uso: Habilitación de funcionalidades de tiempo real más accesible.
  • Documentación y soporte: Mayor documentación y soporte en la comunidad.
Competencia con sistemas dedicados
  • Aumento de la competitividad: Posicionamiento de Linux como alternativa a RTOS dedicados.
Casos de uso ampliados
  • Aplicaciones críticas: Adopción de Linux en sistemas críticos donde la precisión es esencial.

¿Por qué ha tomado PREEMPT_RT tanto tiempo en ser parte del kernel?

Además de problemas financieros y el poco interés de la comunidad en darle un enfoque de tiempo real a Linux, surgió un problema técnico: la función printk.

Printk es una función que imprime mensajes en el búfer de registro del kernel. El problema con esta función es que producía retrasos cada vez que se llamaba. Este retraso interrumpía el flujo normal del sistema, y alejado este problema, PREEMPT_RT se pudo incorporar al kernel.

¿En qué te afecta que Linux se convierta en un Sistema Operativo a Tiempo Real?

Para el usuario promedio: nada.

Sin embargo, si te dedicas al desarrollo, esta innovación en el core de Linux será un avance a tener muy en cuenta. Hasta ahora, los desarrolladores que necesitan precisión en tiempo real optaban por otros sistemas operativos diseñados para ello. Con la nueva función PREEMPT_RT integrada en el kernel de Linux, esto ya no será necesario. La función permite que Linux detenga cualquier tarea para priorizar una solicitud en tiempo real, esencial en aplicaciones que demandan baja latencia.

Caso de uso: seguridad en el hogar

Imagina que estás usando un asistente de voz en casa que controla tanto la iluminación como el sistema de seguridad. Si detecta una intrusión mientras estás en casa, debe priorizar la activación de las alarmas y notificarte de inmediato. En este caso, las luces o la música pueden esperar; lo que realmente importa es tu seguridad. Esta capacidad de respuesta inmediata en situaciones críticas puede marcar la diferencia.

¿Por qué es necesario el Tiempo Real?

Como hemos visto en el caso de uso, los RTOS pueden completar tareas imprevistas, además, en tiempos concretos y predecibles. En cargas de trabajo que requieren precisión, los RTOS juegan un papel fundamental. En este caso, los RTOS suelen verse en aplicaciones para IoT:

  • Vehículos: Los coches pioneros como Tesla pueden frenar inmediatamente si detectan un obstáculo.
  • Sistemas críticos: En aviones o medicina, los sistemas deben operar en tiempos estrictos.
  • Industria: En procesos industriales, una ligera demora puede causar fallos.
El papel de la IA y el aprendizaje automático

La IA y el aprendizaje automático también juegan un papel fundamental en los RTOS y en el IoT. Podrían predecir eventos y favorecer la toma de decisiones rápidas y efectivas.

Conclusión

En resumen, Linux Real Time será por fin una realidad. La integración de Linux como sistema operativo en tiempo real marca un antes y un después yabre nuevas oportunidades para tareas críticas en sectores como la salud, la robótica y el IoT. Con la función PREEMPT_RT integrada en el núcleo, Ubuntu Linux garantiza mayor precisión. Sin embargo, no debemos dejar de tener en cuenta que el sistema operativo del pingüino🐧 no es 100% un RTOS, no fue diseñado para ello. Así pues, veremos si las empresas adaptarán la solución de Canonical a sus necesidades a tiempo real, o seguirán optando por otras soluciones como FreeRTOS o Zephyr.

¿Quieres seguir aprendiendo sobre Linux? Te ofrecemos certificaciones oficiales. Y si no tienes suficiente… nos adaptamos a ti con formación a medida 👇

Formación intensiva en sistemas Linux

Linux está a la orden del día… si no quieres quedarte fuera de las últimas demandas tecnológicas, te recomendamos nuestros cursos de Canonical Ubuntu 👇

Formación oficial de SIXE en Canonical, creadores de Ubuntu

Instalar windows en ibm power logo ibm windows xp sobre el logo de sixe

Instalar Windows en IBM Power (por diversión)

En una conversación reciente con lo que yo llamo los Magos de Power, es decir, la dirección técnica de esta fantástica plataforma: inventores, arquitectos, ingenieros distinguidos y grandes equipos de personas detrás de ella, me preguntaron.“¿Por qué tu interés en la emulación, quién querría emular otras arquitecturas en Power, qué sentido tiene?”. Mi respuesta es que en el mundo del código abierto, muchas de las cosas que hacemos, las hacemos por curiosidad o incluso sólo por diversión.

Resuena en mi cabeza que si un día puedo divertirme tanto con un Linux en ppc64le como lo hago en x86 o poco a poco en ARM (Mac, Raspberry) significará que Power puede ser “la tercera” arquitectura para Linux mucho más allá de los casos de uso reales y las cargas de trabajo de misión crítica.

En otras palabras, si puedo hacer lo mismo en ppc64le que en otras arquitecturas, puedo utilizar Power para cualquier caso de uso.

¿Por qué tener mil servidores x86 malgastando energía y ocupando espacio en el CPD cuando podemos tener unos cuantos servidores Power haciendo el mismo trabajo de forma más segura y eficiente?

Los clientes dirán que por compatibilidad, por utilizar herramientas estándar. Pero la multiarquitectura puede ser el nuevo estándar, si no lo es ya.

No quiero profundizar demasiado en este tema hoy, hay varias ideas publicadas en el portal de IBM y creo que los equipos de IBM, Debian, Canonical y Red Hat están haciendo un trabajo excelente que trataré en futuros posts.

Hubo noticias en la lista kernel.org que hemos estado cubriendo en el blog SIXE durante los últimos meses sobre el duro trabajo que se está haciendo al respecto, y con la llegada del nuevo nivel FW1060 por fin tenemos soporte completo para KVM en PowerVM. Esto es algo equivalente a lo que existe en IBM Z/Linux One. ¡Estupendo!

Como siempre, quería llevar la tecnología hasta sus límites, incluyendo un viejo sueño: ejecutar un Windows (el “enemigo” para los chicos de AIX y Linux) y en este caso y para más diversión Windows XP en un Power10, utilizando KVM y QEMU.

Preparación

Tenemos que configurar la LPAR para que sea host KVM, esto cambiará la forma en que utiliza PowerVM de tal manera que no haya sobrecarga, y también hay que asignarle al menos un procesador dedicado (no en modo “donante”, ojo). Esto nos dará 8 hilos dedicados para ejecutar nuestros procesadores virtuales en KVM. Sí, es mucho más sencillo y menos capaz que PowerVM con sus microparticiones, pero sigue siendo un estándar industrial y no todo el mundo necesita desplazarse al trabajo en avión.¿No te parece?

KVM Capable seleccionado

Elegir la distribución

Según mi experiencia, el mejor soporte para experimentos con ppc64le suele ser Debian o Fedora. En este caso he instalado Fedora40 y actualizado a los últimos niveles. Luego tienes que instalar todos los paquetes de virtualización y el soporte qemu para otras arquitecturas. Siguiendo mi idea de crear artículos interactivos, utilizaré virt-manager para evitar complejas configuraciones de QEMU. En mi entorno he instalado todos los qemu-system-*

qemu-system comando

Para que Windows detecte nuestros discos SATA virtuales como utilizables, tendrás que configurar esto Una vez hecho esto, puedes instalar lo que necesitarán tus discos

# dnf install virtio-win-stable

También necesitarás una .iso de Windows XP y sus números de licencia. Te recomiendo colocarlo en /var/lib/libvirtd/images para que sea detectado automáticamente por virt-manager.

Crear la máquina virtual (sólo tienes que seguir el asistente)

Asegúrate de seleccionar x86 como arquitectura (qemu se encargará de ello)

Menu creación máquina virtual

 

Maquina virtual manager

Al igual que cuando ejecutamos AIX en x86, no esperes que vaya muy rápido, aunque tardé aproximadamente una hora en instalarlo… en realidad más o menos lo que tardaba en un PC de la época.
¡Qué ganas tengo de volver a ver MS Messenger! ¡Disfruta del vídeo y mantente al día siguiéndonos!

Installing Windows on IBM Power (for fun)Installing Windows on IBM Power (for fun)

Otras pruebas

¿Qué te parece ejecutar un MS PowerShell para ARM64 en Docker? Ahora puedo “dir” en Power, ¡fantástico! :P

ejecutar un MS PowerShell para ARM64 en Docker

Conclusión

El trabajo realizado para dar soporte a KVM es para mí la mayor novedad de los últimos años por las infinitas posibilidades que abre para la plataforma Power.

Por lo que he podido probar, todo funciona y funciona muy bien. Enhorabuena a todas las personas que lo han hecho posible.
Logo Suse En fondo de SIXE

Entendiendo la alta disponibilidad (HA) en SUSE Linux

La alta disponibilidad y la continuidad del negocio son cruciales para mantener las aplicaciones y servicios siempre operativos. Los clústeres de alta disponibilidad permiten que los servicios críticos sigan funcionando, incluso si fallan servidores o componentes de hardware. SUSE Linux ofrece un conjunto de herramientas robustas para la creación y gestión de estos clústeres. En este artículo, exploramos la alta disponibilidad en SUSE Linux: el estado actual de los clústeres en SUSE Linux, con un enfoque en tecnologías clave como Pacemaker, Corosync, DRBD y otras. Estas, con pequeñas diferencias están disponibles en x86 y en ppc64le.

Pacemaker: el cerebro del clúster

Pacemaker es el motor que gestiona los clústeres de alta disponibilidad en SUSE Linux. Su función principal es administrar los recursos del clúster, asegurando que los servicios críticos estén operativos y se recuperen rápidamente en caso de fallo. Pacemaker monitoriza continuamente los recursos (bases de datos, servicios web, sistemas de archivos, etc.) y, si detecta un problema, migra esos recursos a otros nodos del clúster para mantenerlos en funcionamiento.

Pacemaker destaca por su flexibilidad y capacidad para gestionar una amplia variedad de recursos. Desde servicios sencillos hasta sistemas distribuidos más complejos, es capaz de manejar la mayoría de los escenarios de alta disponibilidad que una empresa puede necesitar.

Corosync: el sistema nervioso del clúster

Corosync es responsable de la comunicación entre los nodos del clúster. Asegura que todos los nodos tengan la misma visión del estado del clúster en todo momento, lo cual es esencial para la toma de decisiones coordinadas. También gestiona el quorum, que determina si hay suficientes nodos activos para que el clúster opere de manera segura. Si se pierde el quorum, se pueden tomar medidas para evitar la pérdida de datos o incluso la caída del servicio.

DRBD: la columna vertebral de los datos

DRBD (Distributed Replicated Block Device) es una solución de replicación de almacenamiento a nivel de bloques que replica datos entre nodos en tiempo real. Con DRBD, los datos de un servidor se replican en otro servidor casi instantáneamente, creando una copia exacta. Esto es especialmente útil en escenarios donde es crucial que los datos críticos estén siempre disponibles, incluso si un nodo falla. Combinado con Pacemaker, DRBD permite que los servicios sigan operando con acceso a los mismos datos, aunque estén en diferentes nodos.

Otras tecnologías clave en clústeres SUSE Linux

Además de Pacemaker, Corosync y DRBD, existen otras tecnologías esenciales para construir clústeres robustos en SUSE Linux:

  • SBD (Storage-Based Death): SBD es una herramienta de fencing que aísla un nodo que no se comporta correctamente para evitar que cause problemas en el clúster. Esto se logra utilizando un dispositivo de almacenamiento compartido que los nodos usan para comunicarse su estado.
  • OCF (Open Cluster Framework): Los scripts OCF son la base de los recursos gestionados por Pacemaker. Definen cómo iniciar, detener y verificar el estado de un recurso, proporcionando la flexibilidad necesaria para integrar una amplia gama de servicios en el clúster.
  • Csync2: Es una herramienta para la sincronización de archivos entre nodos en un clúster. Asegura que los archivos de configuración y otros datos críticos estén siempre actualizados en todos los nodos.

Estado actual y tendencias futuras

Los clústeres en SUSE Linux han madurado y se están adaptando a nuevas demandas empresariales. Con la adopción creciente de entornos de contenedores y con partes en las diferentes nubes, los clústeres en SUSE Linux están evolucionando para integrarse mejor con ellos. Esto incluye soporte mejorado para la orquestación de contenedores y aplicaciones distribuidas que requieren alta disponibilidad más allá de replicar dos discos por DRBD y manter una IP virtual con vida :)

Aún así, en la actualidad, la combinación de Pacemaker, Corosync, DRBD y otras herramientas proporciona una base sólida para crear clústeres de alta disponibilidad que pueden escalar y adaptarse a las necesidades de SAP HANA y otras soluciones que requieren una alta cuando no total disponibilidad. Si necesitas ayuda en SIXE os ayudamos.

Cheatsheet para la creación y administración de clústeres con Pacemaker en SUSE Linux

Aquí te dejamos una modesta cheatsheet para ayudarte en la creación y administración de clústeres con Pacemaker en SUSE Linux. Sharing is caring!

Tarea Comando / Descripción
Instalación de paquetes
Instalar Pacemaker y Corosync zypper install -y pacemaker corosync crmsh
Configuración básica
Configurar el archivo de Corosync Edita /etc/corosync/corosync.conf para definir el transporte, las interfaces y la red.
Iniciar servicios systemctl start corosync && systemctl start pacemaker
Habilitar servicios en el arranque systemctl enable corosync && systemctl enable pacemaker
Administración del clúster
Ver estado del clúster crm status
Ver detalles de los nodos crm_node -l
Añadir un nuevo nodo crm node add <nombre_del_nodo>
Expulsar un nodo crm node remove <nombre_del_nodo>
Ver logs del clúster crm_mon --logfile <ruta_del_log>
Configuración de recursos
Crear un recurso crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Eliminar un recurso crm configure delete <nombre_recurso>
Modificar un recurso crm configure edit <nombre_recurso>
Mostrar configuración completa del clúster crm configure show
Configuración de grupos y conjuntos
Crear un grupo de recursos crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crear un conjunto ordenado crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Crear una orden de ejecución crm configure order <orden> <recurso1> then <recurso2>
Restricciones y colocaciones
Crear restricción de colocación crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Crear restricción de ubicación crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Failover y recovery
Forzar migración de un recurso crm resource migrate <nombre_recurso> <nombre_nodo>
Limpiar estado de un recurso crm resource cleanup <nombre_recurso>
Inhabilitar un recurso temporalmente crm resource unmanage <nombre_recurso>
Habilitar un recurso después de deshabilitarlo crm resource manage <nombre_recurso>
Configuración avanzada
Configurar el quorum `crm configure property no-quorum-policy=<freeze
Configurar fencing crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configurar timeout de un recurso crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validación y pruebas
Validar configuración del clúster crm_verify --live-check
Simular una falla crm_simulate --run
Gestión de políticas
Configurar política de recuperación crm configure rsc_defaults resource-stickiness=<valor>
Configurar prioridad de recursos crm configure resource default-resource-stickiness=<valor>
Detención y arranque del clúster
Detener todo el clúster crm cluster stop --all
Arrancar todo el clúster crm cluster start --all

 

Logo SIXE Noticia. S de Sixe. Logo abajo en la esquina inferior izquierda.

SIXE: tu partner de IBM de confianza

En esta época tecnológica, tan cambiante y compleja, elegir proveedores adecuados es crucial. Cuando se trata de soluciones como las de IBM, la verdadera diferencia no la marca el tamaño de la empresa, sino su capacidad técnica, capital humano, compromiso y nivel de especialización. SIXE Ingeniería somos tu partner de IBM ideal, y aquí te explicamos por qué.

Especialización técnica: ¿Quién quieres que diseñe y dirija tu proyecto?

En SIXE, no somos una empresa que revende cualquier producto o servicio buscando un margen, pasándole el reto técnico a otro y “adiós”. Nos especializamos en áreas clave como ciberseguridad y las infraestructuras informáticas críticas. A diferencia de los grandes partners de IBM, que suelen subcontratar la mayoría de sus proyectos, en SIXE cada tarea es ejecutada por nuestros expertos internos. ¿Prefieres confiar en una empresa que subcontrata o en un equipo que se involucra directamente en cada detalle técnico?

Nuestro enfoque de empresa de ingeniería, nos permite diseñar soluciones adaptadas a las necesidades específicas de cada cliente.  No ofrecemos configuraciones o despliegues genéricos, sino soluciones adaptadas exactamente a lo que tu organización (y tu equipo) necesitan. Tenemos expertos en infraestructura IBM Power, storage, sistemas operativos (AIX, Red Hat, IBM i, Debian, zOS), bases de datos Informix y DB2, servidores de aplicaciones,  etc.

Compromiso personalizado: ¿qué atención esperas recibir?

En las grandes consultoras, los proyectos a menudo se convierten en un número más en su lista de clientes. ¿Quieres ser uno más o prefieres un trato exclusivo? En SIXE, ofrecemos un servicio personalizado, asegurando que cada proyecto reciba la atención necesaria para ir bien y que confies en nosotros muchos años más. Nuestra estructura ágil nos permite adaptarnos rápidamente y trabajar codo a codo con los responsables de sistemas, garantizando que las soluciones propuestas se ajusten a tus expectativas y necesidades.

Innovación y flexibilidad

Las grandes empresas suelen estar atrapadas en procesos burocráticos que les impiden innovar o reaccionar con rapidez a los cambios del mercado. ¿Cuántas veces te has topado con soluciones desfasadas o con lentitud en la implementación? En SIXE, podemos adaptarnos rápidamente y ofrecer soluciones que no solo siguen las últimas tendencias, sino que las anticipan. Esto es fundamental para proyectos que requieren respuestas rápidas y eficaces en un entorno cambiante. También cuando algo, por muy de moda que esté o espectacular que suene en un Power Point implica riesgos, alzaremos la voz y te lo haremos saber.

Transparencia y control

Cuando se externalizan proyectos, la transparencia y el control se diluyen. En SIXE, tienes la seguridad de saber exactamente quién está trabajando en tu proyecto y cómo se están gestionando los recursos. Las grandes consultoras, por su tamaño, tienden a perder esta transparencia, delegando tareas a terceros sin que el cliente tenga un control real sobre el proceso. ¿Prefieres arriesgarte a perder visibilidad en tu proyecto o contar con un partner que te mantenga informado y con control de cada hito?

Relaciones a largo plazo: ¿buscas un proveedor más o un socio estratégico?

No buscamos cerrar contratos a corto plazo; nuestro objetivo es construir relaciones duraderas basadas en una relación ética. Esto significa que, una vez implementada la tecnología, seguimos comprometidos con el proyecto, ofreciendo soporte técnico, formación y consultoría siempre que sea necesario. Las grandes empresas, por su parte, tienden a enfocarse en la implementación inicial, dejando de lado todo lo demás. Subcontratando todo, por supuesto, tal y como haría Homer Simpson.

Retorno de la inversión: ¿dónde va tu dinero?

En muchas grandes consultoras, gran parte del presupuesto se destina a cubrir gastos generales, con poco impacto directo en la calidad del proyecto. No tienen buenos ingenieros en plantilla porque sus gestores piensan que subcontratando el talento técnico se reducen los riesgos y se mejoran los márgenes. En SIXE, cada euro invertido se traduce en valor real, no tenemos un pool de managers y directivos imputando horas de reuniones y comidas con clientes. Lo que sí tenemos es un equipo de ingeniería reconocido internacionalmente, comprometido con la empresa y con sus clientes desde hace más de 15 años. Además formamos parte de una red de expertos reconocida internacionalmente por IBM.

La diferencia está en la ejecución

Aunque se diga lo contrario, la verdadera diferencia en un proyecto de tecnología no está en el tamaño de la empresa, sino en cómo y quién ejecuta cada proyecto. En SIXE, combinamos experiencia técnica, compromiso y transparencia, ofreciendo una ejecución precisa y orientada a resultados. En un mercado saturado de opciones, ¿por qué no elegir un partner que te asegure calidad, innovación y una relación basada en la colaboración?

Elegir a SIXE como tu partner de IBM significa optar por un enfoque basado en la excelencia técnica y el compromiso total con los resultados. No dejes el éxito de tu proyecto en manos del azar, somos un socio que se preocupará tanto como tú (por la cuenta que nos trae) por el resultado final y la relación entre nuestras empresas en el medio y largo plazo.

No solo IBM

Aunque el 50% de nuestro negocio tiene que ver con formación, consultoría y proyectos de infraestructura de IBM, también somos un socio estratégico de Canonical (Ubuntu), Red Hat y SUSE.

¿Y vuestra competencia?

La verdad es que no tenemos porque no existe otra empresa de nuestro tamaño con nuestro nivel de especialización en las soluciones que ofrecemos. Si que hay otras pequeñas y medianas empresas con un capital humano increible que complementan las tecnologías en las que trabajamos y con las que siempre colaboramos, pero nunca competimos. Cuando no sabemos hacer algo, siempre pedimos ayuda y se lo hacemos saber a nuestros clientes. Forma parte de nuestro ADN.

ibm i logo sixe

Aprende IBM i y RPG con SIXE

Formación IBM RPG: SIXE❤️IBM i y RPG

SIXE es un referente en formación oficial de IBM. Durante años, hemos ofrecido cursos especializados en IBM i y RPG, tecnologías clave para muchos CRM y ERPs utilizados por grandes empresas en todo el mundo. Entre nuestros cursos más destacados se encuentran el workshop de programación avanzada en RPG IV. Si eres nuevo en RPG, puedes comenzar a aprender IBM i y RPG con SIXE en nuestro taller de conceptos básicos de RPG IV. Estos cursos te permitirán cubrir desde los fundamentos hasta las técnicas más avanzadas de este lenguaje de programación robusto.

Personalización y calidad de Enseñanza

Uno de los mayores diferenciadores de SIXE es nuestro enfoque personalizado. Cada curso puede adaptarse a las necesidades específicas de tu equipo, garantizando una formación práctica y relevante. ¿Sabías que muchos cursos son impartidos por IBM Champions? Estos expertos, reconocidos internacionalmente, aseguran que los estudiantes reciban la formación más actualizada y de mayor calidad. Además, somos una empresa integrada y dirigida por instructores de IBM.

Historia y relevancia de IBM i hoy en día

IBM i, lanzado en 1988, es la evolución del sistema AS/400, diseñado para ser robusto, escalable y seguro. A lo largo de más de tres décadas, ha mantenido su misión de ofrecer una plataforma estable y confiable para la gestión de datos empresariales. La última versión, IBM i 7.5, incluye mejoras clave en seguridad, rendimiento e integración en la nube, lo que refuerza su relevancia en el entorno de TI actual.

Casos de uso de RPG en la actualidad: ¿Me das el ticket?

RPG (Report Program Generator) sigue siendo fundamental para muchas organizaciones que utilizan IBM i, especialmente en sectores como la banca, la manufactura y el comercio minorista. RPG ha sido actualizado con técnicas modernas de programación, lo que lo hace tan relevante hoy como lo fue en sus inicios. Por ejemplo, cuando pagas en un supermercado, el ticket y los procesos asociados (inventario, pedidos, facturación) son gestionados por un programa en RPG en un sistema IBM Power con IBM i.

No me llames AS/400

Una anécdota interesante sobre IBM i es que su predecesor, el AS/400, fue presentado en 1988 como un sistema “tan fácil de usar como una nevera”. En una época donde los sistemas informáticos eran complicados, esta promesa destacó a IBM i como un sistema revolucionario en términos de accesibilidad y simplicidad. Aunque el nombre ha cambiado, si necesitas un curso de AS/400, también podemos organizarlo.

¿Por qué elegir SIXE?

Con más de 15 años de experiencia, SIXE no solo ofrece formación, sino una experiencia educativa integral que se adapta a las necesidades de cada cliente. Nuestro enfoque en la calidad y la personalización, junto con la experiencia de instructores altamente calificados, convierte a SIXE en la mejor opción para quienes buscan una formación oficial de IBM efectiva y personalizada.

Para explorar más sobre estos cursos y registrarte, visita los siguientes enlaces de nuestra web:

logos de sixe con sus partners suse, canonical, red hat e ibm

iconos LXD docker podman

Descubre Ubuntu LXD: La alternativa a Docker o Podman

¿Todavía usas solo Docker o Podman? Descubre por qué deberías probar Ubuntu LXD

INTRODUCCIÓN

Ubuntu LXD es el gestor de contenedores de Ubuntu, basado en LXC (Linux Containers), que a pesar del auge de tecnologías como Docker en el ecosistema de Kubernetes, sigue siendo altamente relevante. Este artículo explora las razones detrás de la persistencia de LXD, sus casos de uso distintivos y los productos que lo emplean en el mundo real. ¿Listo para descubrir por qué deberías prestarle atención?

¿QUÉ ES UBUNTU LXD?

LXD es una herramienta de administración de contenedores que actúa como una mejora para LXC, ofreciendo una experiencia de contenedorización más completa y orientada a máquinas virtuales ligeras. Mientras que Docker y el resto de contenedores basados en el standard OCI son efímeros por diseño, LXD está más enfocado en proporcionar contenedores de sistema completo, permitiendo que se ejecuten múltiples procesos y servicios de manera similar a una máquina virtual. Incluso puedes, desplegar un entorno completo de Kubernetes, con sus contenedores dentro de un LXD En eso se parece mucho más a sus parientes cercanos como las jaulas de BSD, las zonas de Solaris y las WPAR de AIX. ¿Aún sigues pensando que Docker o Podman son tu únicas opciones?

Captura de la interfaz de LXD

La evolución de los contenedores

¿Recuerdas cuando Docker era la única herramienta de contenerización que todos adoraban? Desde su lanzamiento en 2013, Docker revolucionó el desarrollo y despliegue de aplicaciones al hacer que los contenedores fueran accesibles y fáciles de usar. Docker permitió a los desarrolladores empaquetar sus aplicaciones junto con todas sus dependencias, asegurando que funcionaran de manera consistente en cualquier entorno. Esta innovación condujo a una adopción masiva de contenedores en la industria, con Docker y Podman convirtiéndose en estándares de facto, cuando no directamente sus orquestadores como kubernetes. Pero, ¿es Docker la única estrella del show?

Mientras Docker se llevaba toda la atención, LXD estaba trabajando en silencio para ofrecer algo diferentecontenedores de sistema operativo completo. A medida que las organizaciones adoptan contenedores para más casos de uso, surgió la necesidad de una gestión más sofisticada y eficiente. Aquí es donde entra en juego LXD. ¿Te imaginas tener la flexibilidad de las máquinas virtuales pero con la eficiencia de los contenedores, sin tener que volverse loco y cambiar totalmente los casos de uso?

Comparativa entre Ubuntu LXD, Podman y Docker

Docker y Podman están diseñados para empaquetar y desplegar aplicaciones individuales, mientras que Ubuntu LXD ofrece una experiencia más completa. Su arquitectura se centra en la contenedorización de microservicios, aplicaciones en la nube y el despliegue continuo.

Además, están fuertemente integrados con Kubernetes, la herramienta de orquestación de contenedores más popular del mercado. Por otro lado, LXD permite ejecutar un sistema completo dentro de un contenedor. Esta capacidad lo hace ideal para casos de uso donde se requiere un entorno completo, similar a una máquina virtual pero con la eficiencia de los contenedores. ¿Ves la diferencia?imagen de los logos de LXD y Docker

Casos de Uso de Ubuntu LXD

LXD se destaca en varios escenarios específicos. Por ejemplo, en la infraestructura como servicio (IaaS), LXD permite la creación y administración de contenedores de sistema operativo completo. Esto es ideal para proveedores de servicios en la nube que necesitan ofrecer entornos completos sin el overhead de las máquinas virtuales tradicionales. ¿Alguna vez has tenido problemas para replicar un entorno de desarrollo idéntico al de producción? Con LXD, los desarrolladores pueden crear entornos de desarrollo aislados y replicables, minimizando problemas de configuración y dependencias.

imagen de lxd maquinas virtuales y contenedores linux

En el ámbito de las simulaciones y pruebas de red, LXD permite simular redes complejas y realizar pruebas de servicios a nivel de red. Esta capacidad es crucial para replicar infraestructuras de red completas dentro de un solo host. Para tareas de administración de sistemas y DevOps, LXD ofrece una flexibilidad que va más allá de la contenedorización de aplicaciones. Permite la creación de entornos completos que pueden ser gestionados, actualizados y monitoreados como si fueran máquinas físicas, pero con la eficiencia de los contenedores. ¿Todavía piensas que solo tu única alternativa es Docker?

Soluciones que usan LXD de Ubuntu

Canonical, la compañía detrás de Ubuntu y partner de Sixe, ha desarrollado varias soluciones basadas en Ubuntu LXD para ofrecer un rendimiento y una flexibilidad excepcionales. Entre estas soluciones destaca MAAS (Metal as a Service), que utiliza LXD para proporcionar ambientes de desarrollo y prueba altamente configurables. Permite a los usuarios desplegar sistemas operativos completos en contenedores, facilitando la gestión de infraestructuras grandes y complejas.

estadísticas del github de microcloud de canonical

Microcloud se beneficia de LXD al integrarlo para ofrecer contenedores de sistema operativo completo como una opción adicional (o alternativa) a las máquinas virtuales tradicionales, mejorando la flexibilidad y eficiencia en la gestión de recursos. Además, Travis CI, una plataforma de integración continua, utiliza LXD para ejecutar sus entornos de prueba, lo que permite a Travis CI ofrecer entornos de prueba rápidos y reproducibles, mejorando la eficiencia de los desarrolladores. ¿Te sorprende? Pues hay más.

Para aquellos que buscáis implementar estas soluciones en vuestros entornos, SIXE Ingeniería es el partner de referencia de Canonical y Ubuntu que estáis buscando. Con una vasta experiencia en la implementación de LXD y otras tecnologías de virtualización, SIXE puede ayudarte a maximizar el potencial de tus infraestructuras tecnológicas. Ya sea que necesites soporte para MAAS, OpenStack o cualquier otra solución basada en LXD, SIXE tiene el conocimiento y la experiencia para guiarte en cada paso del camino. Cuando haya muchos caminos que se bifurquen podremos recomendarte, aconsejarte y acompañarte por el que más te convenga. Sin compromisos ni volver a estar atado a ningún fabricante, porque con Canonical no ofrecemos productos cerrados, sino tecnologías abiertas, hechas con y para la comunidad llevando la filosofía del software libre hasta sus últimas consecuencias.

Conclusión

A pesar del predominio de tecnologías de contenedorización ligeras como Docker y Podman en Kubernetes, LXD sigue siendo relevante en muchos casos de uso por su capacidad para proporcionar contenedores de sistema operativo completo. Su uso en infraestructuras como servicio, entornos de desarrollo, simulaciones de red y administración de sistemas así como su adopción en productos como MAAS, OpenStack y Travis son buena prueba de ello.

Desde nuestro punto de vista, los beneficios de LXD radican en su capacidad única de combinar la eficiencia de los contenedores con la simplicidad de las máquinas virtuales, ofreciendo una solución híbrida que sigue siendo esencial para múltiples aplicaciones. ¿Aún crees que Docker es la única opción? Seguro que no. Esperamos que te haya gustado este artículo y recuerda que, para cualquier implementación de estas tecnologías, puedes contar con el apoyo experto de SIXE haciendo click aquí. Siempre estaremos a tu lado con las mejores soluciones libres.

Logo MicroStack sobre fondo azul

Explorando MicroStack: Una plataforma de nube privada eficiente

Nuestra experiencia con microstack, la nube privada abierta y libre de Canonical, basada en Ubuntu Linux


A medida que las organizaciones siguen adoptando la computación en nube, elegir la infraestructura de nube adecuada se convierte en una decisión crítica. Además, MicroStack: una nube privada eficiente, es una herramienta ligera, fácil de instalar y de código abierto basada en la Plataforma Openstack, ha surgido como una opción convincente para muchas empresas. Esta entrada de blog explorará las ventajas de utilizar MicroStack, destacará la creciente cuota de mercado de la Plataforma Openstack y discutirá los crecientes precios de los competidores de la nube pública, así como una introducción al intuitivo menú de despliegue de Openstack para explorar sus capacidades y facilidad de uso.

Ilsutración de una mujer usando un ordenador en la nube

¿Por qué elegir MicroStack?


MicroStack proporciona la flexibilidad del software de código abierto frente a los despliegues tradicionales de nube pública, además de ofrecer una versión más ligera y fácil de desplegar de la plataforma Openstack. Esta variante de Openstack es muy adecuada tanto para startups como para pequeños despliegues en la nube dentro de grandes organizaciones.


MicroStack y la flexibilidad del código abierto🌐

Nuestra esperencia con MicroStack, la nube privada abierta y libre de Canonical, es que  proporciona la flexibilidad del software de código abierto sin la carga de tarifas de licencia ni la dependencia de un proveedor. Esto permite a las organizaciones implementar infraestructura en la nube a un costo menor y con la libertad de modificar y ampliar la plataforma según sus necesidades específicas. El modelo de desarrollo impulsado por la comunidad garantiza mejoras e innovaciones continuas, fomentando un ecosistema sólido en torno a MicroStack.



Personalización🛠️

Además, con MicroStack, las organizaciones tienen acceso completo al código fuente y pueden adaptar la plataforma para satisfacer sus requisitos únicos. Esto incluye la integración de una amplia gama de complementos y extensiones, permitiendo a las empresas construir un entorno en la nube que se alinee precisamente con sus objetivos operativos. Esta flexibilidad es crucial para adaptarse a las demandas empresariales en evolución y optimizar la utilización de recursos.



Implementación simplificada 🚀

La implementación simplificada de MicroStack ofrece un proceso de instalación que minimiza la complejidad y el tiempo de configuración, siendo capaz de iniciar una implementación en la nube en un nodo de cómputo con menos de 6 comandos, con un tiempo promedio de implementación de 30 minutos. Esto lo hace especialmente adecuado para organizaciones que desean establecer o expandir rápidamente su presencia en la nube sin necesidad de una gran experiencia técnica. La implementación sencilla también reduce las barreras iniciales para la adopción, permitiendo un tiempo más rápido para obtener valor en las iniciativas en la nube.



Neutralidad de proveedores🛡️

A diferencia de las soluciones de nube propietarias que encierran a los usuarios en proveedores específicos, MicroStack soporta una amplia gama de configuraciones de hardware y software. La firme creencia de Canonical, partner de Sixe en el código abierto y la neutralidad de proveedores reduce los riesgos de dependencia y permite a las organizaciones seleccionar los mejores componentes para su infraestructura. También se alinea con las tendencias industriales hacia estándares abiertos e interoperabilidad, mejorando la escalabilidad a largo plazo y la eficiencia operativa. En consecuencia, MicroStack soporta una amplia gama de configuraciones de hardware y software.



Huella climática🌱

A diferencia de las implementaciones completas de OpenStack que requieren recursos hardware sustanciales, la eficiencia de MicroStack en entornos de escala reducida es excepcional. Esto lo convierte en una elección ideal para escenarios de computación en el borde o para organizaciones con presupuestos limitados de infraestructura. Al optimizar el uso de recursos y minimizar los costos adicionales, MicroStack mejora la eficiencia operativa mientras reduce el costo total de propiedad.


Beneficios técnicos y de rendimiento


Además, las apacidades técnicas y de rendimiento de MicroStack soportan diversos requisitos de carga de trabajo tales como:


Escalabilidad📈

MicroStack está diseñado para escalar horizontalmente, adaptándose a cargas de trabajo en crecimiento y a las necesidades empresariales en evolución. Ya sea implementando unos pocos nodos o escalando hasta miles, MicroStack garantiza una expansión fluida sin comprometer el rendimiento o la estabilidad. Esta escalabilidad es fundamental para las organizaciones que experimentan un crecimiento rápido o patrones de demanda fluctuantes en sus operaciones en la nube.



Redes avanzadas🛰️

Las capacidades de red de MicroStack, potenciadas por componentes como Neutron, ofrecen funciones avanzadas como Redes Definidas por Software (SDN) y Virtualización de Funciones de Red (NFV). Estas capacidades permiten a las organizaciones crear topologías de red complejas, optimizar la gestión del tráfico y mejorar el rendimiento general de la red. El enfoque de MicroStack en paradigmas de redes modernas apoya tecnologías emergentes como contenedores y computación en el borde, alineándose con las tendencias industriales hacia infraestructuras de TI ágiles y adaptables.



Soluciones de almacenamiento eficientes📦

MicroStack soporta una variedad de plataformas de almacenamiento a través de componentes como Cinder (almacenamiento de bloques) y Swift (almacenamiento de objetos). Esta versatilidad permite a las organizaciones implementar soluciones de almacenamiento altamente eficientes y escalables, adaptadas a los requisitos específicos de las aplicaciones.



Ahorro💰

Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y enfocarse en la innovación en lugar de la gestión de la infraestructura.

Ilustración con tonos verdes de una pasarela de pago

Ventajas económicas


Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos en comparación con las soluciones de nube tradicionales:


  • Menor costo total de propiedad (TCO)

    Al eliminar las tarifas de licencia y aprovechar hardware de bajo costo, MicroStack reduce significativamente tanto el gasto inicial de CapEx como el gasto continuo de OpEx a medida que la organización y la implementación en la nube escalan.
    Las organizaciones pueden lograr ahorros significativos mientras mantienen la flexibilidad y la escalabilidad de una plataforma de nube de código abierto. Esta rentabilidad hace que la Plataforma OpenStack sea accesible para organizaciones de todos los tamaños, desde startups hasta grandes empresas, que buscan optimizar sus inversiones en TI y maximizar su retorno de inversión.


  • Eficiencia de costos

    Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y centrarse en la innovación en lugar de la gestión de la infraestructura.

Mujer mirando sus ingresos

Tendencias de mercado e incremento del precio en servicios de nubes públicas


El Auge de OpenStack: Un Mercado en Crecimiento

MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables, proyectadas para experimentar un crecimiento significativo en el mercado, pasando de $5.46 mil millones en 2024 a una impresionante cifra de $29.5 mil millones en 2031. Este crecimiento subraya la creciente adopción y reconocimiento de los beneficios de OpenStack entre las organizaciones en todo el mundo. Su flexibilidad, rentabilidad y sólido soporte comunitario lo convierten en la opción preferida para las empresas que buscan implementar infraestructuras en la nube escalables y eficientes.

Costos en los Servicios de Nube Pública

En contraste, los costos de los servicios de nube pública han ido en aumento. Aunque estas plataformas ofrecen características extensas y alcance global, sus precios en escalada presentan desafíos para las organizaciones que buscan gestionar eficazmente los costos en la nube. MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables sin comprometer el rendimiento o la escalabilidad.

El Cambio de Implementaciones Sin Servidor a Monolíticas

Paradójicamente, incluso los gigantes de la nube pública como Amazon se abstienen de utilizar su propia nube pública, AWS como una plataforma de microservicios/sin servidor, alejándose de los servicios sin servidor y optando en su lugar por una implementación monolítica, lo que ha disminuido sus OPEX en un 90%. Este tipo de arquitectura, si es beneficiosa, puede integrarse rápidamente y sin problemas en su entorno con MicroStack, aprovechando completamente la plataforma OpenStack en unos pocos pasos simples, teniendo toda su arquitectura pertinente bajo una sola red privada, con una gestión sencilla e intuitiva de la topología de la red en caso de un escenario futuro de ampliación. Para empresas más pequeñas, MicroStack simplificará aún más la migración o implementación de dicha infraestructura.

Adopción de OpenStack entre las Empresas Líderes

Por ejemplo, más del 50% de las empresas Fortune 100 han adoptado OpenStack, destacando su confianza y dependencia en estas tecnologías para respaldar operaciones críticas y iniciativas estratégicas.
Empresas como Comcast, Allstate, Bosch y Capital One están aprovechando OpenStack para impulsar la innovación y lograr ventajas competitivas.

Impacto Global de OpenStack

Además, en regiones como APAC, organizaciones como UnionPay, China Mobile y China Railway están utilizando OpenStack para escalar y transformar sus operaciones de TI, impulsando aún más la adopción y el crecimiento de soluciones de nube de código abierto a nivel mundial.

MicroStack ofrece ventajas económicas interesantes en comparación con las nubes tradicionales:

Gráfica que presenta la posición de Openstack en el mercado

Nuestra experiencia con MicroStack en SIXE


En general, nuestra experiencia con MicroStack en SIXE desde una perspectiva operativa puede describirse como la cúspide de la practicidad y eficiencia. La instalación y la implementación de MicroStack fueron intuitivos, lo que nos permitió configurar completamente una nube privada en menos de 30 minutos.

Para resumir, navegar por las complejidades de la gestión de infraestructuras en la nube es un aspecto crucial de las operaciones de TI modernas. En esta sección final, profundizamos en nuestra experiencia de usuario con el panel de control de MicroStack.

El panel de control de MicroStack ejemplifica el compromiso de Canonical, partner de Sixe con la fácil utilización y accesibilidad. Al aprovechar el panel de control, los usuarios pueden fácilmente implementar y gestionar máquinas virtuales, configurar redes y monitorear la utilización de recursos, todo desde un centro centralizado, lo que reduce la curva de aprendizaje requerida para implementar y operar infraestructuras críticas basadas en la nube.

✨¿Cómo lanzar y configurar una instancia virtual?

Solo se necesitan unos pocos clics para lanzar y configurar una instancia virtual a través del panel de control.

Lanzamos una instancia desde el botón que se encuentra en la esquina superior derecha, aparece un menú emergente donde podemos definir la configuración del servidor.

A continuación, elegimos la imagen para nuestra MV, podemos usar una imagen estándar de sistema operativo ISO, o importar nuestras instantáneas personalizadas previamente instaladas en una MV de configuración previa para una rápida, aunque una personalización de la implementación empresarial de nuestras necesidades.

A continuación, seleccionamos el sabor de la instancia, los sabores son una forma de configurar las especificaciones de hardware virtuales de OpenStack, puede usar uno de los presets preestablecidos o crear uno para satisfacer las necesidades específicas de su infraestructura y aplicaciones.

Usaremos la especificación de preset mediano, OpenStack incluso nos advierte de antemano las limitaciones de hardware a las que está sujeta cada instantánea o imagen.

Suponiendo que su red ya está configurada, el paso final (y opcional) es agregar un grupo de seguridad para poder acceder a la instancia a través de SSH y operar dentro de ella.

¡Ahora nuestra instancia personalizada está configurada y en funcionamiento! :)

Bajo el menú de acciones que se encuentra a la derecha, podemos asociar una IP flotante para poder SSH directamente a la instancia desde nuestra red interna.

¡Ahora podemos usar esa IP para acceder directamente a la instancia mediante SSH!

¡Nuevo curso de automatización de sistemas IBM Power con Ansible!

Nos complace anunciar el lanzamiento del curso oficial de IBM y SIXE sobre automatización de sistemas IBM Power con Ansible. Este programa de formación está diseñado para proporcionar habilidades prácticas y avanzadas en la automatización de diversas plataformas de IBM Power Systems, incluyendo AIX, Linux e IBM i, así como servidores VIOS y PowerHA.

🏆 Cosas que aprenderás durante el curso:

  • Automatización de AIX: Domina la automatización de tareas repetitivas y complejas en AIX.
  • Automatización de Linux en Power: Aprende a gestionar y automatizar operaciones en servidores Linux en entornos Power Systems y a desplegar entornos complejos como SAP HANA
  • Automatización de IBM i: Descubre cómo simplificar la administración de sistemas IBM i mediante Ansible.
  • Gestión de VIOS: Mejora la eficiencia de los servidores Virtual I/O Server (VIOS) con técnicas avanzadas de automatización.
  • Implementación de PowerHA: Conoce las mejores prácticas para automatizar la alta disponibilidad en Power Systems utilizando PowerHA.

🎓 ¿A quién está dirigido?

Este curso está dirigido a administradores de sistemas, ingenieros de TI, arquitectos de soluciones y cualquier profesional interesado en mejorar sus habilidades de automatización en entornos IBM Power Systems. No se requiere experiencia previa en Ansible, aunque es beneficioso tener conocimientos básicos de administración de sistemas. Si lo deseas puedes realizar previamente nuestro curso de Ansible y AWX.

💼 Beneficios del curso:

  • Certificación oficial: Obtén una certificación reconocida internacionalmente por IBM y SIXE.
  • Habilidades prácticas: Participa en ejercicios prácticos y proyectos reales que te prepararán para desafíos del mundo real.
  • Materiales exclusivos: Accede a recursos de formación exclusivos y actualizados.

📍 Modalidad:

El curso se ofrecerá en formato híbrido, con opciones tanto presenciales como online para adaptarse a tus necesidades.

📝 Inscripción:

¡No pierdas esta oportunidad de avanzar en tu carrera y transformar tu manera de trabajar con IBM Power Systems! Inscríbete hoy mismo y asegura tu plaza en la siguiente edición.

Únete a nosotros y lleva tus habilidades de automatización de entornos críticos al siguiente nivel. ¡Te esperamos en el curso oficial de IBM y SIXE sobre automatización de sistemas IBM Power con Ansible!

¿Podemos ejecutar máquinas virtuales KVM (anidadas) sobre LPAR Linux IBM PowerVM?

¡Actualizado! Ya no es un rumor, sino que se soporta oficialmente a partir del 19 de julio de 2024 (ver anuncio)

Breve historia de la virtualización anidada en hardware IBM

La virtualización anidada permite a una máquina virtual (VM) alojar otras VM, creando un entorno de virtualización por capas. Esta capacidad es especialmente beneficiosa en escenarios empresariales donde la flexibilidad, la escalabilidad y la gestión eficiente de los recursos (si ahorramos en CPU lo hacemos en licencias $$$) son fundamentales.

Aunque puede utilizarse con fines de prueba con KVM en x86 o VMware, el rendimiento suele ser subóptimo debido a las múltiples traducciones y modificaciones de las instrucciones de hardware antes de que lleguen a la CPU o al subsistema de E/S. Este problema no es exclusivo de estas plataformas y puede afectar también a otras tecnologías de virtualización.

En plataformas como Z, aunque el impacto en el rendimiento de la virtualización anidada existe, las mejoras y optimizaciones en el hipervisor pueden mitigar estos efectos, haciéndola 100% viable para uso empresarial.

Capas de virtualización en IBM Mainframe

Antes de profundizar en el KVM anidado en PowerVM, es esencial comprender tecnologías similares. Si el mainframe es el abuelo de la tecnología actual de servidores, el particionamiento lógico (LPAR) y las tecnologías de virtualización (zVM) son las abuelas de las soluciones de hipervisor.

zvm linuxone kvm powervm hipervisores

En esta imagen (tomada de este GRAN artículo de ) puedes ver hasta 4 capas

Virtualización de nivel 1: Muestra una LPAR ejecutando Linux de forma nativa

Virtualización de Nivel 2: Muestra las máquinas virtuales que se ejecutan en el hipervisor z/VM o KVM

Virtualización de Nivel 3: Muestra el anidamiento de Máquinas Virtuales z/VM

Virtualización de nivel 4: Muestra contenedores Linux que pueden ejecutarse como contenedores independientes o pueden orquestarse con kubernetes

Ahora echa un vistazo a esta imagen antigua (2010) de la arquitectura de la plataforma IBM Power. ¿Ves algo parecido? :) ¡Sigamos adelante!

virtualización powervm

Despliegue de máquinas virtuales sobre una LPAR PowerVM Linux

Si tenemos LPARs en Power donde podemos ejecutar AIX, Linux e IBM i, y en Linux podemos instalar KVM, ¿podemos ejecutar máquinas virtuales dentro de una LPAR?

No del todo; fallará en algún momento. ¿Por qué? Porque KVM no es zVM (por ahora), y necesitamos algunos retoques en el código del kernel de Linux para soportar la virtualización anidada no sólo con los procesadores IBM Power9 o Power10, sino también con el subsistema de memoria y E/S Power.

Examinando las listas de correo de kernel.org, podemos ver avances prometedores. Ejecutar con éxito varias máquinas virtuales con KVM en una LPAR PowerVM significa portar una fantástica tecnología de virtualización de mainframe a IBM Power, lo que nos permite ejecutar máquinas virtuales y virtualización Kubernetes/OpenShift en ppc64le con fines de producción. La virtualización de la CPU en sistemas Power y Mainframe simplemente asigna tiempo de procesador sin asignar un hilo completo como hacen KVM o VMware. Por tanto, es técnicamente posible añadir un hipervisor encima sin afectar significativamente al rendimiento, como hace IBM con LinuxOne.

Últimas noticias sobre KVM en LPARs IBM PowerVM (Mayo 2024)

En Sixe llevamos años siguiendo de cerca la evolución de ppc64 y ppc64le. Recientemente, hemos encontrado algunos mensajes intrigantes en las listas de correo del núcleo Linux. Estos mensajes proporcionan información sobre la hoja de ruta inmediata de esta tecnología tan esperada y demandada.

1) Añade una capacidad VM para permitir la virtualización anidada
Resumen: Este mensaje trata de la implementación de las capacidades de virtualización anidada en KVM para PowerPC, incluidas las configuraciones de módulos y la compatibilidad con CPUs POWER9.

2 ) API PAPR anidada (KVM en PowerVM)
Resumen: Detalla la ampliación del estado de registro para la API PAPR anidada, la gestión de múltiples VCPU y la implementación de hiperllamadas específicas.

3) KVM: PPC: Book3S HV: Virtualización HV anidada
Resumen: Una serie de parches que mejoran la virtualización anidada en KVM para PowerPC, incluyendo el manejo de hiperllamadas, fallos de página y tablas de mapeo en debugfs.

Para obtener información más detallada, puedes consultar los siguientes enlaces:

¿Podremos instalar Windows en Power Systems (por diversión)?

CAKE - Perhaps, Perhaps, Perhaps (Official Audio)CAKE – Perhaps, Perhaps, Perhaps (Official Audio)

¡Permanece atento!

Sixe Ingeniería
×