IBM Power 11 logo no oficial

Power11 de IBM: todo lo que sabemos hasta el momento

Post en constante actualización (basada exclusivamente en la opiniones y expectativas de SIXE)

La evolución de la arquitectura Power siempre ha sido un tema que genera curiosidad y debate en nuestra comunidad. Con cada nueva generación, IBM busca equilibrar innovación con las demandas del mercado, aunque no siempre con el impacto esperado.. Con Power11 a la vuelta de la esquina, analizamos qué traerá y qué lecciones habrá aprendido IBM. Te dejamos también por aquí lo que le pedimos a Power11 (si los deseos se cumplieran…🙄)

¿Qué modelos saldrán?

Esperamos, al igual que en Power10, modelos de 1, 2 4 sockets y hasta 16 sockets. Con equivalentes a los S1012, S1022, S1024, E1050 o E1080, estos futuros modelos se desvelarán próximamente, junto con las métricas rPerf para entender la equivalencia con los modelos actuales y a los que van a reemplazar.

Desde 2010, cada generación de Power responde a un mercado en constante evolución. Con la llegada de DeepSeek y nuevas IAs ‘optimizadas’, surgen más opciones para la inferencia sin depender de GPUs de NVIDIA. De hecho, una de las CONFIRMACIONES más interesantes es la integración del Acelerador IBM Spyre.

¿Por qué es importante el acelerador IBM Spyre?

Imagen del coprocesador spyre. Todo lo que sabemos de IBM Power11

Este componente, diseñado para IA, promete revolucionar el procesamiento de IA generativa y modelos complejos e integrarse con diferentes casos de uso en IBM Power. Desde la asistencia para modernizar código RPG hasta funcionalidades avanzadas de IA en DB2, sin olvidar todas las posibilidades en Open Source sobre ppc64le (Linux en Power) y computación de alto rendimiento (HPC). Este último es un segmento donde esperamos ver de nuevo a Power como alternativa, gracias a su enorme ancho de banda entre procesadores, memoria y aceleradores, superando a x86 y ARM a una fracción del precio de una GPU tope de gama de NVIDIA y con memoria mucho más limitada..

Innovaciones en el procesador Power11

Power11 aumenta la velocidad de reloj y suma un 25% más de núcleos por chip que Power10. Este procesador sigue mejorando las capacidades clave que introdujimos con Power10, como una mayor fiabilidad, disponibilidad y características de servicio (RAS), mejor eficiencia energética y gestión de la energía, además de una seguridad cuántica.

Innovación en las tecnologías de fabricación del procesador

Sabemos que el procesador Power11 aprovechará la nueva tecnología de condensadores integrados apilados (ISC), junto con innovaciones en refrigeración como disipadores de calor mejorados y ventiladores más eficientes. Esto optimiza energía, refuerza núcleos y aumenta la capacidad de cómputo del sistema.

Memoria DDR5: Mejor rendimiento 

La integración de memoria DDR5, junto con la continuidad de la Arquitectura de Memoria Abierta (OMI), refuerza la estrategia de Power11, posicionándolo como una plataforma no solo más potente, sino también más eficiente en términos de energía. La memoria DDR5 ofrece un rendimiento superior y un mayor ancho de banda, lo que permitirá a Power11 manejar cargas de trabajo más exigentes sin sacrificar la eficiencia energética. También se ha confirmado la compatibilidad de memoria DDR5 de los Power10 (y posiblemente la DDR4 también), lo que permitirá la reutilización de memorias de los equipos que se renueven. Además, estamos en vísperas de la memoria DDR6, lo que podría llevar aún más a la vanguardia los futuros servidores Power si se integrase en el futuro.

¿Qué papel juega KVM en Power11?

Un aspecto clave para potenciar al Power11 es su integración con KVM (Kernel-based Virtual Machine); el estándar de facto de virtualización en entornos Linux y base de tecnologías como Nutanix AHV u Oracle Exadata. Al incorporar KVM, el Power11 podría brindar soporte completo para máquinas virtuales Linux Se consolida así como una plataforma más abierta y escalable. Desde Power10, KVM ya opera dentro de PowerVM, permitiendo asignar recursos parciales o totales del sistema a un host Linux, donde es posible desplegar herramientas de virtualización nativas como LXD de Canonical. Esta flexibilidad lo adapta a entornos híbridos, como la integración de nodos Power (arquitectura ppc64le) en despliegues de OpenStack. Esto facilita la coexistencia de cargas de trabajo heterogéneas. Eso sí, KVM no sustituye a PowerVM, el hipervisor por defecto, gratuito (y con capacidades aún superiores), algo de lo que ya hemos hablado en otros artículos.

Conclusión

Power11 no solo es una nueva generación de hardware; es una oportunidad para que IBM realinee su estrategia y refuerce la conexión con su comunidad. Si logra equilibrar la innovación tecnológica con un enfoque abierto y colaborativo, podría ofrecer una plataforma versátil, potente y, sobre todo, relevante para un mercado que exige flexibilidad e innovación constante que aporte valor a nuestros clientes.

¿Quieres saber más sobre cómo el Power puede transformar tu infraestructura? En SIXE, somos expertos en todo lo que gira en torno a Power, ya sea que tengas tu arquitectura ya montada o quieras migrar.

imagen empresa sostenible, blog de SIXE

IBM Power9: ¿Actualizar o mantener? Qué hacer después del fin de soporte oficial

¿Mi Power9 está obsoleto?, ¿pasamos a Power10 o Power11?

Para un momento, no te precipites. Te contamos las 4 claves por las que mantener tus sistemas Power9 podría ser lo mejor para tu empresa y el medio ambiente.

IBM ha anunciado el fin de soporte para los sistemas Power9 a partir del 31 de enero de 2026. Esto viene acompañado de un mensaje claro: actualiza a los modelos Power10 o espera los nuevos Power11. Pero ¿realmente necesitas renovar tus sistemas ya?

En SIXE creemos que los Power9 pueden seguir funcionando perfectamente si se gestionan adecuadamente. Tomar decisiones precipitadas sin evaluar las opciones puede ser costoso, tanto para tu empresa como para el medio ambiente.

El dilema de los Power9: ¿Renovar o mantener?

Es cierto que los sistemas más nuevos ofrecen mejoras significativas en rendimiento y eficiencia. Sin embargo, la fabricación de nuevos servidores genera una gran cantidad de emisiones de CO2 y aumenta la demanda de materiales raros y NO compensa las emisiones. En cambio, mantener y optimizar tus Power9 puede ser una opción mucho más sostenible y económica. Aquí te explicamos por qué:

1. ¿Por qué la fabricación de nuevos servidores no es sostenible?

Actualizar a nuevos servidores implica un costo ambiental significativo. Aunque los sistemas Power11 serán más eficientes, la fabricación de hardware genera toneladas de emisiones de CO2. Tus Power9, con un mantenimiento adecuado, pueden seguir siendo funcionales y menos perjudiciales para el medio ambiente. Te lo demostramos con el ejemplo de infomaniak:


tablas comparativas de contaminación cambiando hardware TI

Como muestra el gráfico, alargar la vida útil de los servidores mediante actualizaciones de componentes clave, como el procesador o la memoria, puede reducir drásticamente el impacto ambiental. Además, contribuye a la economía circular al evitar el desperdicio de recursos.

Solución: Opta por estrategias de mantenimiento preventivo y actualización de componentes para maximizar la vida útil de tus Power9.


2. Beneficios de la virtualización en Power9

La falta de virtualización y consolidación de servidores incrementa el consumo de energía y la generación de residuos. Con herramientas de virtualización, tus Power9 pueden funcionar de manera mucho más eficiente, reduciendo la necesidad de nuevos equipos y el impacto ambiental asociado.

Solución: Implementa soluciones de virtualización para optimizar el uso de tus recursos. En SIXE ofrecemos formación en virtualización en Linux y VMware para ayudarte a maximizar el rendimiento de tu infraestructura.


3. Medición y gestión del impacto ambiental

Sin medir el impacto de tus actividades, es imposible optimizar tus recursos y reducir tu huella de carbono. Los sistemas Power9 pueden ser evaluados para identificar oportunidades de mejora en eficiencia y sostenibilidad.

  • Auditorías energéticas: Identifica áreas de alto consumo y oportunidades de optimización.
  • Evaluación del ciclo de vida: Analiza el punto en el que se encuentra tu servidor Power. Así podrás evaluar el impacto ambiental de tus servidores desde su fabricación hasta su reemplazo.

Solución: Realiza auditorías periódicas y utiliza herramientas de medición como IBM Cloud Carbon Calculator o IBM Systems Energy Estimator para gestionar el impacto de tu infraestructura TI.

 


4. Impacto económico de una decisión precipitada

Renovar equipos de manera apresurada puede no ser rentable si los servidores IBM Power9 aún satisfacen las necesidades actuales de tu empresa. Antes de invertir en nuevos sistemas, es fundamental analizar el Retorno de la Inversión (ROI) para determinar si la actualización es financieramente justificable.

  • Costos de adquisición y mantenimiento: La compra de nuevos servidores (power10, power11) implica un alto costo inicial. Sin embargo, los servidores más clásicos, con mantenimiento adecuado, pueden seguir funcionando de manera eficiente, evitando este gasto.
  • Ciclo de vida prolongado: Mediante una evaluación del ciclo de vida se puede alargar correctamente su ciclo (gracias a actualización de componentes por ejemplo). Esto significa que, con optimización, pueden ser una solución viable a largo plazo.
  • Capacidad actual vs. necesidades futuras: Si los Power9 aún manejan eficientemente las cargas de trabajo actuales, una actualización inmediata puede ser innecesaria. Realizar un análisis de rendimiento puede ser clave.

Solución: Evalúa el ROI de renovar tus servidores frente a reemplazarlos. En muchos casos, mantener y optimizar tus Power9 puede ser la opción más rentable y sostenible para tu empresa.


Conclusión

El fin de soporte de los sistemas IBM Power9 no significa que debas apresurarte a reemplazarlos sí o sí con los próximos Power11. Con las estrategias adecuadas, tus Power9 pueden seguir siendo una solución sostenible y eficiente. Nuestra recomendación es evaluar el caso concreto de tu infraestructura. Antes de tomar una decisión, considera el impacto ambiental y económico de renovar tu infraestructura. En SIXE te ayudamos a optimizar tus sistemas y a dar el primer paso hacia una tecnología más sostenible. Contáctanos para realizar una auditoría.

TUX realizando un Healthcheck a AIX de IBM

¿Por qué es crucial realizar un healthcheck de AIX?

¿Sabías que muchos sistemas AIX están “funcionando bien” hasta que, de repente… dejan de hacerlo?😱

Lo curioso es que los problemas casi siempre avisan, pero… ¿los estás escuchando? 🤔 Si quieres saber cómo un simple healthcheck puede ayudarte a detectar esos avisos tempranos y prevenir fallos críticos antes de que “implosione” tu AIX, sigue leyendo👇

¿Health-qué?

Un healthcheck (o revisión “de salud”) es un examen preliminar y rápido del estado de un sistema. Su objetivo principal es proporcionar una visión general del rendimiento, la estabilidad y la seguridad del sistema para identificar qué áreas requieren atención inmediata. A diferencia de una auditoría completa, que es mucho más detallada y profunda, el healthcheck es un paso inicial que permite determinar el “estado de salud” del sistema de forma ágil y eficaz. Y además… ¡pss pss! en SIXE realizamos healthchecks. Solicítalo aquí


¿Cuál es el propósito de realizar un Healthcheck de AIX?

El healthcheck de AIX es una evaluación técnica enfocada en revisar aspectos clave del sistema, como el uso de recursos, el estado del hardware, los logs de errores y la seguridad básica. Este proceso permite identificar problemas potenciales y prioridades de intervención sin entrar en el nivel de detalle que tendría una auditoría completa.

Algunos puntos clave que abarca un healthcheck de AIX:

  • Rendimiento general: Evaluación del uso de CPU, memoria y almacenamiento para identificar cuellos de botella y áreas de mejora.
  • Estado del hardware: Detección de fallos o componentes degradados que puedan afectar la estabilidad del sistema.
  • Errores recurrentes: Revisión de los logs del sistema (errpt, syslog) para identificar patrones de errores y anomalías que puedan indicar problemas subyacentes.
  • Cumplimiento básico de seguridad: Verificación de configuraciones clave como accesos, permisos de usuario y políticas de contraseñas, para asegurar que el sistema esté protegido contra accesos no autorizados.

Este análisis preliminar es particularmente útil para empresas que necesitan un diagnóstico inicial para determinar qué aspectos abordar más adelante, ya sea mediante una optimización específica o una auditoría completa.


¿Por qué realizar un AIX Healthcheck?

1. Identificar problemas críticos rápidamente

El healthcheck actúa como una alerta temprana para detectar fallos o debilidades que podrían provocar interrupciones mayores. Por ejemplo:

  • Procesos que consumen demasiados recursos.
  • Configuraciones inseguras o inadecuadas.
  • Estado de discos duros, memoria y otros componentes críticos del sistema.

2. Optimizar recursos

Permite encontrar configuraciones que limitan el rendimiento del sistema, como uso excesivo de CPU o almacenamiento mal distribuido. Esto ayuda a realizar ajustes rápidos que mejoran la operatividad sin necesidad de medidas más complejas.

3. Establecer prioridades

El resultado del healthcheck ofrece un punto de partida claro para planificar futuras acciones: desde implementar parches hasta realizar una auditoría más detallada.

Herramientas útiles para un Healthcheck de AIX

Algunas herramientas y comandos que pueden simplificar el proceso son:

  • nmon: Para análisis detallados de rendimiento.
  • errpt: Para identificar errores en hardware y software.
  • topas: Para supervisar recursos en tiempo real.
  • PowerSC: Para revisar configuraciones de seguridad.

Tutorial de NMON para monitorizar Linux y AIX - Federico Toledo

¿Qué esperar como cliente de un healthcheck de AIX?

¿Cómo se materializa un healthcheck de AIX? ¿Qué debo pedir?, ¿de qué me servirá?

Como cliente, recibirás un informe detallado con el estado del entorno a nivel de seguridad, rendimiento, disponibilidad con propuestas de mejora. El proceso incluye recomendaciones claras y prácticas para optimizar tu sistema, mejorar la seguridad y asegurarte de que tu AIX esté funcionando de manera eficiente. Este informe no solo te ayudará a prevenir problemas futuros, sino que también te proporcionará un plan de acción concreto para mejorar el rendimiento y mantener tu infraestructura protegida y operativa.


Conclusión

Un healthcheck es el primer paso para garantizar que un sistema esté funcionando correctamente y de manera eficiente. Actúa como una “revisión general” que identifica problemas y prioridades, proporcionando una base sólida para decisiones más complejas, como una auditoría completa o la optimización de recursos.

En resumen, realizar este examen rápido y sencillo puede ahorrar tiempo, prevenir problemas mayores y garantizar que el sistema esté en condiciones óptimas para soportar las necesidades operativas de la organización.

Si quieres que realicemos un healtcheck de tu sistema AIX puedes solicitarlo aquí

IBM Power 11 logo no oficial

¿Qué esperamos de IBM Power11?

La evolución de la arquitectura Power de IBM ha sido objeto de intenso debate en la comunidad tecnológica. En los últimos años, esta arquitectura ha experimentado cambios estratégicos significativos que han generado críticas y expectativas por igual. Como con KVM, casi adivinamos todo lo que iba a anunciar IBM; vamos a hacer un segundo intento con Power11. En este caso, no tenemos las listas de kernel.org para darnos pistas, pero sí 10 años de trayectoria desde Power8 y un mercado con demandas muy claras para arquitecturas alternativas a x86, más aún cuando Intel pasa por uno de sus peores momentos de su historia.

Antecedentes y un poco de historia

Con el Power8, llegaron los sistemas OEM/LC de Power, las GPUs de NVIDIA, el conector NVLink y la posibilidad de tener una primera versión de KVM en Power (no confundir con el anuncio de 2024). Sin embargo, en la práctica, los retos superaron a las oportunidades… y vamos a dejarlo ahí 🙂. Algunos opinan que IBM se adelantó al mercado, mientras que otros consideran que faltaron soluciones soportadas y probadas en estos servidores para lograr el impacto anticipado; incluso se habló de una adopción masiva por parte de Google o Rackspace.

Power9 representó un hito en la estrategia de IBM al ofrecer una arquitectura más abierta y accesible para la comunidad. A través de la OpenPOWER Foundation, IBM liberó una parte significativa de las especificaciones y tecnologías asociadas al Power9, permitiendo a terceros diseñar y fabricar sus propios sistemas basados en esta arquitectura, similar a lo que se hace con ARM o x86. Empresas como Raptor Computing Systems desarrollaron sistemas basados en Power9 que utilizan firmware y software de código abierto, ofreciendo plataformas altamente auditables y controlables por el usuario.

Sin embargo, en la generación siguiente, los retrasos en el desarrollo—quizás exacerbados por la pandemia de COVID-19—llevaron a IBM, al lanzar el Power10, a licenciar bloques de propiedad intelectual de Synopsys para componentes como el PHY de DDR4/5 y PCIe 5.0. Esta decisión introdujo firmware propietario en el sistema, rompiendo con la tradición de apertura establecida con el Power9 y limitando la participación de la comunidad en el desarrollo de estas tecnologías. Además, los cambios en la estrategia de NVIDIA, desde el Power9, al utilizar arquitecturas alternativas como GPUs basadas en ARM, dificultaron el regreso de las GPUs a Power. De hecho, en el Power10, la apuesta por la inferencia en el núcleo del procesador, sin depender de GPUs, fue una respuesta estratégica que permitió realizar procesamiento de inteligencia artificial directamente en el procesador.

Ante la posible llegada del Power11, surge la expectativa de que IBM aborde desafíos previos y alinee su estrategia con las demandas actuales del mercado. Esto implica reintegrar GPUs y otros aceleradores, mejorar el soporte para cargas de trabajo de código abierto y aplicaciones Linux, y continuar el desarrollo de AIX y IBM i como componentes fundamentales del ecosistema Power.

Imagen de IBM Power desde 2010 en adelante explica las características de cada IBM Power

Evolución de IBM Power desde 2010 hasta el 16/10/2024

Nuestras expectativas

Las decisiones en torno a Power10 han tenido un impacto significativo en la comunidad y el mercado. El giro hacia una arquitectura cerrada generó escepticismo entre desarrolladores y empresas que valoran la transparencia y el desarrollo colaborativo. Competidores con arquitecturas abiertas, como RISC-V, han ganado terreno ofreciendo la libertad y flexibilidad que Power10 no brindó. Esto subraya la importancia de la apertura como ventaja competitiva en un entorno tecnológico en constante cambio, donde las soluciones de código abierto dominan el mercado de nuevas cargas de trabajo.

Con la mirada puesta en Power11, existe una clara expectativa de que IBM atienda estas preocupaciones. Desde SIXE, defendemos un retorno a prácticas de desarrollo abiertas, proporcionando acceso al código fuente del firmware y a especificaciones que promuevan una mayor colaboración e innovación.

Confiamos en que Power11 rectificará las limitaciones de Power10, retomando el control sobre el desarrollo de componentes clave como el DDR PHY y las interfaces PCIe. Evitar la dependencia de propiedad intelectual externa es crucial para alcanzar una arquitectura completamente abierta. Al hacerlo, IBM puede alinear sus esfuerzos con las expectativas de la comunidad y aprovechar el conocimiento colectivo de desarrolladores y empresas comprometidas con los principios del código abierto.

Por otro lado, la reintegración de GPUs y otros aceleradores es fundamental para responder a la creciente demanda de computación heterogénea. Al admitir una variedad de aceleradores—incluyendo GPUs, FPGAs y procesadores especializados en inteligencia artificial—IBM puede ofrecer soluciones potentes y flexibles, ajustadas a necesidades específicas. Este enfoque coincide con las tendencias de la industria hacia arquitecturas modulares y escalables, capaces de gestionar cargas de trabajo complejas y cambiantes.

Reforzar el soporte para cargas de trabajo de código abierto y ampliar la compatibilidad con aplicaciones Linux son elementos clave para la adopción de Power11. Garantizar una integración fluida con frameworks y herramientas de código abierto atraerá a una comunidad más amplia de desarrolladores, facilitando la migración de aplicaciones existentes a la plataforma Power. Esta estrategia no solo fomenta la innovación, sino que también responde a la demanda del mercado por soluciones flexibles y rentables.

Además, queremos ver cómo estas innovaciones de hardware se pueden aprovechar desde AIX e IBM i, demostrando el compromiso de IBM con su gran y fiel base de clientes. Es esencial que las empresas que dependen de estos sistemas operativos puedan beneficiarse de los avances de Power11 en sus sistemas críticos, sin comprometer estabilidad, rendimiento, compatibilidad o disponibilidad.

Conclusión

Si algo tenemos claro es que no existe un sistema operativo o una arquitectura que se adapte a todas las cargas de trabajo. Lo más valioso para los clientes de Power es la posibilidad de integrar en las mismas máquinas las bases de datos de las que depende su negocio en AIX o IBM i, nubes privadas con KVM, front-ends con Kubernetes en Linux y, esperamos que pronto, también cargas de trabajo de IA, ML, HPC, etc.

En SIXE pensamos que, al igual que no existe una música perfecta para cada momento, tampoco existe un sistema operativo, una base de datos o un lenguaje de programación universal. En Power podemos tenerlos todos, y por eso nos encanta.

Para nosotros, el Power11 representa una oportunidad para que IBM realinee su estrategia: integrando GPUs y aceleradores para satisfacer las necesidades de computación de alto rendimiento, mejorando el soporte para cargas de trabajo de código abierto y aplicaciones Linux, y continuando el desarrollo de sus sistemas operativos de vanguardia para entornos críticos, como AIX y IBM i. Al hacerlo, IBM puede ofrecer una plataforma versátil y potente que atraiga a un amplio espectro de usuarios. El éxito del Power11 dependerá de la capacidad de IBM para equilibrar la innovación propietaria con la apertura y la colaboración con terceros.

Necesitas ayuda con IBM Power?

Contacta con SIXE; no solo somos expertos en todo lo que funciona en servidores Power, sino también promotores activos y parte de la comunidad de IBM Champions. Contamos con un amplio conocimiento en virtualización, seguridad, entornos críticos en AIX, modernización de aplicaciones con RPG e IBM i, así como en nuevos casos de uso con Linux en Power

 

Logo FreeRTOS con TUX de fondo

Linux en tiempo real (RTOS) – Ahora parte de su kernel

¿Sabías que mientras has abierto el navegador para leer esto… tu ordenador ha decidido priorizar ese proceso dejando a la cola muchos otros?🤯 ¿Quieres saber cómo lo hace? ¿Qué significa que Linux se convierta en un RTOS? Pues sigue leyendo que te lo enseño. Y ojo, porque si te interesa el mundo del SO del pingüino, te vamos a contar más de un dato que quizá no sepas…💥

¿Cómo funciona el planificador de Kernel de Linux?

El planificador de Linux funciona tal y como en el ejemplo anterior: Básicamente, decide en qué estado poner los procesos (en ejecución, interrumpible, no interrumpible, zombie o detenido) y su orden de ejecución para mejorar tu experiencia. Para su orden de ejecución, cada proceso cuenta con un nivel de prioridad. Supongamos que tienes un proceso en segundo plano ejecutándose y abres el navegador. El planificador interrumpirá ese proceso en segundo plano y centrará los recursos en abrir el navegador, asegurándose así de que se ejecute de forma rápida y eficaz.

El concepto de expropiación (preemption)

¿Expropiación en Linux🐧? No es en lo que estás pensando… La expropiación es una característica fundamental, ya que permite que los procesos sean interrumpidos si irrumpe uno de mayor prioridad. En la versión 2.6 de Linux, se añadió al kernel la capacidad de expropiar procesos, es decir, el kernel puede interrumpir procesos. Los sistemas que no son preemptibles deben terminar la tarea que esté en ejecución para poder llegar a la siguiente.

En el caso de Linux, desde la versión 2.6.24, se usa el Completely Fair Scheduler (CFS) como planificador. Este planificador se rige por garantizar un acceso “justo” a la CPU.

Completely Fair Scheduler: ¿cómo se decide qué proceso debe ejecutarse en cada momento para tener un acceso justo a la CPU?

Existen dos tipos de prioridades: estática y dinámica.

  • Estática (Niceness): Se puede ajustar por el usuario. Cuanto más bajo sea su valor, más importante es el programa y más tiempo de CPU consume.
  • Dinámica: Se establece según el comportamiento del programa. Pueden ser I/O Bound (programas que necesitan mucho tiempo de CPU porque suelen estar a la espera) o programas CPU Bound (que requieren menos tiempo de CPU, ya que suelen realizar tareas intensivas que podrían colapsar otros procesos).

¿Cómo ordena las prioridades el planificador?

El sistema operativo mantiene dos listas de programas:

  • Lista 1: Programas que aún tienen tiempo para usar.
  • Lista 2: Programas que han usado su tiempo.

Cuando un programa utiliza su tiempo, el sistema calcula cuánto tiempo debería tener la próxima vez y lo mueve a la segunda lista. Cuando la primera lista se vacía, las dos listas se intercambian. Esto ayuda al sistema a trabajar de manera eficiente.

Linux 2.6, con el kernel totalmente preemptible, mejoró considerablemente la capacidad de respuesta del sistema. Ahora, el kernel puede ser interrumpido en tareas de baja prioridad para responder a eventos prioritarios.

 

PREEMPT_RT dentro del Kernel de Linux

Con una nueva actualización del kernel, Linux podrá ser controlado con una precisión milimétrica. Un RTOS implica que el sistema será preciso para tareas críticas, como en centros médicos. Sin embargo, como Linux no fue pensado para eso, que ahora sea parte de su núcleo aporta ciertas características, aunque no lo conviertan en un RTOS.

Característica Mejora
Integración directa y mantenimiento simplificado
  • Menos dependencia de parcheo externo: Acceso directo a mejoras sin gestionar parches.
  • Mantenimiento más sencillo: Actualizaciones más fáciles y menos problemas de compatibilidad.
Mejora de la estabilidad y el rendimiento
  • Pruebas y validación: Mayor estabilidad y rendimiento gracias a pruebas rigurosas.
  • Desarrollo continuo: Mejoras continuas en la funcionalidad y rendimiento.
Accesibilidad para desarrolladores
  • Facilita el uso: Habilitación de funcionalidades de tiempo real más accesible.
  • Documentación y soporte: Mayor documentación y soporte en la comunidad.
Competencia con sistemas dedicados
  • Aumento de la competitividad: Posicionamiento de Linux como alternativa a RTOS dedicados.
Casos de uso ampliados
  • Aplicaciones críticas: Adopción de Linux en sistemas críticos donde la precisión es esencial.

¿Por qué ha tomado PREEMPT_RT tanto tiempo en ser parte del kernel?

Además de problemas financieros y el poco interés de la comunidad en darle un enfoque de tiempo real a Linux, surgió un problema técnico: la función printk.

Printk es una función que imprime mensajes en el búfer de registro del kernel. El problema con esta función es que producía retrasos cada vez que se llamaba. Este retraso interrumpía el flujo normal del sistema, y alejado este problema, PREEMPT_RT se pudo incorporar al kernel.

¿En qué te afecta que Linux se convierta en un Sistema Operativo a Tiempo Real?

Para el usuario promedio: nada.

Sin embargo, si te dedicas al desarrollo, esta innovación en el core de Linux será un avance a tener muy en cuenta. Hasta ahora, los desarrolladores que necesitan precisión en tiempo real optaban por otros sistemas operativos diseñados para ello. Con la nueva función PREEMPT_RT integrada en el kernel de Linux, esto ya no será necesario. La función permite que Linux detenga cualquier tarea para priorizar una solicitud en tiempo real, esencial en aplicaciones que demandan baja latencia.

Caso de uso: seguridad en el hogar

Imagina que estás usando un asistente de voz en casa que controla tanto la iluminación como el sistema de seguridad. Si detecta una intrusión mientras estás en casa, debe priorizar la activación de las alarmas y notificarte de inmediato. En este caso, las luces o la música pueden esperar; lo que realmente importa es tu seguridad. Esta capacidad de respuesta inmediata en situaciones críticas puede marcar la diferencia.

¿Por qué es necesario el Tiempo Real?

Como hemos visto en el caso de uso, los RTOS pueden completar tareas imprevistas, además, en tiempos concretos y predecibles. En cargas de trabajo que requieren precisión, los RTOS juegan un papel fundamental. En este caso, los RTOS suelen verse en aplicaciones para IoT:

  • Vehículos: Los coches pioneros como Tesla pueden frenar inmediatamente si detectan un obstáculo.
  • Sistemas críticos: En aviones o medicina, los sistemas deben operar en tiempos estrictos.
  • Industria: En procesos industriales, una ligera demora puede causar fallos.
El papel de la IA y el aprendizaje automático

La IA y el aprendizaje automático también juegan un papel fundamental en los RTOS y en el IoT. Podrían predecir eventos y favorecer la toma de decisiones rápidas y efectivas.

Conclusión

En resumen, Linux Real Time será por fin una realidad. La integración de Linux como sistema operativo en tiempo real marca un antes y un después yabre nuevas oportunidades para tareas críticas en sectores como la salud, la robótica y el IoT. Con la función PREEMPT_RT integrada en el núcleo, Ubuntu Linux garantiza mayor precisión. Sin embargo, no debemos dejar de tener en cuenta que el sistema operativo del pingüino🐧 no es 100% un RTOS, no fue diseñado para ello. Así pues, veremos si las empresas adaptarán la solución de Canonical a sus necesidades a tiempo real, o seguirán optando por otras soluciones como FreeRTOS o Zephyr.

¿Quieres seguir aprendiendo sobre Linux? Te ofrecemos certificaciones oficiales. Y si no tienes suficiente… nos adaptamos a ti con formación a medida 👇

Formación intensiva en sistemas Linux

Linux está a la orden del día… si no quieres quedarte fuera de las últimas demandas tecnológicas, te recomendamos nuestros cursos de Canonical Ubuntu 👇

Formación oficial de SIXE en Canonical, creadores de Ubuntu

Instalar windows en ibm power logo ibm windows xp sobre el logo de sixe

Instalar Windows en IBM Power (por diversión)

En una conversación reciente con lo que yo llamo los Magos de Power, es decir, la dirección técnica de esta fantástica plataforma: inventores, arquitectos, ingenieros distinguidos y grandes equipos de personas detrás de ella, me preguntaron.“¿Por qué tu interés en la emulación, quién querría emular otras arquitecturas en Power, qué sentido tiene?”. Mi respuesta es que en el mundo del código abierto, muchas de las cosas que hacemos, las hacemos por curiosidad o incluso sólo por diversión. Entonces… ¿Por qué no instalar Windows en IBM Power?

La curiosidad como motor

Resuena en mi cabeza que si un día puedo divertirme tanto con un Linux en ppc64le como lo hago en x86 o poco a poco en ARM (Mac, Raspberry) significará que Power puede ser “la tercera” arquitectura para Linux mucho más allá de los casos de uso reales y las cargas de trabajo de misión crítica.

En otras palabras, si puedo hacer lo mismo en ppc64le que en otras arquitecturas, puedo utilizar Power para cualquier caso de uso.

¿Por qué tener mil servidores x86 malgastando energía y ocupando espacio en el CPD cuando podemos tener unos cuantos servidores Power haciendo el mismo trabajo de forma más segura y eficiente?

Los clientes dirán que por compatibilidad, por utilizar herramientas estándar. Pero la multiarquitectura puede ser el nuevo estándar, si no lo es ya.

No quiero profundizar demasiado en este tema hoy, hay varias ideas publicadas en el portal de IBM y creo que los equipos de IBM, Debian, Canonical y Red Hat están haciendo un trabajo excelente que trataré en futuros posts.

Hubo noticias en la lista kernel.org que hemos estado cubriendo en el blog SIXE durante los últimos meses sobre el duro trabajo que se está haciendo al respecto, y con la llegada del nuevo nivel FW1060 por fin tenemos soporte completo para KVM en PowerVM. Esto es algo equivalente a lo que existe en IBM Z/Linux One. ¡Estupendo!

Como siempre, quería llevar la tecnología hasta sus límites, incluyendo un viejo sueño: ejecutar un Windows (el “enemigo” para los chicos de AIX y Linux) y en este caso y para más diversión Windows XP en un IBM Power10, utilizando KVM y QEMU.

Preparación

Configurar una LPAR para ejecutar Windows en IBM Power requiere pasos específicos, como asignar un procesador dedicado. Tenemos que configurar la LPAR para que sea host KVM, esto cambiará la forma en que utiliza PowerVM de tal manera que no haya sobrecarga, y también hay que asignarle al menos un procesador dedicado (no en modo “donante”, ojo). Esto nos dará 8 hilos dedicados para ejecutar nuestros procesadores virtuales en KVM. Sí, es mucho más sencillo y menos capaz que PowerVM con sus microparticiones, pero sigue siendo un estándar industrial y no todo el mundo necesita desplazarse al trabajo en avión. ¿No te parece?

KVM Capable seleccionado

Elegir la distribución

Según mi experiencia, el mejor soporte para experimentos con ppc64le suele ser Debian o Fedora. En este caso he instalado Fedora40 y actualizado a los últimos niveles. Luego tienes que instalar todos los paquetes de virtualización y el soporte qemu para otras arquitecturas. Siguiendo mi idea de crear artículos interactivos, utilizaré virt-manager para evitar complejas configuraciones de QEMU. En mi entorno he instalado todos los qemu-system-*

qemu-system comando

Para que Windows detecte nuestros discos SATA virtuales como utilizables, tendrás que configurar esto Una vez hecho esto, puedes instalar lo que necesitarán tus discos

# dnf install virtio-win-stable

También necesitarás una .iso de Windows XP y sus números de licencia. Te recomiendo colocarlo en /var/lib/libvirtd/images para que sea detectado automáticamente por virt-manager.

Crear la máquina virtual (sólo tienes que seguir el asistente)

Asegúrate de seleccionar x86 como arquitectura (qemu se encargará de ello)

Menu creación máquina virtual

 

Maquina virtual manager

Al igual que cuando ejecutamos AIX en x86, no esperes que vaya muy rápido, aunque tardé aproximadamente una hora en instalarlo… en realidad más o menos lo que tardaba en un PC de la época.
¡Qué ganas tengo de volver a ver MS Messenger! ¡Disfruta del vídeo y mantente al día siguiéndonos!

Installing Windows on IBM Power (for fun)Installing Windows on IBM Power (for fun)

Otras pruebas

¿Qué te parece ejecutar un MS PowerShell para ARM64 en Docker? Ahora puedo “dir” en Power, ¡fantástico! :P

ejecutar un MS PowerShell para ARM64 en Docker

Conclusión

El trabajo realizado para dar soporte a KVM es para mí la mayor novedad de los últimos años por las infinitas posibilidades que abre para la plataforma Power. El trabajo realizado para dar soporte a KVM no solo abre posibilidades para Linux, sino que también habilita nuevas formas de experimentar con Windows IBM Power, una combinación poderosa e innovadora.

Por lo que he podido probar, todo funciona y funciona muy bien. Enhorabuena a todas las personas que lo han hecho posible.
Logo Suse En fondo de SIXE

Entendiendo la alta disponibilidad (HA) en SUSE Linux

La alta disponibilidad y la continuidad del negocio son cruciales para mantener las aplicaciones y servicios siempre operativos. Los clústeres de alta disponibilidad permiten que los servicios críticos sigan funcionando, incluso si fallan servidores o componentes de hardware. SUSE Linux ofrece un conjunto de herramientas robustas para la creación y gestión de estos clústeres. En este artículo, exploramos la alta disponibilidad en SUSE Linux: el estado actual de los clústeres en SUSE Linux, con un enfoque en tecnologías clave como Pacemaker, Corosync, DRBD y otras. Estas, con pequeñas diferencias están disponibles en x86 y en ppc64le.

Pacemaker: el cerebro del clúster

Pacemaker es el motor que gestiona los clústeres de alta disponibilidad en SUSE Linux. Su función principal es administrar los recursos del clúster, asegurando que los servicios críticos estén operativos y se recuperen rápidamente en caso de fallo. Pacemaker monitoriza continuamente los recursos (bases de datos, servicios web, sistemas de archivos, etc.) y, si detecta un problema, migra esos recursos a otros nodos del clúster para mantenerlos en funcionamiento.

Pacemaker destaca por su flexibilidad y capacidad para gestionar una amplia variedad de recursos. Desde servicios sencillos hasta sistemas distribuidos más complejos, es capaz de manejar la mayoría de los escenarios de alta disponibilidad que una empresa puede necesitar.

Corosync: el sistema nervioso del clúster

Corosync es responsable de la comunicación entre los nodos del clúster. Asegura que todos los nodos tengan la misma visión del estado del clúster en todo momento, lo cual es esencial para la toma de decisiones coordinadas. También gestiona el quorum, que determina si hay suficientes nodos activos para que el clúster opere de manera segura. Si se pierde el quorum, se pueden tomar medidas para evitar la pérdida de datos o incluso la caída del servicio.

DRBD: la columna vertebral de los datos

DRBD (Distributed Replicated Block Device) es una solución de replicación de almacenamiento a nivel de bloques que replica datos entre nodos en tiempo real. Con DRBD, los datos de un servidor se replican en otro servidor casi instantáneamente, creando una copia exacta. Esto es especialmente útil en escenarios donde es crucial que los datos críticos estén siempre disponibles, incluso si un nodo falla. Combinado con Pacemaker, DRBD permite que los servicios sigan operando con acceso a los mismos datos, aunque estén en diferentes nodos.

Otras tecnologías clave en clústeres SUSE Linux

Además de Pacemaker, Corosync y DRBD, existen otras tecnologías esenciales para construir clústeres robustos en SUSE Linux:

  • SBD (Storage-Based Death): SBD es una herramienta de fencing que aísla un nodo que no se comporta correctamente para evitar que cause problemas en el clúster. Esto se logra utilizando un dispositivo de almacenamiento compartido que los nodos usan para comunicarse su estado.
  • OCF (Open Cluster Framework): Los scripts OCF son la base de los recursos gestionados por Pacemaker. Definen cómo iniciar, detener y verificar el estado de un recurso, proporcionando la flexibilidad necesaria para integrar una amplia gama de servicios en el clúster.
  • Csync2: Es una herramienta para la sincronización de archivos entre nodos en un clúster. Asegura que los archivos de configuración y otros datos críticos estén siempre actualizados en todos los nodos.

Estado actual y tendencias futuras

Los clústeres en SUSE Linux han madurado y se están adaptando a nuevas demandas empresariales. Con la adopción creciente de entornos de contenedores y con partes en las diferentes nubes, los clústeres en SUSE Linux están evolucionando para integrarse mejor con ellos. Esto incluye soporte mejorado para la orquestación de contenedores y aplicaciones distribuidas que requieren alta disponibilidad más allá de replicar dos discos por DRBD y manter una IP virtual con vida :)

Aún así, en la actualidad, la combinación de Pacemaker, Corosync, DRBD y otras herramientas proporciona una base sólida para crear clústeres de alta disponibilidad que pueden escalar y adaptarse a las necesidades de SAP HANA y otras soluciones que requieren una alta cuando no total disponibilidad. Si necesitas ayuda en SIXE os ayudamos.

Cheatsheet para la creación y administración de clústeres con Pacemaker en SUSE Linux

Aquí te dejamos una modesta cheatsheet para ayudarte en la creación y administración de clústeres con Pacemaker en SUSE Linux. Sharing is caring!

Tarea Comando / Descripción
Instalación de paquetes
Instalar Pacemaker y Corosync zypper install -y pacemaker corosync crmsh
Configuración básica
Configurar el archivo de Corosync Edita /etc/corosync/corosync.conf para definir el transporte, las interfaces y la red.
Iniciar servicios systemctl start corosync && systemctl start pacemaker
Habilitar servicios en el arranque systemctl enable corosync && systemctl enable pacemaker
Administración del clúster
Ver estado del clúster crm status
Ver detalles de los nodos crm_node -l
Añadir un nuevo nodo crm node add <nombre_del_nodo>
Expulsar un nodo crm node remove <nombre_del_nodo>
Ver logs del clúster crm_mon --logfile <ruta_del_log>
Configuración de recursos
Crear un recurso crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Eliminar un recurso crm configure delete <nombre_recurso>
Modificar un recurso crm configure edit <nombre_recurso>
Mostrar configuración completa del clúster crm configure show
Configuración de grupos y conjuntos
Crear un grupo de recursos crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crear un conjunto ordenado crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Crear una orden de ejecución crm configure order <orden> <recurso1> then <recurso2>
Restricciones y colocaciones
Crear restricción de colocación crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Crear restricción de ubicación crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Failover y recovery
Forzar migración de un recurso crm resource migrate <nombre_recurso> <nombre_nodo>
Limpiar estado de un recurso crm resource cleanup <nombre_recurso>
Inhabilitar un recurso temporalmente crm resource unmanage <nombre_recurso>
Habilitar un recurso después de deshabilitarlo crm resource manage <nombre_recurso>
Configuración avanzada
Configurar el quorum `crm configure property no-quorum-policy=<freeze
Configurar fencing crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configurar timeout de un recurso crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validación y pruebas
Validar configuración del clúster crm_verify --live-check
Simular una falla crm_simulate --run
Gestión de políticas
Configurar política de recuperación crm configure rsc_defaults resource-stickiness=<valor>
Configurar prioridad de recursos crm configure resource default-resource-stickiness=<valor>
Detención y arranque del clúster
Detener todo el clúster crm cluster stop --all
Arrancar todo el clúster crm cluster start --all

 

Logo SIXE Noticia. S de Sixe. Logo abajo en la esquina inferior izquierda.

SIXE: tu partner de IBM de confianza

En esta época tecnológica, tan cambiante y compleja, elegir proveedores adecuados es crucial. Cuando se trata de soluciones como las de IBM, la verdadera diferencia no la marca el tamaño de la empresa, sino su capacidad técnica, capital humano, compromiso y nivel de especialización. SIXE Ingeniería somos tu partner de IBM ideal, y aquí te explicamos por qué.

Especialización técnica: ¿Quién quieres que diseñe y dirija tu proyecto?

En SIXE, no somos una empresa que revende cualquier producto o servicio buscando un margen, pasándole el reto técnico a otro y “adiós”. Nos especializamos en áreas clave como ciberseguridad y las infraestructuras informáticas críticas. A diferencia de los grandes partners de IBM, que suelen subcontratar la mayoría de sus proyectos, en SIXE cada tarea es ejecutada por nuestros expertos internos. ¿Prefieres confiar en una empresa que subcontrata o en un equipo que se involucra directamente en cada detalle técnico?

Nuestro enfoque de empresa de ingeniería, nos permite diseñar soluciones adaptadas a las necesidades específicas de cada cliente.  No ofrecemos configuraciones o despliegues genéricos, sino soluciones adaptadas exactamente a lo que tu organización (y tu equipo) necesitan. Tenemos expertos en infraestructura IBM Power, storage, sistemas operativos (AIX, Red Hat, IBM i, Debian, zOS), bases de datos Informix y DB2, servidores de aplicaciones,  etc.

Compromiso personalizado: ¿qué atención esperas recibir?

En las grandes consultoras, los proyectos a menudo se convierten en un número más en su lista de clientes. ¿Quieres ser uno más o prefieres un trato exclusivo? En SIXE, ofrecemos un servicio personalizado, asegurando que cada proyecto reciba la atención necesaria para ir bien y que confies en nosotros muchos años más. Nuestra estructura ágil nos permite adaptarnos rápidamente y trabajar codo a codo con los responsables de sistemas, garantizando que las soluciones propuestas se ajusten a tus expectativas y necesidades.

Innovación y flexibilidad

Las grandes empresas suelen estar atrapadas en procesos burocráticos que les impiden innovar o reaccionar con rapidez a los cambios del mercado. ¿Cuántas veces te has topado con soluciones desfasadas o con lentitud en la implementación? En SIXE, podemos adaptarnos rápidamente y ofrecer soluciones que no solo siguen las últimas tendencias, sino que las anticipan. Esto es fundamental para proyectos que requieren respuestas rápidas y eficaces en un entorno cambiante. También cuando algo, por muy de moda que esté o espectacular que suene en un Power Point implica riesgos, alzaremos la voz y te lo haremos saber.

Transparencia y control

Cuando se externalizan proyectos, la transparencia y el control se diluyen. En SIXE, tienes la seguridad de saber exactamente quién está trabajando en tu proyecto y cómo se están gestionando los recursos. Las grandes consultoras, por su tamaño, tienden a perder esta transparencia, delegando tareas a terceros sin que el cliente tenga un control real sobre el proceso. ¿Prefieres arriesgarte a perder visibilidad en tu proyecto o contar con un partner que te mantenga informado y con control de cada hito?

Relaciones a largo plazo: ¿buscas un proveedor más o un socio estratégico?

No buscamos cerrar contratos a corto plazo; nuestro objetivo es construir relaciones duraderas basadas en una relación ética. Esto significa que, una vez implementada la tecnología, seguimos comprometidos con el proyecto, ofreciendo soporte técnico, formación y consultoría siempre que sea necesario. Las grandes empresas, por su parte, tienden a enfocarse en la implementación inicial, dejando de lado todo lo demás. Subcontratando todo, por supuesto, tal y como haría Homer Simpson.

Retorno de la inversión: ¿dónde va tu dinero?

En muchas grandes consultoras, gran parte del presupuesto se destina a cubrir gastos generales, con poco impacto directo en la calidad del proyecto. No tienen buenos ingenieros en plantilla porque sus gestores piensan que subcontratando el talento técnico se reducen los riesgos y se mejoran los márgenes. En SIXE, cada euro invertido se traduce en valor real, no tenemos un pool de managers y directivos imputando horas de reuniones y comidas con clientes. Lo que sí tenemos es un equipo de ingeniería reconocido internacionalmente, comprometido con la empresa y con sus clientes desde hace más de 15 años. Además formamos parte de una red de expertos reconocida internacionalmente por IBM.

La diferencia está en la ejecución

Aunque se diga lo contrario, la verdadera diferencia en un proyecto de tecnología no está en el tamaño de la empresa, sino en cómo y quién ejecuta cada proyecto. En SIXE, combinamos experiencia técnica, compromiso y transparencia, ofreciendo una ejecución precisa y orientada a resultados. En un mercado saturado de opciones, ¿por qué no elegir un partner que te asegure calidad, innovación y una relación basada en la colaboración?

Elegir a SIXE como tu partner de IBM significa optar por un enfoque basado en la excelencia técnica y el compromiso total con los resultados. No dejes el éxito de tu proyecto en manos del azar, somos un socio que se preocupará tanto como tú (por la cuenta que nos trae) por el resultado final y la relación entre nuestras empresas en el medio y largo plazo.

No solo IBM

Aunque el 50% de nuestro negocio tiene que ver con formación, consultoría y proyectos de infraestructura de IBM, también somos un socio estratégico de Canonical (Ubuntu), Red Hat y SUSE.

¿Y vuestra competencia?

La verdad es que no tenemos porque no existe otra empresa de nuestro tamaño con nuestro nivel de especialización en las soluciones que ofrecemos. Si que hay otras pequeñas y medianas empresas con un capital humano increible que complementan las tecnologías en las que trabajamos y con las que siempre colaboramos, pero nunca competimos. Cuando no sabemos hacer algo, siempre pedimos ayuda y se lo hacemos saber a nuestros clientes. Forma parte de nuestro ADN.

ibm i logo sixe

Aprende IBM i y RPG con SIXE

Formación IBM RPG: SIXE❤️IBM i y RPG

SIXE es un referente en formación oficial de IBM. Durante años, hemos ofrecido cursos especializados en IBM i y RPG, tecnologías clave para muchos CRM y ERPs utilizados por grandes empresas en todo el mundo. Entre nuestros cursos más destacados se encuentran el workshop de programación avanzada en RPG IV. Si eres nuevo en RPG, puedes comenzar a aprender IBM i y RPG con SIXE en nuestro taller de conceptos básicos de RPG IV. Estos cursos te permitirán cubrir desde los fundamentos hasta las técnicas más avanzadas de este lenguaje de programación robusto.

Personalización y calidad de Enseñanza

Uno de los mayores diferenciadores de SIXE es nuestro enfoque personalizado. Cada curso puede adaptarse a las necesidades específicas de tu equipo, garantizando una formación práctica y relevante. ¿Sabías que muchos cursos son impartidos por IBM Champions? Estos expertos, reconocidos internacionalmente, aseguran que los estudiantes reciban la formación más actualizada y de mayor calidad. Además, somos una empresa integrada y dirigida por instructores de IBM.

Historia y relevancia de IBM i hoy en día

IBM i, lanzado en 1988, es la evolución del sistema AS/400, diseñado para ser robusto, escalable y seguro. A lo largo de más de tres décadas, ha mantenido su misión de ofrecer una plataforma estable y confiable para la gestión de datos empresariales. La última versión, IBM i 7.5, incluye mejoras clave en seguridad, rendimiento e integración en la nube, lo que refuerza su relevancia en el entorno de TI actual.

Casos de uso de RPG en la actualidad: ¿Me das el ticket?

RPG (Report Program Generator) sigue siendo fundamental para muchas organizaciones que utilizan IBM i, especialmente en sectores como la banca, la manufactura y el comercio minorista. RPG ha sido actualizado con técnicas modernas de programación, lo que lo hace tan relevante hoy como lo fue en sus inicios. Por ejemplo, cuando pagas en un supermercado, el ticket y los procesos asociados (inventario, pedidos, facturación) son gestionados por un programa en RPG en un sistema IBM Power con IBM i.

No me llames AS/400

Una anécdota interesante sobre IBM i es que su predecesor, el AS/400, fue presentado en 1988 como un sistema “tan fácil de usar como una nevera”. En una época donde los sistemas informáticos eran complicados, esta promesa destacó a IBM i como un sistema revolucionario en términos de accesibilidad y simplicidad. Aunque el nombre ha cambiado, si necesitas un curso de AS/400, también podemos organizarlo.

¿Por qué elegir SIXE?

Con más de 15 años de experiencia, SIXE no solo ofrece formación, sino una experiencia educativa integral que se adapta a las necesidades de cada cliente. Nuestro enfoque en la calidad y la personalización, junto con la experiencia de instructores altamente calificados, convierte a SIXE en la mejor opción para quienes buscan una formación oficial de IBM efectiva y personalizada.

Para explorar más sobre estos cursos y registrarte, visita los siguientes enlaces de nuestra web:

logos de sixe con sus partners suse, canonical, red hat e ibm

iconos LXD docker podman

Descubre Ubuntu LXD: La alternativa a Docker o Podman

¿Todavía usas solo Docker o Podman? Descubre por qué deberías probar Ubuntu LXD

INTRODUCCIÓN

Ubuntu LXD es el gestor de contenedores de Ubuntu, basado en LXC (Linux Containers), que a pesar del auge de tecnologías como Docker en el ecosistema de Kubernetes, sigue siendo altamente relevante. Este artículo explora las razones detrás de la persistencia de LXD, sus casos de uso distintivos y los productos que lo emplean en el mundo real. ¿Listo para descubrir por qué deberías prestarle atención?

¿QUÉ ES UBUNTU LXD?

LXD es una herramienta de administración de contenedores que actúa como una mejora para LXC, ofreciendo una experiencia de contenedorización más completa y orientada a máquinas virtuales ligeras. Mientras que Docker y el resto de contenedores basados en el standard OCI son efímeros por diseño, LXD está más enfocado en proporcionar contenedores de sistema completo, permitiendo que se ejecuten múltiples procesos y servicios de manera similar a una máquina virtual. Incluso puedes, desplegar un entorno completo de Kubernetes, con sus contenedores dentro de un LXD En eso se parece mucho más a sus parientes cercanos como las jaulas de BSD, las zonas de Solaris y las WPAR de AIX. ¿Aún sigues pensando que Docker o Podman son tu únicas opciones?

Captura de la interfaz de LXD

La evolución de los contenedores

¿Recuerdas cuando Docker era la única herramienta de contenerización que todos adoraban? Desde su lanzamiento en 2013, Docker revolucionó el desarrollo y despliegue de aplicaciones al hacer que los contenedores fueran accesibles y fáciles de usar. Docker permitió a los desarrolladores empaquetar sus aplicaciones junto con todas sus dependencias, asegurando que funcionaran de manera consistente en cualquier entorno. Esta innovación condujo a una adopción masiva de contenedores en la industria, con Docker y Podman convirtiéndose en estándares de facto, cuando no directamente sus orquestadores como kubernetes. Pero, ¿es Docker la única estrella del show?

Mientras Docker se llevaba toda la atención, LXD estaba trabajando en silencio para ofrecer algo diferentecontenedores de sistema operativo completo. A medida que las organizaciones adoptan contenedores para más casos de uso, surgió la necesidad de una gestión más sofisticada y eficiente. Aquí es donde entra en juego LXD. ¿Te imaginas tener la flexibilidad de las máquinas virtuales pero con la eficiencia de los contenedores, sin tener que volverse loco y cambiar totalmente los casos de uso?

Comparativa entre Ubuntu LXD, Podman y Docker

Docker y Podman están diseñados para empaquetar y desplegar aplicaciones individuales, mientras que Ubuntu LXD ofrece una experiencia más completa. Su arquitectura se centra en la contenedorización de microservicios, aplicaciones en la nube y el despliegue continuo.

Además, están fuertemente integrados con Kubernetes, la herramienta de orquestación de contenedores más popular del mercado. Por otro lado, LXD permite ejecutar un sistema completo dentro de un contenedor. Esta capacidad lo hace ideal para casos de uso donde se requiere un entorno completo, similar a una máquina virtual pero con la eficiencia de los contenedores. ¿Ves la diferencia?imagen de los logos de LXD y Docker

Casos de Uso de Ubuntu LXD

LXD se destaca en varios escenarios específicos. Por ejemplo, en la infraestructura como servicio (IaaS), LXD permite la creación y administración de contenedores de sistema operativo completo. Esto es ideal para proveedores de servicios en la nube que necesitan ofrecer entornos completos sin el overhead de las máquinas virtuales tradicionales. ¿Alguna vez has tenido problemas para replicar un entorno de desarrollo idéntico al de producción? Con LXD, los desarrolladores pueden crear entornos de desarrollo aislados y replicables, minimizando problemas de configuración y dependencias.

imagen de lxd maquinas virtuales y contenedores linux

En el ámbito de las simulaciones y pruebas de red, LXD permite simular redes complejas y realizar pruebas de servicios a nivel de red. Esta capacidad es crucial para replicar infraestructuras de red completas dentro de un solo host. Para tareas de administración de sistemas y DevOps, LXD ofrece una flexibilidad que va más allá de la contenedorización de aplicaciones. Permite la creación de entornos completos que pueden ser gestionados, actualizados y monitoreados como si fueran máquinas físicas, pero con la eficiencia de los contenedores. ¿Todavía piensas que solo tu única alternativa es Docker?

Soluciones que usan LXD de Ubuntu

Canonical, la compañía detrás de Ubuntu y partner de Sixe, ha desarrollado varias soluciones basadas en Ubuntu LXD para ofrecer un rendimiento y una flexibilidad excepcionales. Entre estas soluciones destaca MAAS (Metal as a Service), que utiliza LXD para proporcionar ambientes de desarrollo y prueba altamente configurables. Permite a los usuarios desplegar sistemas operativos completos en contenedores, facilitando la gestión de infraestructuras grandes y complejas.

estadísticas del github de microcloud de canonical

Microcloud se beneficia de LXD al integrarlo para ofrecer contenedores de sistema operativo completo como una opción adicional (o alternativa) a las máquinas virtuales tradicionales, mejorando la flexibilidad y eficiencia en la gestión de recursos. Además, Travis CI, una plataforma de integración continua, utiliza LXD para ejecutar sus entornos de prueba, lo que permite a Travis CI ofrecer entornos de prueba rápidos y reproducibles, mejorando la eficiencia de los desarrolladores. ¿Te sorprende? Pues hay más.

Para aquellos que buscáis implementar estas soluciones en vuestros entornos, SIXE Ingeniería es el partner de referencia de Canonical y Ubuntu que estáis buscando. Con una vasta experiencia en la implementación de LXD y otras tecnologías de virtualización, SIXE puede ayudarte a maximizar el potencial de tus infraestructuras tecnológicas. Ya sea que necesites soporte para MAAS, OpenStack o cualquier otra solución basada en LXD, SIXE tiene el conocimiento y la experiencia para guiarte en cada paso del camino. Cuando haya muchos caminos que se bifurquen podremos recomendarte, aconsejarte y acompañarte por el que más te convenga. Sin compromisos ni volver a estar atado a ningún fabricante, porque con Canonical no ofrecemos productos cerrados, sino tecnologías abiertas, hechas con y para la comunidad llevando la filosofía del software libre hasta sus últimas consecuencias.

Conclusión

A pesar del predominio de tecnologías de contenedorización ligeras como Docker y Podman en Kubernetes, LXD sigue siendo relevante en muchos casos de uso por su capacidad para proporcionar contenedores de sistema operativo completo. Su uso en infraestructuras como servicio, entornos de desarrollo, simulaciones de red y administración de sistemas así como su adopción en productos como MAAS, OpenStack y Travis son buena prueba de ello.

Desde nuestro punto de vista, los beneficios de LXD radican en su capacidad única de combinar la eficiencia de los contenedores con la simplicidad de las máquinas virtuales, ofreciendo una solución híbrida que sigue siendo esencial para múltiples aplicaciones. ¿Aún crees que Docker es la única opción? Seguro que no. Esperamos que te haya gustado este artículo y recuerda que, para cualquier implementación de estas tecnologías, puedes contar con el apoyo experto de SIXE haciendo click aquí. Siempre estaremos a tu lado con las mejores soluciones libres.

SIXE
×