10 Errores de Arquitectura y ROI en la Migración Post-VMware

Análisis Técnico · Febrero 2026

10 Errores de Arquitectura y ROI que Nadie Evaluó en la Huida Post‑VMware

Las alternativas open source son viables. Pero “viable” y “adecuado para tu negocio” son preguntas radicalmente distintas que exigen análisis técnico, financiero y de gobernanza antes de comprometer tu infraestructura una década.

Febrero 202625 min lecturaPara CIOs, CTOs y Directores de Infraestructura
El 86 % de los clientes de VMware están reduciendo activamente su footprint. Solo el 4 % ha completado la migración. Entre esos dos números hay un abismo de decisiones técnicas, financieras y estratégicas que la mayoría de organizaciones están tomando con más prisa que cabeza. Este artículo no recomienda ninguna plataforma: plantea las preguntas que todo equipo directivo debería responder antes de comprometer su infraestructura para los próximos 5–10 años. Spoiler: no hay respuesta mágica, pero sí hay un camino sensato.

Error 01 de 10

Confundir urgencia con estrategia

La adquisición de VMware por Broadcom en noviembre de 2023 por 61.000 millones de dólares desencadenó la mayor sacudida en virtualización empresarial de la última década. Y cuando decimos sacudida, nos quedamos cortos. Licencias perpetuas eliminadas, ~8.000 SKUs consolidados en 4 bundles, mínimo de compra de 72 cores y subidas de precio reportadas entre el 150 % y el 1.500 %. Tesco presentó una demanda de 100 millones de libras. Fidelity advirtió de riesgos para 50 millones de clientes. Vamos, que el panorama invitaba a salir corriendo.

Y eso es exactamente lo que ha pasado: mucha gente ha salido corriendo, pero no siempre en la dirección correcta. Una encuesta de CloudBolt (2026) reveló que el 63 % ha cambiado su estrategia de migración al menos dos veces (sí, dos veces). Gartner estima que la cuota de VMware caerá del 70 % al 40 % para 2029, pero el camino hasta allí está lleno de curvas que merecen bastante más reflexión de la que están recibiendo.

Perspectiva SIXE

La urgencia que genera Broadcom es totalmente comprensible —a nadie le gusta que le multipliquen la factura de un día para otro. Pero cada decisión de infraestructura tomada bajo presión se convierte en deuda técnica que los equipos heredarán durante años. La primera decisión correcta es separar la respuesta táctica inmediata de la estrategia a medio plazo y evaluar ambas con criterios diferentes. Respira, planifica y luego actúa.

Error 02 de 10

Ignorar la gobernanza del proyecto open source

No todo el open source es igual, ni mucho menos. La diferencia más relevante para una decisión empresarial a largo plazo no es la licencia, sino algo que casi nadie mira: quién controla el proyecto y qué mecanismos protegen a la comunidad si las prioridades comerciales cambian.

Proxmox Server Solutions GmbH es una empresa privada austriaca con un capital social de 35.000 € y un equipo estimado de 14–24 personas. Gente estupenda, seguro, pero no existe fundación independiente, ni consejo de gobernanza abierto, ni representación comunitaria en las decisiones de desarrollo. Es decir: el futuro de tu plataforma depende de las decisiones de una sola empresa.

Contrástese con la MariaDB Foundation, donde ninguna empresa puede ocupar más del 25 % de los asientos del consejo — un mecanismo que protegió al proyecto cuando MariaDB Corporation fue adquirida por K1 en septiembre de 2024. O con OpenStack, ahora bajo la Linux Foundation, con gobernanza distribuida entre cientos de organizaciones. Eso sí que es un colchón de seguridad.

Pregunta clave

¿Tu plataforma de virtualización —esa sobre la que van a correr tus aplicaciones de negocio los próximos 10 años— está controlada por una fundación independiente, un consorcio o una única empresa privada de menos de 25 empleados? No es una pregunta retórica: la respuesta tiene implicaciones directas sobre el riesgo a largo plazo.

Error 03 de 10

No leer el Contributor License Agreement

Lo sabemos, leer un CLA no es exactamente un plan de viernes noche. Pero merece la pena. El CLA de Proxmox otorga a la compañía una licencia perpetua, mundial e irrevocable sobre todas las contribuciones, con derecho a relicenciarlas bajo términos comerciales o propietarios. Este mecanismo no es inherentemente problemático, pero es exactamente la combinación estructural (empresa única + AGPL + CLA permisivo) que precedió a cada cambio de licencia relevante de los últimos siete años. Es como ver las nubes de tormenta y decir “seguro que no llueve”.

ProyectoAñoCambioConsecuenciaGobernanza
MongoDB2018AGPL → SSPLDropped by Debian/Red HatSingle vendor
Elasticsearch2021Apache 2.0 → SSPLFork: OpenSearch (Linux Foundation)Single vendor
HashiCorp2023MPL 2.0 → BSLFork: OpenTofu · IBM: $6.4BSingle vendor
Redis2024BSD → SSPLFork: Valkey (Linux Foundation)Single vendor
MinIO2021–26Apache → AGPL → AbandonedRepo: “NO LONGER MAINTAINED”Single vendor
KubernetesApache 2.0 stableFoundation (CNCF)
PostgreSQLPostgreSQL License stableCommunity
LinuxGPLv2 stableFoundation (LF)

¿Ves el patrón? Es bastante claro: ningún proyecto respaldado por una fundación independiente ha sufrido un cambio de licencia unilateral. Ni uno. Este dato debería informar cualquier evaluación de riesgo, independientemente de la plataforma que estés considerando.

Error 04 de 10

Asumir que los costes de suscripción se mantendrán

Toda empresa que desarrolla software open source necesita monetizar su trabajo, y eso es completamente legítimo — nadie vive del aire. La cuestión no es si habrá subidas de precio (las habrá, como en todo), sino si las estás incluyendo en tu modelo de TCO.

La suscripción Community de Proxmox pasó de 49,90 € a 120 €/año (~140 % de incremento), y en enero de 2026 todos los tiers subieron otro 3,8–4,3 %. El nuevo Proxmox Datacenter Manager requiere que al menos el 80 % de los nodos tengan suscripciones Basic o superiores (370+ €/socket/año). ¿Te suena familiar? A nosotros un poco también.

OpenStack, Ceph y otras alternativas también tienen estructuras de coste propias. Ninguna plataforma es gratuita en producción — si alguien te dice lo contrario, desconfía amablemente. La diferencia está en qué costes son predecibles y cuáles dependen de decisiones unilaterales.

Perspectiva SIXE

Cuando evaluamos alternativas con nuestros clientes, siempre modelamos tres escenarios de coste: optimista, realista y adverso, con proyecciones a 5 y 10 años que incluyen posibles cambios en la estructura de licenciamiento. Sí, es más trabajo. Pero también es la única forma de hacer un TCO que no se desmorone al primer cambio de precios.

Error 05 de 10

Subestimar la complejidad operacional de OpenStack

Vamos a ser justos con OpenStack: opera en producción con más de 45 millones de cores en organizaciones como Walmart, GEICO o LINE Corp. Su gobernanza —ahora bajo la Linux Foundation— es de las más sólidas del ecosistema. Estas son ventajas reales y de peso.

Pero (siempre hay un pero) el propio proyecto reconoce que el 44 % de los proveedores IT y el 39 % de las empresas reportan dificultad para encontrar profesionales cualificados. La plataforma comprende más de 30 proyectos de servicio. Desplegar y operar ese stack requiere equipos con experiencia en sistemas distribuidos que la mayoría de los equipos VMware no poseen —no por falta de talento, sino porque son conjuntos de competencias fundamentalmente distintos. Es como pedirle a un gran chef de cocina mediterránea que prepare sushi de competición: ambos son cocina de alto nivel, pero las habilidades no se transfieren automáticamente.

Matiz importante

OpenStack puede ser la elección perfecta para organizaciones con la escala y los equipos adecuados. El modelo gestionado (Canonical, Mirantis, Platform9) resuelve parte de la complejidad, aunque añade costes y dependencia. La pregunta no es “¿OpenStack sí o no?” sino “¿nuestro equipo, presupuesto y escala encajan con lo que OpenStack necesita para brillar?”

Error 06 de 10

Asumir que Ceph es “solo activar el checkbox”

Ceph es un sistema potente y está en producción en sitios impresionantes: CERN, Bloomberg y DigitalOcean, entre otros. Pero la distancia entre un clúster Ceph a hiperescala y uno de 3–5 nodos típico de una migración VMware es como la distancia entre pilotar un Airbus y un ultraligero: ambos vuelan, pero las reglas son muy diferentes.

Los benchmarks de StarWind en entornos Proxmox HCI muestran que Ceph alcanzó 270.000 IOPS en cargas mixtas 4K, frente a 1.088.000 IOPS de LINSTOR/DRBD y 1.199.000 de StarWind VSAN. Y los riesgos de los clústeres pequeños merecen atención especial: perder un nodo en un clúster de 3 con replicación 3x puede dejar el sistema en solo lectura. No es el mejor escenario a las 3 de la madrugada de un lunes.

Existen alternativas interesantes: LINSTOR/DRBD con rendimiento cercano al nativo, StorPool con latencias sub-100 µs, IBM Storage Virtualize con integración enterprise probada. Cada opción tiene sus fortalezas, limitaciones y requisitos de expertise.

Perspectiva SIXE

La capa de storage es posiblemente la decisión más crítica y menos reversible de toda la migración. Es donde no te puedes permitir improvisar. Debe evaluarse con pruebas reales sobre cargas de trabajo reales, no con benchmarks genéricos ni con “a fulanito le va fenomenal”. Es precisamente donde un integrador con experiencia en múltiples plataformas de almacenamiento aporta más valor.

Error 07 de 10

No inventariar las funcionalidades enterprise que desaparecen

VMware lleva más de una década construyendo funcionalidades sobre las que muchas organizaciones han diseñado sus procesos operativos. Son esas cosas que “simplemente funcionan” hasta que dejan de estar ahí. Y cuando desaparecen, el impacto va mucho más allá de lo tecnológico.

⚖️

Balanceo automático (DRS)

Proxmox no tiene equivalente nativo: toca scripting propio. OpenStack ofrece funcionalidad parcial con Nova scheduling. En ambos casos, prepárate para arremangarte.

🛡️

Fault Tolerance y DR

VMware FT/SRM proporcionan failover automático. Las alternativas open source requieren orquestación propia con ZFS replication, Ansible y runbooks manuales. Funciona, pero alguien tiene que construirlo y mantenerlo.

🌐

SDN y microsegmentación

Proxmox SDN soporta VLANs/VXLANs/EVPN, pero IPAM/DHCP están en “tech preview” (léase: todavía no está listo del todo). No existe equivalente al firewall distribuido de NSX.

📋

Certificaciones de vendor

SAP, Oracle y Microsoft no certifican Proxmox. NVIDIA AI Enterprise tampoco está soportado oficialmente. Si dependes de estas certificaciones, es un detalle que conviene no pasar por alto.

🔧

Automatización y API

Los providers de Terraform para Proxmox son comunitarios. La API requiere especificar el nodo de destino manualmente. Nada insalvable, pero son fricciones que suman.

📞

Soporte 24/7

Proxmox opera en horario austriaco (7:00–17:00 CET), sin opción 24/7 a ningún nivel. Cuando producción cae a las 3 AM, literalmente no hay a quién llamar. Y no, Google no cuenta.

Ninguna de estas limitaciones invalida la plataforma — que quede claro. Pero cada una representa un hueco que hay que cubrir con ingeniería, herramientas o consultoría, y cada solución tiene un coste que debe figurar en el modelo financiero. Hacer como que no existen es la receta perfecta para sorpresas desagradables.

Error 08 de 10

Calcular el ROI solo con la línea de licenciamiento

El ahorro en licencias es real. Pero presentar ese ahorro como el ROI del proyecto es como valorar una mudanza solo por lo que cuesta el camión: técnicamente correcto, prácticamente incompleto.

Gartner estima que los servicios de migración cuestan entre 300 y 3.000 dólares por VM. El 44 % de las organizaciones sufre downtime no planificado durante la migración. Y los proyectos estimados en 6 meses se convierten en 24 con una frecuencia que ya nadie debería ignorar.

Los costes ocultos que erosionan el ROI

Formación: 5.000–15.000 $/técnico + 3–6 meses de productividad reducida (tu equipo aprende rápido, pero no es instantáneo). Integración: backup, monitorización, CMDB, automatización — conectores maduros para VMware que no existen para Proxmox. Desarrollo custom: scripts de balanceo, DR, monitorización = deuda técnica interna. Rotación: cuando el ingeniero que los construyó se marcha, el conocimiento se va con él. Y siempre se marcha en el peor momento.

Error 09 de 10

Diseñar para el Día 1 e ignorar el Día 2

La migración es solo el principio — la luna de miel, si quieres verlo así. El coste real se manifiesta en las operaciones del día a día durante años.

Cybernews reveló que muchas organizaciones que migraron a Proxmox no mantienen las actualizaciones de seguridad. Es comprensible: cuando todo el esfuerzo se concentra en migrar, es fácil olvidar que después hay que mantener. A escala, la UI se vuelve poco responsiva con varios miles de VMs y pmxcfs alcanza sus límites en torno a 11.000 VMs.

🔐

Seguridad y compliance

Gestión de CVEs, hardening, auditorías (ENS, ISO 27001, PCI DSS). ¿Qué SLA de respuesta ante vulnerabilidades críticas ofrece cada plataforma? Pregunta incómoda pero necesaria.

📊

Telemetría y observabilidad

Las alternativas open source (Prometheus, Grafana, Zabbix) son excelentes — de verdad que lo son — pero requieren integración y mantenimiento dedicado. No se configuran solas.

💾

Backup y recuperación

Proxmox Backup Server es funcional pero juega en otra liga de ecosistema comparado con Veeam, Commvault o IBM Spectrum Protect.

🏗️

Deuda técnica

Cada script custom es código que hay que mantener, documentar, testear y transferir. La deuda técnica es invisible hasta que no lo es — y entonces es lo único que ves.

Error 10 de 10

Creer que la tecnología es la decisión

La migración desde VMware no es un proyecto tecnológico: es una transformación operacional que afecta a personas, procesos, proveedores, presupuestos y riesgos. La tecnología es importante, por supuesto. Pero es solo una pieza del puzzle.

La migración de VMware no es un problema tecnológico. Es un problema de desacoplamiento operacional disfrazado de problema tecnológico.— Keith Townsend, The CTO Advisor

Las preguntas que realmente importan: ¿qué nivel de riesgo de gobernanza es aceptable para nosotros? ¿Tenemos el equipo necesario — o podemos formarlo a tiempo? ¿Cuál es nuestro TCO real a 5 y 10 años? ¿Cómo protegemos la inversión si el proyecto open source cambia de rumbo? ¿Qué cargas de trabajo migramos primero y cuáles quizá nunca deberían moverse? ¿Y quién será nuestro partner técnico cuando las cosas no funcionen como esperábamos? (Porque en algún momento, no funcionarán como se esperaba. Así es la vida.)

Nuestra convicción

El open source es, sin duda, la respuesta correcta para la infraestructura del futuro. De eso no tenemos ninguna duda. La cuestión no es si migrar, sino cómo hacerlo con el rigor que la decisión merece. La diferencia entre una migración exitosa y una que genere años de quebraderos de cabeza está en la calidad del análisis previo, la arquitectura elegida y el acompañamiento experto durante todo el proceso. Y oye, si después de leer todo esto te apetece hablar, aquí estamos.


La mejor migración es la que se hace con criterio, no con prisa

Más de 15 años diseñando, implementando y operando infraestructura de misión crítica. Conocemos VMware, Proxmox, OpenStack, Ceph, IBM Storage y las alternativas porque trabajamos con todas. Sin preferencias: solo la solución que encaja con tu negocio.

Instalar Windows en IBM Power (por diversión)

En una conversación reciente con lo que yo llamo los Magos de Power, es decir, la dirección técnica de esta fantástica plataforma: inventores, arquitectos, ingenieros distinguidos y grandes equipos de personas detrás de ella, me preguntaron.“¿Por qué tu interés en la emulación, quién querría emular otras arquitecturas en Power, qué sentido tiene?”. Mi respuesta es que en el mundo del código abierto, muchas de las cosas que hacemos, las hacemos por curiosidad o incluso sólo por diversión. Entonces… ¿Por qué no instalar Windows en IBM Power?

La curiosidad como motor

Resuena en mi cabeza que si un día puedo divertirme tanto con un Linux en ppc64le como lo hago en x86 o poco a poco en ARM (Mac, Raspberry) significará que Power puede ser “la tercera” arquitectura para Linux mucho más allá de los casos de uso reales y las cargas de trabajo de misión crítica.

En otras palabras, si puedo hacer lo mismo en ppc64le que en otras arquitecturas, puedo utilizar Power para cualquier caso de uso.

¿Por qué tener mil servidores x86 malgastando energía y ocupando espacio en el CPD cuando podemos tener unos cuantos servidores Power haciendo el mismo trabajo de forma más segura y eficiente?

Los clientes dirán que por compatibilidad, por utilizar herramientas estándar. Pero la multiarquitectura puede ser el nuevo estándar, si no lo es ya.

No quiero profundizar demasiado en este tema hoy, hay varias ideas publicadas en el portal de IBM y creo que los equipos de IBM, Debian, Canonical y Red Hat están haciendo un trabajo excelente que trataré en futuros posts.

Hubo noticias en la lista kernel.org que hemos estado cubriendo en el blog SIXE durante los últimos meses sobre el duro trabajo que se está haciendo al respecto, y con la llegada del nuevo nivel FW1060 por fin tenemos soporte completo para KVM en PowerVM. Esto es algo equivalente a lo que existe en IBM Z/Linux One. ¡Estupendo!

Como siempre, quería llevar la tecnología hasta sus límites, incluyendo un viejo sueño: ejecutar un Windows (el “enemigo” para los chicos de AIX y Linux) y en este caso y para más diversión Windows XP en un IBM Power10, utilizando KVM y QEMU.

Preparación

Configurar una LPAR para ejecutar Windows en IBM Power requiere pasos específicos, como asignar un procesador dedicado. Tenemos que configurar la LPAR para que sea host KVM, esto cambiará la forma en que utiliza PowerVM de tal manera que no haya sobrecarga, y también hay que asignarle al menos un procesador dedicado (no en modo “donante”, ojo). Esto nos dará 8 hilos dedicados para ejecutar nuestros procesadores virtuales en KVM. Sí, es mucho más sencillo y menos capaz que PowerVM con sus microparticiones, pero sigue siendo un estándar industrial y no todo el mundo necesita desplazarse al trabajo en avión. ¿No te parece?

KVM Capable seleccionado

Elegir la distribución

Según mi experiencia, el mejor soporte para experimentos con ppc64le suele ser Debian o Fedora. En este caso he instalado Fedora40 y actualizado a los últimos niveles. Luego tienes que instalar todos los paquetes de virtualización y el soporte qemu para otras arquitecturas. Siguiendo mi idea de crear artículos interactivos, utilizaré virt-manager para evitar complejas configuraciones de QEMU. En mi entorno he instalado todos los qemu-system-*

qemu-system comando

Para que Windows detecte nuestros discos SATA virtuales como utilizables, tendrás que configurar esto Una vez hecho esto, puedes instalar lo que necesitarán tus discos

# dnf install virtio-win-stable

También necesitarás una .iso de Windows XP y sus números de licencia. Te recomiendo colocarlo en /var/lib/libvirtd/images para que sea detectado automáticamente por virt-manager.

Crear la máquina virtual (sólo tienes que seguir el asistente)

Asegúrate de seleccionar x86 como arquitectura (qemu se encargará de ello)

Menu creación máquina virtual

 

Maquina virtual manager

Al igual que cuando ejecutamos AIX en x86, no esperes que vaya muy rápido, aunque tardé aproximadamente una hora en instalarlo… en realidad más o menos lo que tardaba en un PC de la época.
¡Qué ganas tengo de volver a ver MS Messenger! ¡Disfruta del vídeo y mantente al día siguiéndonos!

Otras pruebas

¿Qué te parece ejecutar un MS PowerShell para ARM64 en Docker? Ahora puedo “dir” en Power, ¡fantástico! :P

ejecutar un MS PowerShell para ARM64 en Docker

Conclusión

El trabajo realizado para dar soporte a KVM es para mí la mayor novedad de los últimos años por las infinitas posibilidades que abre para la plataforma Power. El trabajo realizado para dar soporte a KVM no solo abre posibilidades para Linux, sino que también habilita nuevas formas de experimentar con Windows IBM Power, una combinación poderosa e innovadora.

Por lo que he podido probar, todo funciona y funciona muy bien. Enhorabuena a todas las personas que lo han hecho posible.

Entendiendo la alta disponibilidad (HA) en SUSE Linux

La alta disponibilidad y la continuidad del negocio son cruciales para mantener las aplicaciones y servicios siempre operativos. Los clústeres de alta disponibilidad permiten que los servicios críticos sigan funcionando, incluso si fallan servidores o componentes de hardware. SUSE Linux ofrece un conjunto de herramientas robustas para la creación y gestión de estos clústeres. En este artículo, exploramos la alta disponibilidad en SUSE Linux: el estado actual de los clústeres en SUSE Linux, con un enfoque en tecnologías clave como Pacemaker, Corosync, DRBD y otras. Estas, con pequeñas diferencias están disponibles en x86 y en ppc64le.

Pacemaker: el cerebro del clúster

Pacemaker es el motor que gestiona los clústeres de alta disponibilidad en SUSE Linux. Su función principal es administrar los recursos del clúster, asegurando que los servicios críticos estén operativos y se recuperen rápidamente en caso de fallo. Pacemaker monitoriza continuamente los recursos (bases de datos, servicios web, sistemas de archivos, etc.) y, si detecta un problema, migra esos recursos a otros nodos del clúster para mantenerlos en funcionamiento.

Pacemaker destaca por su flexibilidad y capacidad para gestionar una amplia variedad de recursos. Desde servicios sencillos hasta sistemas distribuidos más complejos, es capaz de manejar la mayoría de los escenarios de alta disponibilidad que una empresa puede necesitar.

Corosync: el sistema nervioso del clúster

Corosync es responsable de la comunicación entre los nodos del clúster. Asegura que todos los nodos tengan la misma visión del estado del clúster en todo momento, lo cual es esencial para la toma de decisiones coordinadas. También gestiona el quorum, que determina si hay suficientes nodos activos para que el clúster opere de manera segura. Si se pierde el quorum, se pueden tomar medidas para evitar la pérdida de datos o incluso la caída del servicio.

DRBD: la columna vertebral de los datos

DRBD (Distributed Replicated Block Device) es una solución de replicación de almacenamiento a nivel de bloques que replica datos entre nodos en tiempo real. Con DRBD, los datos de un servidor se replican en otro servidor casi instantáneamente, creando una copia exacta. Esto es especialmente útil en escenarios donde es crucial que los datos críticos estén siempre disponibles, incluso si un nodo falla. Combinado con Pacemaker, DRBD permite que los servicios sigan operando con acceso a los mismos datos, aunque estén en diferentes nodos.

Otras tecnologías clave en clústeres SUSE Linux

Además de Pacemaker, Corosync y DRBD, existen otras tecnologías esenciales para construir clústeres robustos en SUSE Linux:

  • SBD (Storage-Based Death): SBD es una herramienta de fencing que aísla un nodo que no se comporta correctamente para evitar que cause problemas en el clúster. Esto se logra utilizando un dispositivo de almacenamiento compartido que los nodos usan para comunicarse su estado.
  • OCF (Open Cluster Framework): Los scripts OCF son la base de los recursos gestionados por Pacemaker. Definen cómo iniciar, detener y verificar el estado de un recurso, proporcionando la flexibilidad necesaria para integrar una amplia gama de servicios en el clúster.
  • Csync2: Es una herramienta para la sincronización de archivos entre nodos en un clúster. Asegura que los archivos de configuración y otros datos críticos estén siempre actualizados en todos los nodos.

Estado actual y tendencias futuras

Los clústeres en SUSE Linux han madurado y se están adaptando a nuevas demandas empresariales. Con la adopción creciente de entornos de contenedores y con partes en las diferentes nubes, los clústeres en SUSE Linux están evolucionando para integrarse mejor con ellos. Esto incluye soporte mejorado para la orquestación de contenedores y aplicaciones distribuidas que requieren alta disponibilidad más allá de replicar dos discos por DRBD y manter una IP virtual con vida :)

Aún así, en la actualidad, la combinación de Pacemaker, Corosync, DRBD y otras herramientas proporciona una base sólida para crear clústeres de alta disponibilidad que pueden escalar y adaptarse a las necesidades de SAP HANA y otras soluciones que requieren una alta cuando no total disponibilidad. Si necesitas ayuda en SIXE os ayudamos.

Cheatsheet para la creación y administración de clústeres con Pacemaker en SUSE Linux

Aquí te dejamos una modesta cheatsheet para ayudarte en la creación y administración de clústeres con Pacemaker en SUSE Linux. Sharing is caring!

TareaComando / Descripción
Instalación de paquetes
Instalar Pacemaker y Corosynczypper install -y pacemaker corosync crmsh
Configuración básica
Configurar el archivo de CorosyncEdita /etc/corosync/corosync.conf para definir el transporte, las interfaces y la red.
Iniciar serviciossystemctl start corosync && systemctl start pacemaker
Habilitar servicios en el arranquesystemctl enable corosync && systemctl enable pacemaker
Administración del clúster
Ver estado del clústercrm status
Ver detalles de los nodoscrm_node -l
Añadir un nuevo nodocrm node add <nombre_del_nodo>
Expulsar un nodocrm node remove <nombre_del_nodo>
Ver logs del clústercrm_mon --logfile <ruta_del_log>
Configuración de recursos
Crear un recursocrm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Eliminar un recursocrm configure delete <nombre_recurso>
Modificar un recursocrm configure edit <nombre_recurso>
Mostrar configuración completa del clústercrm configure show
Configuración de grupos y conjuntos
Crear un grupo de recursoscrm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crear un conjunto ordenadocrm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Crear una orden de ejecucióncrm configure order <orden> <recurso1> then <recurso2>
Restricciones y colocaciones
Crear restricción de colocacióncrm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Crear restricción de ubicacióncrm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Failover y recovery
Forzar migración de un recursocrm resource migrate <nombre_recurso> <nombre_nodo>
Limpiar estado de un recursocrm resource cleanup <nombre_recurso>
Inhabilitar un recurso temporalmentecrm resource unmanage <nombre_recurso>
Habilitar un recurso después de deshabilitarlocrm resource manage <nombre_recurso>
Configuración avanzada
Configurar el quorum`crm configure property no-quorum-policy=<freeze
Configurar fencingcrm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configurar timeout de un recursocrm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validación y pruebas
Validar configuración del clústercrm_verify --live-check
Simular una fallacrm_simulate --run
Gestión de políticas
Configurar política de recuperacióncrm configure rsc_defaults resource-stickiness=<valor>
Configurar prioridad de recursoscrm configure resource default-resource-stickiness=<valor>
Detención y arranque del clúster
Detener todo el clústercrm cluster stop --all
Arrancar todo el clústercrm cluster start --all

 

Descubre Ubuntu LXD: La alternativa a Docker o Podman

¿Todavía usas solo Docker o Podman? Descubre por qué deberías probar Ubuntu LXD

INTRODUCCIÓN

Ubuntu LXD es el gestor de contenedores de Ubuntu, basado en LXC (Linux Containers), que a pesar del auge de tecnologías como Docker en el ecosistema de Kubernetes, sigue siendo altamente relevante. Este artículo explora las razones detrás de la persistencia de LXD, sus casos de uso distintivos y los productos que lo emplean en el mundo real. ¿Listo para descubrir por qué deberías prestarle atención?

¿QUÉ ES UBUNTU LXD?

LXD es una herramienta de administración de contenedores que actúa como una mejora para LXC, ofreciendo una experiencia de contenedorización más completa y orientada a máquinas virtuales ligeras. Mientras que Docker y el resto de contenedores basados en el standard OCI son efímeros por diseño, LXD está más enfocado en proporcionar contenedores de sistema completo, permitiendo que se ejecuten múltiples procesos y servicios de manera similar a una máquina virtual. Incluso puedes, desplegar un entorno completo de Kubernetes, con sus contenedores dentro de un LXD En eso se parece mucho más a sus parientes cercanos como las jaulas de BSD, las zonas de Solaris y las WPAR de AIX. ¿Aún sigues pensando que Docker o Podman son tu únicas opciones?

Captura de la interfaz de LXD

La evolución de los contenedores

¿Recuerdas cuando Docker era la única herramienta de contenerización que todos adoraban? Desde su lanzamiento en 2013, Docker revolucionó el desarrollo y despliegue de aplicaciones al hacer que los contenedores fueran accesibles y fáciles de usar. Docker permitió a los desarrolladores empaquetar sus aplicaciones junto con todas sus dependencias, asegurando que funcionaran de manera consistente en cualquier entorno. Esta innovación condujo a una adopción masiva de contenedores en la industria, con Docker y Podman convirtiéndose en estándares de facto, cuando no directamente sus orquestadores como kubernetes. Pero, ¿es Docker la única estrella del show?

Mientras Docker se llevaba toda la atención, LXD estaba trabajando en silencio para ofrecer algo diferentecontenedores de sistema operativo completo. A medida que las organizaciones adoptan contenedores para más casos de uso, surgió la necesidad de una gestión más sofisticada y eficiente. Aquí es donde entra en juego LXD. ¿Te imaginas tener la flexibilidad de las máquinas virtuales pero con la eficiencia de los contenedores, sin tener que volverse loco y cambiar totalmente los casos de uso?

Comparativa entre Ubuntu LXD, Podman y Docker

Docker y Podman están diseñados para empaquetar y desplegar aplicaciones individuales, mientras que Ubuntu LXD ofrece una experiencia más completa. Su arquitectura se centra en la contenedorización de microservicios, aplicaciones en la nube y el despliegue continuo.

Además, están fuertemente integrados con Kubernetes, la herramienta de orquestación de contenedores más popular del mercado. Por otro lado, LXD permite ejecutar un sistema completo dentro de un contenedor. Esta capacidad lo hace ideal para casos de uso donde se requiere un entorno completo, similar a una máquina virtual pero con la eficiencia de los contenedores. ¿Ves la diferencia?imagen de los logos de LXD y Docker

Casos de Uso de Ubuntu LXD

LXD se destaca en varios escenarios específicos. Por ejemplo, en la infraestructura como servicio (IaaS), LXD permite la creación y administración de contenedores de sistema operativo completo. Esto es ideal para proveedores de servicios en la nube que necesitan ofrecer entornos completos sin el overhead de las máquinas virtuales tradicionales. ¿Alguna vez has tenido problemas para replicar un entorno de desarrollo idéntico al de producción? Con LXD, los desarrolladores pueden crear entornos de desarrollo aislados y replicables, minimizando problemas de configuración y dependencias.

imagen de lxd maquinas virtuales y contenedores linux

En el ámbito de las simulaciones y pruebas de red, LXD permite simular redes complejas y realizar pruebas de servicios a nivel de red. Esta capacidad es crucial para replicar infraestructuras de red completas dentro de un solo host. Para tareas de administración de sistemas y DevOps, LXD ofrece una flexibilidad que va más allá de la contenedorización de aplicaciones. Permite la creación de entornos completos que pueden ser gestionados, actualizados y monitoreados como si fueran máquinas físicas, pero con la eficiencia de los contenedores. ¿Todavía piensas que solo tu única alternativa es Docker?

Soluciones que usan LXD de Ubuntu

Canonical, la compañía detrás de Ubuntu y partner de Sixe, ha desarrollado varias soluciones basadas en Ubuntu LXD para ofrecer un rendimiento y una flexibilidad excepcionales. Entre estas soluciones destaca MAAS (Metal as a Service), que utiliza LXD para proporcionar ambientes de desarrollo y prueba altamente configurables. Permite a los usuarios desplegar sistemas operativos completos en contenedores, facilitando la gestión de infraestructuras grandes y complejas.

estadísticas del github de microcloud de canonical

Microcloud se beneficia de LXD al integrarlo para ofrecer contenedores de sistema operativo completo como una opción adicional (o alternativa) a las máquinas virtuales tradicionales, mejorando la flexibilidad y eficiencia en la gestión de recursos. Además, Travis CI, una plataforma de integración continua, utiliza LXD para ejecutar sus entornos de prueba, lo que permite a Travis CI ofrecer entornos de prueba rápidos y reproducibles, mejorando la eficiencia de los desarrolladores. ¿Te sorprende? Pues hay más.

Para aquellos que buscáis implementar estas soluciones en vuestros entornos, SIXE es el partner de referencia de Canonical y Ubuntu que estáis buscando. Con una vasta experiencia en la implementación de LXD y otras tecnologías de virtualización, SIXE puede ayudarte a maximizar el potencial de tus infraestructuras tecnológicas. Ya sea que necesites soporte para MAAS, OpenStack o cualquier otra solución basada en LXD, SIXE tiene el conocimiento y la experiencia para guiarte en cada paso del camino. Cuando haya muchos caminos que se bifurquen podremos recomendarte, aconsejarte y acompañarte por el que más te convenga. Sin compromisos ni volver a estar atado a ningún fabricante, porque con Canonical no ofrecemos productos cerrados, sino tecnologías abiertas, hechas con y para la comunidad llevando la filosofía del software libre hasta sus últimas consecuencias.

Conclusión

A pesar del predominio de tecnologías de contenedorización ligeras como Docker y Podman en Kubernetes, LXD sigue siendo relevante en muchos casos de uso por su capacidad para proporcionar contenedores de sistema operativo completo. Su uso en infraestructuras como servicio, entornos de desarrollo, simulaciones de red y administración de sistemas así como su adopción en productos como MAAS, OpenStack y Travis son buena prueba de ello.

Desde nuestro punto de vista, los beneficios de LXD radican en su capacidad única de combinar la eficiencia de los contenedores con la simplicidad de las máquinas virtuales, ofreciendo una solución híbrida que sigue siendo esencial para múltiples aplicaciones. ¿Aún crees que Docker es la única opción? Seguro que no. Esperamos que te haya gustado este artículo y recuerda que, para cualquier implementación de estas tecnologías, puedes contar con el apoyo experto de SIXE haciendo click aquí. Siempre estaremos a tu lado con las mejores soluciones libres.

Explorando MicroStack: Una plataforma de nube privada eficiente

Nuestra experiencia con microstack, la nube privada abierta y libre de Canonical, basada en Ubuntu Linux


A medida que las organizaciones siguen adoptando la computación en nube, elegir la infraestructura de nube adecuada se convierte en una decisión crítica. Además, MicroStack: una nube privada eficiente, es una herramienta ligera, fácil de instalar y de código abierto basada en la Plataforma Openstack, ha surgido como una opción convincente para muchas empresas. Esta entrada de blog explorará las ventajas de utilizar MicroStack, destacará la creciente cuota de mercado de la Plataforma Openstack y discutirá los crecientes precios de los competidores de la nube pública, así como una introducción al intuitivo menú de despliegue de Openstack para explorar sus capacidades y facilidad de uso.

Ilsutración de una mujer usando un ordenador en la nube

¿Por qué elegir MicroStack?


MicroStack proporciona la flexibilidad del software de código abierto frente a los despliegues tradicionales de nube pública, además de ofrecer una versión más ligera y fácil de desplegar de la plataforma Openstack. Esta variante de Openstack es muy adecuada tanto para startups como para pequeños despliegues en la nube dentro de grandes organizaciones.


MicroStack y la flexibilidad del código abierto?

Nuestra esperencia con MicroStack, la nube privada abierta y libre de Canonical, es que  proporciona la flexibilidad del software de código abierto sin la carga de tarifas de licencia ni la dependencia de un proveedor. Esto permite a las organizaciones implementar infraestructura en la nube a un costo menor y con la libertad de modificar y ampliar la plataforma según sus necesidades específicas. El modelo de desarrollo impulsado por la comunidad garantiza mejoras e innovaciones continuas, fomentando un ecosistema sólido en torno a MicroStack.



Personalización?️

Además, con MicroStack, las organizaciones tienen acceso completo al código fuente y pueden adaptar la plataforma para satisfacer sus requisitos únicos. Esto incluye la integración de una amplia gama de complementos y extensiones, permitiendo a las empresas construir un entorno en la nube que se alinee precisamente con sus objetivos operativos. Esta flexibilidad es crucial para adaptarse a las demandas empresariales en evolución y optimizar la utilización de recursos.



Implementación simplificada ?

La implementación simplificada de MicroStack ofrece un proceso de instalación que minimiza la complejidad y el tiempo de configuración, siendo capaz de iniciar una implementación en la nube en un nodo de cómputo con menos de 6 comandos, con un tiempo promedio de implementación de 30 minutos. Esto lo hace especialmente adecuado para organizaciones que desean establecer o expandir rápidamente su presencia en la nube sin necesidad de una gran experiencia técnica. La implementación sencilla también reduce las barreras iniciales para la adopción, permitiendo un tiempo más rápido para obtener valor en las iniciativas en la nube.



Neutralidad de proveedores?️

A diferencia de las soluciones de nube propietarias que encierran a los usuarios en proveedores específicos, MicroStack soporta una amplia gama de configuraciones de hardware y software. La firme creencia de Canonical, partner de Sixe en el código abierto y la neutralidad de proveedores reduce los riesgos de dependencia y permite a las organizaciones seleccionar los mejores componentes para su infraestructura. También se alinea con las tendencias industriales hacia estándares abiertos e interoperabilidad, mejorando la escalabilidad a largo plazo y la eficiencia operativa. En consecuencia, MicroStack soporta una amplia gama de configuraciones de hardware y software.



Huella climática?

A diferencia de las implementaciones completas de OpenStack que requieren recursos hardware sustanciales, la eficiencia de MicroStack en entornos de escala reducida es excepcional. Esto lo convierte en una elección ideal para escenarios de computación en el borde o para organizaciones con presupuestos limitados de infraestructura. Al optimizar el uso de recursos y minimizar los costos adicionales, MicroStack mejora la eficiencia operativa mientras reduce el costo total de propiedad.


Beneficios técnicos y de rendimiento


Además, las apacidades técnicas y de rendimiento de MicroStack soportan diversos requisitos de carga de trabajo tales como:


Escalabilidad?

MicroStack está diseñado para escalar horizontalmente, adaptándose a cargas de trabajo en crecimiento y a las necesidades empresariales en evolución. Ya sea implementando unos pocos nodos o escalando hasta miles, MicroStack garantiza una expansión fluida sin comprometer el rendimiento o la estabilidad. Esta escalabilidad es fundamental para las organizaciones que experimentan un crecimiento rápido o patrones de demanda fluctuantes en sus operaciones en la nube.



Redes avanzadas?️

Las capacidades de red de MicroStack, potenciadas por componentes como Neutron, ofrecen funciones avanzadas como Redes Definidas por Software (SDN) y Virtualización de Funciones de Red (NFV). Estas capacidades permiten a las organizaciones crear topologías de red complejas, optimizar la gestión del tráfico y mejorar el rendimiento general de la red. El enfoque de MicroStack en paradigmas de redes modernas apoya tecnologías emergentes como contenedores y computación en el borde, alineándose con las tendencias industriales hacia infraestructuras de TI ágiles y adaptables.



Soluciones de almacenamiento eficientes?

MicroStack soporta una variedad de plataformas de almacenamiento a través de componentes como Cinder (almacenamiento de bloques) y Swift (almacenamiento de objetos). Esta versatilidad permite a las organizaciones implementar soluciones de almacenamiento altamente eficientes y escalables, adaptadas a los requisitos específicos de las aplicaciones.



Ahorro?

Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y enfocarse en la innovación en lugar de la gestión de la infraestructura.

Ilustración con tonos verdes de una pasarela de pago

Ventajas económicas


Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos en comparación con las soluciones de nube tradicionales:


  • Menor costo total de propiedad (TCO)

    Al eliminar las tarifas de licencia y aprovechar hardware de bajo costo, MicroStack reduce significativamente tanto el gasto inicial de CapEx como el gasto continuo de OpEx a medida que la organización y la implementación en la nube escalan.
    Las organizaciones pueden lograr ahorros significativos mientras mantienen la flexibilidad y la escalabilidad de una plataforma de nube de código abierto. Esta rentabilidad hace que la Plataforma OpenStack sea accesible para organizaciones de todos los tamaños, desde startups hasta grandes empresas, que buscan optimizar sus inversiones en TI y maximizar su retorno de inversión.


  • Eficiencia de costos

    Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y centrarse en la innovación en lugar de la gestión de la infraestructura.

Mujer mirando sus ingresos

Tendencias de mercado e incremento del precio en servicios de nubes públicas


El Auge de OpenStack: Un Mercado en Crecimiento

MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables, proyectadas para experimentar un crecimiento significativo en el mercado, pasando de $5.46 mil millones en 2024 a una impresionante cifra de $29.5 mil millones en 2031. Este crecimiento subraya la creciente adopción y reconocimiento de los beneficios de OpenStack entre las organizaciones en todo el mundo. Su flexibilidad, rentabilidad y sólido soporte comunitario lo convierten en la opción preferida para las empresas que buscan implementar infraestructuras en la nube escalables y eficientes.

Costos en los Servicios de Nube Pública

En contraste, los costos de los servicios de nube pública han ido en aumento. Aunque estas plataformas ofrecen características extensas y alcance global, sus precios en escalada presentan desafíos para las organizaciones que buscan gestionar eficazmente los costos en la nube. MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables sin comprometer el rendimiento o la escalabilidad.

El Cambio de Implementaciones Sin Servidor a Monolíticas

Paradójicamente, incluso los gigantes de la nube pública como Amazon se abstienen de utilizar su propia nube pública, AWS como una plataforma de microservicios/sin servidor, alejándose de los servicios sin servidor y optando en su lugar por una implementación monolítica, lo que ha disminuido sus OPEX en un 90%. Este tipo de arquitectura, si es beneficiosa, puede integrarse rápidamente y sin problemas en su entorno con MicroStack, aprovechando completamente la plataforma OpenStack en unos pocos pasos simples, teniendo toda su arquitectura pertinente bajo una sola red privada, con una gestión sencilla e intuitiva de la topología de la red en caso de un escenario futuro de ampliación. Para empresas más pequeñas, MicroStack simplificará aún más la migración o implementación de dicha infraestructura.

Adopción de OpenStack entre las Empresas Líderes

Por ejemplo, más del 50% de las empresas Fortune 100 han adoptado OpenStack, destacando su confianza y dependencia en estas tecnologías para respaldar operaciones críticas y iniciativas estratégicas.
Empresas como Comcast, Allstate, Bosch y Capital One están aprovechando OpenStack para impulsar la innovación y lograr ventajas competitivas.

Impacto Global de OpenStack

Además, en regiones como APAC, organizaciones como UnionPay, China Mobile y China Railway están utilizando OpenStack para escalar y transformar sus operaciones de TI, impulsando aún más la adopción y el crecimiento de soluciones de nube de código abierto a nivel mundial.

MicroStack ofrece ventajas económicas interesantes en comparación con las nubes tradicionales:

Gráfica que presenta la posición de Openstack en el mercado

Nuestra experiencia con MicroStack en SIXE


En general, nuestra experiencia con MicroStack en SIXE desde una perspectiva operativa puede describirse como la cúspide de la practicidad y eficiencia. La instalación y la implementación de MicroStack fueron intuitivos, lo que nos permitió configurar completamente una nube privada en menos de 30 minutos.

Para resumir, navegar por las complejidades de la gestión de infraestructuras en la nube es un aspecto crucial de las operaciones de TI modernas. En esta sección final, profundizamos en nuestra experiencia de usuario con el panel de control de MicroStack.

El panel de control de MicroStack ejemplifica el compromiso de Canonical, partner de Sixe con la fácil utilización y accesibilidad. Al aprovechar el panel de control, los usuarios pueden fácilmente implementar y gestionar máquinas virtuales, configurar redes y monitorear la utilización de recursos, todo desde un centro centralizado, lo que reduce la curva de aprendizaje requerida para implementar y operar infraestructuras críticas basadas en la nube.

✨¿Cómo lanzar y configurar una instancia virtual?

Solo se necesitan unos pocos clics para lanzar y configurar una instancia virtual a través del panel de control.

Lanzamos una instancia desde el botón que se encuentra en la esquina superior derecha, aparece un menú emergente donde podemos definir la configuración del servidor.

A continuación, elegimos la imagen para nuestra MV, podemos usar una imagen estándar de sistema operativo ISO, o importar nuestras instantáneas personalizadas previamente instaladas en una MV de configuración previa para una rápida, aunque una personalización de la implementación empresarial de nuestras necesidades.

A continuación, seleccionamos el sabor de la instancia, los sabores son una forma de configurar las especificaciones de hardware virtuales de OpenStack, puede usar uno de los presets preestablecidos o crear uno para satisfacer las necesidades específicas de su infraestructura y aplicaciones.

Usaremos la especificación de preset mediano, OpenStack incluso nos advierte de antemano las limitaciones de hardware a las que está sujeta cada instantánea o imagen.

Suponiendo que su red ya está configurada, el paso final (y opcional) es agregar un grupo de seguridad para poder acceder a la instancia a través de SSH y operar dentro de ella.

¡Ahora nuestra instancia personalizada está configurada y en funcionamiento! :)

Bajo el menú de acciones que se encuentra a la derecha, podemos asociar una IP flotante para poder SSH directamente a la instancia desde nuestra red interna.

¡Ahora podemos usar esa IP para acceder directamente a la instancia mediante SSH!

¿Podemos ejecutar máquinas virtuales KVM (anidadas) sobre LPAR Linux IBM PowerVM?

¡Actualizado! Ya no es un rumor, sino que se soporta oficialmente a partir del 19 de julio de 2024 (ver anuncio)

Breve historia de la virtualización anidada en hardware IBM

La virtualización anidada permite a una máquina virtual (VM) alojar otras VM, creando un entorno de virtualización por capas. Esta capacidad es especialmente beneficiosa en escenarios empresariales donde la flexibilidad, la escalabilidad y la gestión eficiente de los recursos (si ahorramos en CPU lo hacemos en licencias $$$) son fundamentales.

Aunque puede utilizarse con fines de prueba con KVM en x86 o VMware, el rendimiento suele ser subóptimo debido a las múltiples traducciones y modificaciones de las instrucciones de hardware antes de que lleguen a la CPU o al subsistema de E/S. Este problema no es exclusivo de estas plataformas y puede afectar también a otras tecnologías de virtualización.

En plataformas como Z, aunque el impacto en el rendimiento de la virtualización anidada existe, las mejoras y optimizaciones en el hipervisor pueden mitigar estos efectos, haciéndola 100% viable para uso empresarial.

Capas de virtualización en IBM Mainframe

Antes de profundizar en el KVM anidado en PowerVM, es esencial comprender tecnologías similares. Si el mainframe es el abuelo de la tecnología actual de servidores, el particionamiento lógico (LPAR) y las tecnologías de virtualización (zVM) son las abuelas de las soluciones de hipervisor.

zvm linuxone kvm powervm hipervisores

En esta imagen (tomada de este GRAN artículo de ) puedes ver hasta 4 capas

Virtualización de nivel 1: Muestra una LPAR ejecutando Linux de forma nativa

Virtualización de Nivel 2: Muestra las máquinas virtuales que se ejecutan en el hipervisor z/VM o KVM

Virtualización de Nivel 3: Muestra el anidamiento de Máquinas Virtuales z/VM

Virtualización de nivel 4: Muestra contenedores Linux que pueden ejecutarse como contenedores independientes o pueden orquestarse con kubernetes

Ahora echa un vistazo a esta imagen antigua (2010) de la arquitectura de la plataforma IBM Power. ¿Ves algo parecido? :) ¡Sigamos adelante!

virtualización powervm

Despliegue de máquinas virtuales sobre una LPAR PowerVM Linux

Si tenemos LPARs en Power donde podemos ejecutar AIX, Linux e IBM i, y en Linux podemos instalar KVM, ¿podemos ejecutar máquinas virtuales dentro de una LPAR?

No del todo; fallará en algún momento. ¿Por qué? Porque KVM no es zVM (por ahora), y necesitamos algunos retoques en el código del kernel de Linux para soportar la virtualización anidada no sólo con los procesadores IBM Power9 o Power10, sino también con el subsistema de memoria y E/S Power.

Examinando las listas de correo de kernel.org, podemos ver avances prometedores. Ejecutar con éxito varias máquinas virtuales con KVM en una LPAR PowerVM significa portar una fantástica tecnología de virtualización de mainframe a IBM Power, lo que nos permite ejecutar máquinas virtuales y virtualización Kubernetes/OpenShift en ppc64le con fines de producción. La virtualización de la CPU en sistemas Power y Mainframe simplemente asigna tiempo de procesador sin asignar un hilo completo como hacen KVM o VMware. Por tanto, es técnicamente posible añadir un hipervisor encima sin afectar significativamente al rendimiento, como hace IBM con LinuxOne.

Últimas noticias sobre KVM en LPARs IBM PowerVM (Mayo 2024)

En Sixe llevamos años siguiendo de cerca la evolución de ppc64 y ppc64le. Recientemente, hemos encontrado algunos mensajes intrigantes en las listas de correo del núcleo Linux. Estos mensajes proporcionan información sobre la hoja de ruta inmediata de esta tecnología tan esperada y demandada.

1) Añade una capacidad VM para permitir la virtualización anidada
Resumen: Este mensaje trata de la implementación de las capacidades de virtualización anidada en KVM para PowerPC, incluidas las configuraciones de módulos y la compatibilidad con CPUs POWER9.

2 ) API PAPR anidada (KVM en PowerVM)
Resumen: Detalla la ampliación del estado de registro para la API PAPR anidada, la gestión de múltiples VCPU y la implementación de hiperllamadas específicas.

3) KVM: PPC: Book3S HV: Virtualización HV anidada
Resumen: Una serie de parches que mejoran la virtualización anidada en KVM para PowerPC, incluyendo el manejo de hiperllamadas, fallos de página y tablas de mapeo en debugfs.

Para obtener información más detallada, puedes consultar los siguientes enlaces:

¿Podremos instalar Windows en Power Systems (por diversión)?

¡Permanece atento!

Nuevo servidor IBM Power10 S1012 para Edge Computing, HA, DR y entornos pequeños

El Power10 más compacto para tu entorno remoto, recuperación ante desastres, edge computing e inferencia de IA

IBM acaba de anunciar un nuevo modelo de servidor IBM Power, el S1012. Una auténtica BELLEZA que en SIXE pronto tendremos en la oficina, y dependiendo del ruido que haga puede que incluso debajo de la mesa :) Se puede conseguir en formato torre o enrracable, bien juntando dos servidores pues cada uno ocupa la mitad de la anchura de un rack convencional, como se ve en esta imágen o dejando un “hueco” para llenar las 2U enteras. Se puede configurar como quieras. El serviodr viene con 1 socket de hasta 8 cores y 256GB de RAM y en SIXE lo comenzaremos a ofrecer a partir de Junio de 2024.

¿Qué podemos ejecutar en los nuevos S1012?

En  podremos instalar directamente o de manera virtualizada con PowerVM distribuciones de Linux como Ubuntu, Rocky, Alma, RHEL y SUSE, así como AIX e IBM i. IBM Power S1012 está diseñado para mejorar las capacidades de gestión remota para clientes que buscan expandir aplicaciones como la inferencia de IA, nodos de OpenShift, aplicaciones críticas bajo arquitecturas de “Edge Computing”, es decir, llevando estos servidores físcamente a donde sean necesarios para procesar directamente los datos sin necesidad de transferirlos primero logrando importantísimos ahorros de costes, rapidez y eficiencia. Además gracias al formato torre, podemos instalar estos servidores donde queramos sin necesidad de disponer de armarios de rack.

 

Reduce tu huella de carbono

Con los servidores Power10 puedes hacer mucho más con menos. Gracias a sus 8 hilos por core físico, puedes consolidar muchas, pero que muchos entornos x86 o ARM en un único Power, ahorrando en energía y espacio en tus centros de datos.

Casos de uso

Está diseñado y optimizado para computación distribuida como plantas fotovoltaicas, industrias, barcos, aviones, vehículos, entornos militares, naves espaciales y un largo etc. También es ideal para ejecutar cargas de trabajo principales en organizaciones pequeñas, que tengan por ejemplo ERPs o aplicaciones de gestión industrial en IBMi y RPG, o como solución de muy bajo coste para entornos de respaldo (Remote Office / Back Office – ROBO). Además es muy sencillo conectarlo directamente con servicios en la nube como IBM® Power® Virtual Server para respaldo y recuperación de desastres. Además para bases de datos críticas, con GLVM podemos crear clusters entre sedes a cientos de KM de distancia para Oracle, Informix o DB2 sin necesidad de conexiones de fibra dedicadas.

Detalles técnicosAccede al redbook que IBM ha preparado con todos los detalles de estos sistemas

Precio

El S1012 ofrece el precio de entrada más bajo de todos los servidores Power y con hasta 3 veces más rendimiento que un sistema x86 equivalente. Si eres cliente de IBM i puedes licenciar un único core y usar el resto para otras cargas de trabajo en AIX o Linux. Si quieres saber más, ¡llámanos!

 

Comparando hipervisores: LXD, IBM PowerVM, Proxmox y Red Hat OpenShift como alternativas a VMWare ESXi

La virtualización es una herramienta vital en el mundo de las TI, permitiendo a las empresas optimizar sus recursos de hardware y mejorar la eficiencia y la gestión de sus sistemas. VMware ESXi ha sido un líder indiscutible en este espacio, pero con su compra por Broadcom y los cambios muy importantes en precios, y sobretodo, la eliminación de su versión gratuita, miles de clientes están evaluando las alternativas existentes.

Aquí va nuestra pequeña aportación, como expertos en IBM PowerVM pero también entusiastas del resto de opciones basadas en KVM. Todas (menos VMWare) funcionan en nuestros laboratorios y dependiendo de los proyectos elegimos unas u otras para nuestros clientes. Si quieres que lo discutamos en detalle ponte en contacto con nosotros sin compromiso.

Si bien es difícil proporcionar una comparación exhaustiva con todas las características de ESXi, ya que varían entre versiones y combinaciones específicas con otras herramientas de VMware, la siguiente tabla ofrece un resumen de lo que para nosotros son las características más importantes de ESXi y cómo se soportan en LXD, PowerVM, Proxmox y Red Hat OpenShift. Esperamos que os sea de utilidad.

CaracterísticaLXDVMware ESXiPowerVMProxmoxRed Hat OpenShift (OCP)*
Tipo de softwareCódigo abierto.PropietarioPropietario (específico de IBM)Código abierto (basado en KVM y contenedores)Propietario (basado en Kubernetes y contenedores)
Se basa enKVM. Igual que OCP soporta contenedores y también VMs.VMkernelBasado en tecnología IBM heredada de entornos Mainframe, con tecnologías avanzadas de micro-particionamiento de procesadores y asilamiento HW de VMsKVM y LXCKVM (para máquinas virtuales *si se instala en modo bare-metal y no sobre otros hipervisores) y Kubernetes para contenedores
Web UISí pero limitado. Se necesita vSphere para muchas funcionalidades.Sí HMC (equivalente a vSphere) o PowerVC (basado en OpenStack)
ClusteringSí (a través de Kubernetes)
Alta DisponibilidadSí (con características avanzadas de Kubernetes)
VM live migrationSí (a través de Kubernetes y OpenShift Virtualization)
Almacenamiento compartidoCephvSANSoporta varios sistemas de archivos y almacenamientoCeph, ZFS y otrosGlusterFS, Ceph y otros
NetworkingBridge, OVNNSXCompatible con casi todas las tecnologías de redBridge, VLAN, VXLAN y otrosSDN, OVN y otros
Snapshots
BackupSí (con herramientas de gestión de IBM y terceros)
Free trialN/A (uso gratuito ilimitado)30 díasNo aplica (incluido gratis en el hardware IBM)N/A (uso gratuito ilimitado)Prueba gratuita disponible
CosteGratuito, con soporte empresarial disponible por host físicoLa funcionalidad completa requiere una licencia de pago.Incluido con el hardware IBM PowerGratuito, con soporte empresarial por suscripciónSuscripción basada en núcleos; varía según el entorno.
Número de hilosLimitado a 2 hilos por core (x86)Limitado a 2 hilos por core (x86)Hasta 1,920 hilos (Power10 E1080)Limitado a 2 hilos por core (x86)Limitado a 2 hilos por core (x86)
Tipo de hipervisorNivel 1 (sobre KVM)Nivel 1Nivel 0 (VMs separadas a nivel de firmware con mapeo de CPU)Nivel 1 (KVM) y Nivel 2 (LXC)Nivel 2 (sobre RHEL)
Madurez de la tecnología (años)> 10 años> 20 años> 30 años (viene de entornos Z / LPARs)> 10 años> 10 años
Capacidad máxima de RAM por VMHasta 2TBHasta 2 TBHasta 32 TBHasta 2TBHasta 2TB

Como salir del ULA de Oracle y ahorrar hasta un 60% migrando a IBM Power

Salir de un contrato Unlimited License Agreement (ULA) de Oracle y migrar a sistemas IBM Power puede ser un proceso complejo, pero bien ejecutado, puede ofrecer ahorros significativos y beneficios a largo plazo. En este artículo, exploraremos cómo realizar esta transición de manera efectiva y sin penalizaciones, basándonos en ejemplos reales.

Entendiendo el ULA de Oracle

Primero, es esencial comprender lo que implica un ULA de Oracle. Se trata de un contrato que Oracle compró a una tercera empresa y que sigue asustando y gustando a partes iguales. Permite un uso ilimitado de ciertos productos de software de Oracle durante un período determinado, generalmente entre 3 y 5 años. Al final del contrato ULA, la empresa debe declarar el uso de estos productos y este se convierte en su “certificación” para futuras auditorías de licencias. Dice un célebre refrán que más vale malo conocido, que bueno por conocer. Y otro que el diablo, está en los detalles. En el caso de Oracle, no hay dos ULAs iguales. Todos se basan en una misma premisa “cuando dinero Oracle cree que puede obtener de su cliente”. Pero bueno, más allá de eso, hay unas reglas de juego que una vez entendidas nos permiten ayudar a nuestros clientes.

Pasos para Salir del ULA de Oracle

  1. Auditoría incial: Antes de la finalización del ULA, realizamos una auditoría interna para entender completamente su uso actual de los productos Oracle. Esto incluye identificar qué productos son esenciales y cuáles pueden ser reemplazados o descartados.
  2. Análisis de necesidades futuras: Evaluamos las necesidades futuras de su empresa en términos de software y bases de datos. Este paso es crucial para determinar si es viable la transición a IBM Power y cuales son los ahorros potenciales.
  3. Revisión de contratos licenciamiento por terceras partes: Dado que los contratos de Oracle pueden ser complejos, es aconsejable trabajar con consultores especializados en licenciamiento de Oracle. Ellos pueden ayudar a entender las implicaciones de su ULA y cómo salir de él sin incurrir en penalizaciones.
  4. Negociamos con Oracle: Os ayudamos a negocir un nuevo acuerdo que se ajuste mejor a tus necesidades actuales y futuras.
  5. Planificación de la migración: Desarrolle un plan detallado para migrar de Oracle a IBM Power.

Migración a IBM Power

La migración a IBM Power implica trasladar las cargas de trabajo de las bases de datos y aplicaciones de Oracle a un entorno de IBM. Esto puede incluir la utilización de IBM Db2, que es conocido por su alto rendimiento y seguridad.

  1. Evaluación de compatibilidad: Nos aseguramos de que tus aplicaciones actuales sean compatibles con IBM Power. Oracle lo es en todas sus versiones actuales y futuras, pero siempre puede haber algún aplicativo que requiera alguna modificación para cambiar de arquitectura (lo hacemos todos los días y sin problemas).
  2. Diseño del nuevo entorno: En base a la auditoría previa, diseñamos un nuevo entorno seguro, sencillo, potente y estable adaptado a tus necesidades y presupuesto.
  3. Implementación de IBM Power: Os ayudamosa a adquirir y desplegar IBM Power. Configuramos las bases de datos y aplicaciones necesarias.
  4. Migración de Datos: Movemos los datos de Oracle a IBM Power, asegurándose de que la integridad de los datos se mantenga durante el proceso.
  5. Pruebas de rendimiento, HA y DR: Realice pruebas exhaustivas para asegurar que todas las aplicaciones y bases de datos funcionen correctamente en el nuevo entorno.
  6. Formación y soporte técnico: Capacitamos a tu equipo en el uso de la nueva plataforma y si lo necesitas, puedes nuestros servicios de mantenimiento preventivo y soporte técnico para ayudarles.

Más cosas que te va gustar de Oracle en Power

Tenemos playbooks de Ansible oficiales y soportados para automatizar todos los despliegues y operaciones de día 2:

Muchísima documentación:

 

Y en SIXE como proveedor oficial de formación de IBM nos encargamos de que vuestros equipos técnicos dominen la plataforma en semanas. Como técnicos que también somos, os garantizamos que van a agradecer mucho el cambio.

 

 

¿Cuanto presupuesto me puedo ahorrar migrando Oracle a IBM Power?

En términos de costes, la migración de Oracle a IBM Power puede resultar en ahorros significativos, aunque estos varían según cada cliente. Ejemplos reales han mostrado ahorros de entre un 20% y un 60% en costes totales de propiedad (TCO) al migrar de Oracle a soluciones alternativas como IBM. Estos ahorros provienen de menores costes de licencias, reducción en la necesidad de hardware de alto rendimiento debido a la eficiencia de IBM Power, y menores costes de mantenimiento y soporte.

¡Pero las licencias de Oracle para Power son más caras!

Es cierto, pero tenemos clientes donde podemos hacer con 25 cores de Power10 lo mismo que con 100 en un Exadata, pero es que además IBM Power no está restringido a Oracle (aunque hay más de 80.000 instalaciones en el mundo). Puedes desplegar OpenShift, SAP HANA o cualquier otra carga de trabajo que funcione en SUSE, Red Hat, AIX e IBMi. En realidad, el caso de uso más habitual es la consolidación de todos los Exadatas y gran parte de los servidores x86 en un Power10 en cada centro de datos. Funcionando todo sobre un hipervisor que está a otro nivel, donde en vez de “mapear cpus” como hace KVM o VMWare, la capacidad de cada una se comparte en tiempo real, ganando en utilización global del sistema además de en rendimiento.  Los Exadatas han sido un gran logro a nivel de marketing, pero ni son más baratos, ni dan mejor rendimiento ni proporcionan la seguridad de IBM Power.

Conclusión

Salir de un contrato ULA de Oracle y migrar a IBM Power, es perfectamente viable. Al hacerlo correctamente, no solo se pueden evitar penalizaciones sino también lograr ahorros considerables en costes, mejorando al mismo tiempo la eficiencia y la adaptabilidad tecnológica de la empresa. Es esencial contar con el apoyo de expertos en licencias y realizar un análisis exhaustivo para asegurar una transición exitosa.

No esperamos haberte convencido, pero quizás podríamos hablar sin compromiso, discutir cualquier duda y, si os parece interesante, realizar gratuitamente un análisis de viabilidad. En el pero de los casos, renováis el ULA tal cual. Es broma (o no) :)

SIXE