Instalar windows en ibm power logo ibm windows xp sobre el logo de sixe

Instalar Windows en IBM Power (por diversión)

En una conversación reciente con lo que yo llamo los Magos de Power, es decir, la dirección técnica de esta fantástica plataforma: inventores, arquitectos, ingenieros distinguidos y grandes equipos de personas detrás de ella, me preguntaron.“¿Por qué tu interés en la emulación, quién querría emular otras arquitecturas en Power, qué sentido tiene?”. Mi respuesta es que en el mundo del código abierto, muchas de las cosas que hacemos, las hacemos por curiosidad o incluso sólo por diversión.

Resuena en mi cabeza que si un día puedo divertirme tanto con un Linux en ppc64le como lo hago en x86 o poco a poco en ARM (Mac, Raspberry) significará que Power puede ser “la tercera” arquitectura para Linux mucho más allá de los casos de uso reales y las cargas de trabajo de misión crítica.

En otras palabras, si puedo hacer lo mismo en ppc64le que en otras arquitecturas, puedo utilizar Power para cualquier caso de uso.

¿Por qué tener mil servidores x86 malgastando energía y ocupando espacio en el CPD cuando podemos tener unos cuantos servidores Power haciendo el mismo trabajo de forma más segura y eficiente?

Los clientes dirán que por compatibilidad, por utilizar herramientas estándar. Pero la multiarquitectura puede ser el nuevo estándar, si no lo es ya.

No quiero profundizar demasiado en este tema hoy, hay varias ideas publicadas en el portal de IBM y creo que los equipos de IBM, Debian, Canonical y Red Hat están haciendo un trabajo excelente que trataré en futuros posts.

Hubo noticias en la lista kernel.org que hemos estado cubriendo en el blog SIXE durante los últimos meses sobre el duro trabajo que se está haciendo al respecto, y con la llegada del nuevo nivel FW1060 por fin tenemos soporte completo para KVM en PowerVM. Esto es algo equivalente a lo que existe en IBM Z/Linux One. ¡Estupendo!

Como siempre, quería llevar la tecnología hasta sus límites, incluyendo un viejo sueño: ejecutar un Windows (el “enemigo” para los chicos de AIX y Linux) y en este caso y para más diversión Windows XP en un Power10, utilizando KVM y QEMU.

Preparación

Tenemos que configurar la LPAR para que sea host KVM, esto cambiará la forma en que utiliza PowerVM de tal manera que no haya sobrecarga, y también hay que asignarle al menos un procesador dedicado (no en modo “donante”, ojo). Esto nos dará 8 hilos dedicados para ejecutar nuestros procesadores virtuales en KVM. Sí, es mucho más sencillo y menos capaz que PowerVM con sus microparticiones, pero sigue siendo un estándar industrial y no todo el mundo necesita desplazarse al trabajo en avión.¿No te parece?

KVM Capable seleccionado

Elegir la distribución

Según mi experiencia, el mejor soporte para experimentos con ppc64le suele ser Debian o Fedora. En este caso he instalado Fedora40 y actualizado a los últimos niveles. Luego tienes que instalar todos los paquetes de virtualización y el soporte qemu para otras arquitecturas. Siguiendo mi idea de crear artículos interactivos, utilizaré virt-manager para evitar complejas configuraciones de QEMU. En mi entorno he instalado todos los qemu-system-*

qemu-system comando

Para que Windows detecte nuestros discos SATA virtuales como utilizables, tendrás que configurar esto Una vez hecho esto, puedes instalar lo que necesitarán tus discos

# dnf install virtio-win-stable

También necesitarás una .iso de Windows XP y sus números de licencia. Te recomiendo colocarlo en /var/lib/libvirtd/images para que sea detectado automáticamente por virt-manager.

Crear la máquina virtual (sólo tienes que seguir el asistente)

Asegúrate de seleccionar x86 como arquitectura (qemu se encargará de ello)

Menu creación máquina virtual

 

Maquina virtual manager

Al igual que cuando ejecutamos AIX en x86, no esperes que vaya muy rápido, aunque tardé aproximadamente una hora en instalarlo… en realidad más o menos lo que tardaba en un PC de la época.
¡Qué ganas tengo de volver a ver MS Messenger! ¡Disfruta del vídeo y mantente al día siguiéndonos!

Installing Windows on IBM Power (for fun)Installing Windows on IBM Power (for fun)

Otras pruebas

¿Qué te parece ejecutar un MS PowerShell para ARM64 en Docker? Ahora puedo “dir” en Power, ¡fantástico! :P

ejecutar un MS PowerShell para ARM64 en Docker

Conclusión

El trabajo realizado para dar soporte a KVM es para mí la mayor novedad de los últimos años por las infinitas posibilidades que abre para la plataforma Power.

Por lo que he podido probar, todo funciona y funciona muy bien. Enhorabuena a todas las personas que lo han hecho posible.
Logo Suse En fondo de SIXE

Entendiendo la alta disponibilidad (HA) en SUSE Linux

La alta disponibilidad y la continuidad del negocio son cruciales para mantener las aplicaciones y servicios siempre operativos. Los clústeres de alta disponibilidad permiten que los servicios críticos sigan funcionando, incluso si fallan servidores o componentes de hardware. SUSE Linux ofrece un conjunto de herramientas robustas para la creación y gestión de estos clústeres. En este artículo, exploramos la alta disponibilidad en SUSE Linux: el estado actual de los clústeres en SUSE Linux, con un enfoque en tecnologías clave como Pacemaker, Corosync, DRBD y otras. Estas, con pequeñas diferencias están disponibles en x86 y en ppc64le.

Pacemaker: el cerebro del clúster

Pacemaker es el motor que gestiona los clústeres de alta disponibilidad en SUSE Linux. Su función principal es administrar los recursos del clúster, asegurando que los servicios críticos estén operativos y se recuperen rápidamente en caso de fallo. Pacemaker monitoriza continuamente los recursos (bases de datos, servicios web, sistemas de archivos, etc.) y, si detecta un problema, migra esos recursos a otros nodos del clúster para mantenerlos en funcionamiento.

Pacemaker destaca por su flexibilidad y capacidad para gestionar una amplia variedad de recursos. Desde servicios sencillos hasta sistemas distribuidos más complejos, es capaz de manejar la mayoría de los escenarios de alta disponibilidad que una empresa puede necesitar.

Corosync: el sistema nervioso del clúster

Corosync es responsable de la comunicación entre los nodos del clúster. Asegura que todos los nodos tengan la misma visión del estado del clúster en todo momento, lo cual es esencial para la toma de decisiones coordinadas. También gestiona el quorum, que determina si hay suficientes nodos activos para que el clúster opere de manera segura. Si se pierde el quorum, se pueden tomar medidas para evitar la pérdida de datos o incluso la caída del servicio.

DRBD: la columna vertebral de los datos

DRBD (Distributed Replicated Block Device) es una solución de replicación de almacenamiento a nivel de bloques que replica datos entre nodos en tiempo real. Con DRBD, los datos de un servidor se replican en otro servidor casi instantáneamente, creando una copia exacta. Esto es especialmente útil en escenarios donde es crucial que los datos críticos estén siempre disponibles, incluso si un nodo falla. Combinado con Pacemaker, DRBD permite que los servicios sigan operando con acceso a los mismos datos, aunque estén en diferentes nodos.

Otras tecnologías clave en clústeres SUSE Linux

Además de Pacemaker, Corosync y DRBD, existen otras tecnologías esenciales para construir clústeres robustos en SUSE Linux:

  • SBD (Storage-Based Death): SBD es una herramienta de fencing que aísla un nodo que no se comporta correctamente para evitar que cause problemas en el clúster. Esto se logra utilizando un dispositivo de almacenamiento compartido que los nodos usan para comunicarse su estado.
  • OCF (Open Cluster Framework): Los scripts OCF son la base de los recursos gestionados por Pacemaker. Definen cómo iniciar, detener y verificar el estado de un recurso, proporcionando la flexibilidad necesaria para integrar una amplia gama de servicios en el clúster.
  • Csync2: Es una herramienta para la sincronización de archivos entre nodos en un clúster. Asegura que los archivos de configuración y otros datos críticos estén siempre actualizados en todos los nodos.

Estado actual y tendencias futuras

Los clústeres en SUSE Linux han madurado y se están adaptando a nuevas demandas empresariales. Con la adopción creciente de entornos de contenedores y con partes en las diferentes nubes, los clústeres en SUSE Linux están evolucionando para integrarse mejor con ellos. Esto incluye soporte mejorado para la orquestación de contenedores y aplicaciones distribuidas que requieren alta disponibilidad más allá de replicar dos discos por DRBD y manter una IP virtual con vida :)

Aún así, en la actualidad, la combinación de Pacemaker, Corosync, DRBD y otras herramientas proporciona una base sólida para crear clústeres de alta disponibilidad que pueden escalar y adaptarse a las necesidades de SAP HANA y otras soluciones que requieren una alta cuando no total disponibilidad. Si necesitas ayuda en SIXE os ayudamos.

Cheatsheet para la creación y administración de clústeres con Pacemaker en SUSE Linux

Aquí te dejamos una modesta cheatsheet para ayudarte en la creación y administración de clústeres con Pacemaker en SUSE Linux. Sharing is caring!

Tarea Comando / Descripción
Instalación de paquetes
Instalar Pacemaker y Corosync zypper install -y pacemaker corosync crmsh
Configuración básica
Configurar el archivo de Corosync Edita /etc/corosync/corosync.conf para definir el transporte, las interfaces y la red.
Iniciar servicios systemctl start corosync && systemctl start pacemaker
Habilitar servicios en el arranque systemctl enable corosync && systemctl enable pacemaker
Administración del clúster
Ver estado del clúster crm status
Ver detalles de los nodos crm_node -l
Añadir un nuevo nodo crm node add <nombre_del_nodo>
Expulsar un nodo crm node remove <nombre_del_nodo>
Ver logs del clúster crm_mon --logfile <ruta_del_log>
Configuración de recursos
Crear un recurso crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Eliminar un recurso crm configure delete <nombre_recurso>
Modificar un recurso crm configure edit <nombre_recurso>
Mostrar configuración completa del clúster crm configure show
Configuración de grupos y conjuntos
Crear un grupo de recursos crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crear un conjunto ordenado crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Crear una orden de ejecución crm configure order <orden> <recurso1> then <recurso2>
Restricciones y colocaciones
Crear restricción de colocación crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Crear restricción de ubicación crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Failover y recovery
Forzar migración de un recurso crm resource migrate <nombre_recurso> <nombre_nodo>
Limpiar estado de un recurso crm resource cleanup <nombre_recurso>
Inhabilitar un recurso temporalmente crm resource unmanage <nombre_recurso>
Habilitar un recurso después de deshabilitarlo crm resource manage <nombre_recurso>
Configuración avanzada
Configurar el quorum `crm configure property no-quorum-policy=<freeze
Configurar fencing crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configurar timeout de un recurso crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validación y pruebas
Validar configuración del clúster crm_verify --live-check
Simular una falla crm_simulate --run
Gestión de políticas
Configurar política de recuperación crm configure rsc_defaults resource-stickiness=<valor>
Configurar prioridad de recursos crm configure resource default-resource-stickiness=<valor>
Detención y arranque del clúster
Detener todo el clúster crm cluster stop --all
Arrancar todo el clúster crm cluster start --all

 

iconos LXD docker podman

Descubre Ubuntu LXD: La alternativa a Docker o Podman

¿Todavía usas solo Docker o Podman? Descubre por qué deberías probar Ubuntu LXD

INTRODUCCIÓN

Ubuntu LXD es el gestor de contenedores de Ubuntu, basado en LXC (Linux Containers), que a pesar del auge de tecnologías como Docker en el ecosistema de Kubernetes, sigue siendo altamente relevante. Este artículo explora las razones detrás de la persistencia de LXD, sus casos de uso distintivos y los productos que lo emplean en el mundo real. ¿Listo para descubrir por qué deberías prestarle atención?

¿QUÉ ES UBUNTU LXD?

LXD es una herramienta de administración de contenedores que actúa como una mejora para LXC, ofreciendo una experiencia de contenedorización más completa y orientada a máquinas virtuales ligeras. Mientras que Docker y el resto de contenedores basados en el standard OCI son efímeros por diseño, LXD está más enfocado en proporcionar contenedores de sistema completo, permitiendo que se ejecuten múltiples procesos y servicios de manera similar a una máquina virtual. Incluso puedes, desplegar un entorno completo de Kubernetes, con sus contenedores dentro de un LXD En eso se parece mucho más a sus parientes cercanos como las jaulas de BSD, las zonas de Solaris y las WPAR de AIX. ¿Aún sigues pensando que Docker o Podman son tu únicas opciones?

Captura de la interfaz de LXD

La evolución de los contenedores

¿Recuerdas cuando Docker era la única herramienta de contenerización que todos adoraban? Desde su lanzamiento en 2013, Docker revolucionó el desarrollo y despliegue de aplicaciones al hacer que los contenedores fueran accesibles y fáciles de usar. Docker permitió a los desarrolladores empaquetar sus aplicaciones junto con todas sus dependencias, asegurando que funcionaran de manera consistente en cualquier entorno. Esta innovación condujo a una adopción masiva de contenedores en la industria, con Docker y Podman convirtiéndose en estándares de facto, cuando no directamente sus orquestadores como kubernetes. Pero, ¿es Docker la única estrella del show?

Mientras Docker se llevaba toda la atención, LXD estaba trabajando en silencio para ofrecer algo diferentecontenedores de sistema operativo completo. A medida que las organizaciones adoptan contenedores para más casos de uso, surgió la necesidad de una gestión más sofisticada y eficiente. Aquí es donde entra en juego LXD. ¿Te imaginas tener la flexibilidad de las máquinas virtuales pero con la eficiencia de los contenedores, sin tener que volverse loco y cambiar totalmente los casos de uso?

Comparativa entre Ubuntu LXD, Podman y Docker

Docker y Podman están diseñados para empaquetar y desplegar aplicaciones individuales, mientras que Ubuntu LXD ofrece una experiencia más completa. Su arquitectura se centra en la contenedorización de microservicios, aplicaciones en la nube y el despliegue continuo.

Además, están fuertemente integrados con Kubernetes, la herramienta de orquestación de contenedores más popular del mercado. Por otro lado, LXD permite ejecutar un sistema completo dentro de un contenedor. Esta capacidad lo hace ideal para casos de uso donde se requiere un entorno completo, similar a una máquina virtual pero con la eficiencia de los contenedores. ¿Ves la diferencia?imagen de los logos de LXD y Docker

Casos de Uso de Ubuntu LXD

LXD se destaca en varios escenarios específicos. Por ejemplo, en la infraestructura como servicio (IaaS), LXD permite la creación y administración de contenedores de sistema operativo completo. Esto es ideal para proveedores de servicios en la nube que necesitan ofrecer entornos completos sin el overhead de las máquinas virtuales tradicionales. ¿Alguna vez has tenido problemas para replicar un entorno de desarrollo idéntico al de producción? Con LXD, los desarrolladores pueden crear entornos de desarrollo aislados y replicables, minimizando problemas de configuración y dependencias.

imagen de lxd maquinas virtuales y contenedores linux

En el ámbito de las simulaciones y pruebas de red, LXD permite simular redes complejas y realizar pruebas de servicios a nivel de red. Esta capacidad es crucial para replicar infraestructuras de red completas dentro de un solo host. Para tareas de administración de sistemas y DevOps, LXD ofrece una flexibilidad que va más allá de la contenedorización de aplicaciones. Permite la creación de entornos completos que pueden ser gestionados, actualizados y monitoreados como si fueran máquinas físicas, pero con la eficiencia de los contenedores. ¿Todavía piensas que solo tu única alternativa es Docker?

Soluciones que usan LXD de Ubuntu

Canonical, la compañía detrás de Ubuntu y partner de Sixe, ha desarrollado varias soluciones basadas en Ubuntu LXD para ofrecer un rendimiento y una flexibilidad excepcionales. Entre estas soluciones destaca MAAS (Metal as a Service), que utiliza LXD para proporcionar ambientes de desarrollo y prueba altamente configurables. Permite a los usuarios desplegar sistemas operativos completos en contenedores, facilitando la gestión de infraestructuras grandes y complejas.

estadísticas del github de microcloud de canonical

Microcloud se beneficia de LXD al integrarlo para ofrecer contenedores de sistema operativo completo como una opción adicional (o alternativa) a las máquinas virtuales tradicionales, mejorando la flexibilidad y eficiencia en la gestión de recursos. Además, Travis CI, una plataforma de integración continua, utiliza LXD para ejecutar sus entornos de prueba, lo que permite a Travis CI ofrecer entornos de prueba rápidos y reproducibles, mejorando la eficiencia de los desarrolladores. ¿Te sorprende? Pues hay más.

Para aquellos que buscáis implementar estas soluciones en vuestros entornos, SIXE Ingeniería es el partner de referencia de Canonical y Ubuntu que estáis buscando. Con una vasta experiencia en la implementación de LXD y otras tecnologías de virtualización, SIXE puede ayudarte a maximizar el potencial de tus infraestructuras tecnológicas. Ya sea que necesites soporte para MAAS, OpenStack o cualquier otra solución basada en LXD, SIXE tiene el conocimiento y la experiencia para guiarte en cada paso del camino. Cuando haya muchos caminos que se bifurquen podremos recomendarte, aconsejarte y acompañarte por el que más te convenga. Sin compromisos ni volver a estar atado a ningún fabricante, porque con Canonical no ofrecemos productos cerrados, sino tecnologías abiertas, hechas con y para la comunidad llevando la filosofía del software libre hasta sus últimas consecuencias.

Conclusión

A pesar del predominio de tecnologías de contenedorización ligeras como Docker y Podman en Kubernetes, LXD sigue siendo relevante en muchos casos de uso por su capacidad para proporcionar contenedores de sistema operativo completo. Su uso en infraestructuras como servicio, entornos de desarrollo, simulaciones de red y administración de sistemas así como su adopción en productos como MAAS, OpenStack y Travis son buena prueba de ello.

Desde nuestro punto de vista, los beneficios de LXD radican en su capacidad única de combinar la eficiencia de los contenedores con la simplicidad de las máquinas virtuales, ofreciendo una solución híbrida que sigue siendo esencial para múltiples aplicaciones. ¿Aún crees que Docker es la única opción? Seguro que no. Esperamos que te haya gustado este artículo y recuerda que, para cualquier implementación de estas tecnologías, puedes contar con el apoyo experto de SIXE haciendo click aquí. Siempre estaremos a tu lado con las mejores soluciones libres.

Logo MicroStack sobre fondo azul

Explorando MicroStack: Una plataforma de nube privada eficiente

Nuestra experiencia con microstack, la nube privada abierta y libre de Canonical, basada en Ubuntu Linux


A medida que las organizaciones siguen adoptando la computación en nube, elegir la infraestructura de nube adecuada se convierte en una decisión crítica. Además, MicroStack: una nube privada eficiente, es una herramienta ligera, fácil de instalar y de código abierto basada en la Plataforma Openstack, ha surgido como una opción convincente para muchas empresas. Esta entrada de blog explorará las ventajas de utilizar MicroStack, destacará la creciente cuota de mercado de la Plataforma Openstack y discutirá los crecientes precios de los competidores de la nube pública, así como una introducción al intuitivo menú de despliegue de Openstack para explorar sus capacidades y facilidad de uso.

Ilsutración de una mujer usando un ordenador en la nube

¿Por qué elegir MicroStack?


MicroStack proporciona la flexibilidad del software de código abierto frente a los despliegues tradicionales de nube pública, además de ofrecer una versión más ligera y fácil de desplegar de la plataforma Openstack. Esta variante de Openstack es muy adecuada tanto para startups como para pequeños despliegues en la nube dentro de grandes organizaciones.


MicroStack y la flexibilidad del código abierto🌐

Nuestra esperencia con MicroStack, la nube privada abierta y libre de Canonical, es que  proporciona la flexibilidad del software de código abierto sin la carga de tarifas de licencia ni la dependencia de un proveedor. Esto permite a las organizaciones implementar infraestructura en la nube a un costo menor y con la libertad de modificar y ampliar la plataforma según sus necesidades específicas. El modelo de desarrollo impulsado por la comunidad garantiza mejoras e innovaciones continuas, fomentando un ecosistema sólido en torno a MicroStack.



Personalización🛠️

Además, con MicroStack, las organizaciones tienen acceso completo al código fuente y pueden adaptar la plataforma para satisfacer sus requisitos únicos. Esto incluye la integración de una amplia gama de complementos y extensiones, permitiendo a las empresas construir un entorno en la nube que se alinee precisamente con sus objetivos operativos. Esta flexibilidad es crucial para adaptarse a las demandas empresariales en evolución y optimizar la utilización de recursos.



Implementación simplificada 🚀

La implementación simplificada de MicroStack ofrece un proceso de instalación que minimiza la complejidad y el tiempo de configuración, siendo capaz de iniciar una implementación en la nube en un nodo de cómputo con menos de 6 comandos, con un tiempo promedio de implementación de 30 minutos. Esto lo hace especialmente adecuado para organizaciones que desean establecer o expandir rápidamente su presencia en la nube sin necesidad de una gran experiencia técnica. La implementación sencilla también reduce las barreras iniciales para la adopción, permitiendo un tiempo más rápido para obtener valor en las iniciativas en la nube.



Neutralidad de proveedores🛡️

A diferencia de las soluciones de nube propietarias que encierran a los usuarios en proveedores específicos, MicroStack soporta una amplia gama de configuraciones de hardware y software. La firme creencia de Canonical, partner de Sixe en el código abierto y la neutralidad de proveedores reduce los riesgos de dependencia y permite a las organizaciones seleccionar los mejores componentes para su infraestructura. También se alinea con las tendencias industriales hacia estándares abiertos e interoperabilidad, mejorando la escalabilidad a largo plazo y la eficiencia operativa. En consecuencia, MicroStack soporta una amplia gama de configuraciones de hardware y software.



Huella climática🌱

A diferencia de las implementaciones completas de OpenStack que requieren recursos hardware sustanciales, la eficiencia de MicroStack en entornos de escala reducida es excepcional. Esto lo convierte en una elección ideal para escenarios de computación en el borde o para organizaciones con presupuestos limitados de infraestructura. Al optimizar el uso de recursos y minimizar los costos adicionales, MicroStack mejora la eficiencia operativa mientras reduce el costo total de propiedad.


Beneficios técnicos y de rendimiento


Además, las apacidades técnicas y de rendimiento de MicroStack soportan diversos requisitos de carga de trabajo tales como:


Escalabilidad📈

MicroStack está diseñado para escalar horizontalmente, adaptándose a cargas de trabajo en crecimiento y a las necesidades empresariales en evolución. Ya sea implementando unos pocos nodos o escalando hasta miles, MicroStack garantiza una expansión fluida sin comprometer el rendimiento o la estabilidad. Esta escalabilidad es fundamental para las organizaciones que experimentan un crecimiento rápido o patrones de demanda fluctuantes en sus operaciones en la nube.



Redes avanzadas🛰️

Las capacidades de red de MicroStack, potenciadas por componentes como Neutron, ofrecen funciones avanzadas como Redes Definidas por Software (SDN) y Virtualización de Funciones de Red (NFV). Estas capacidades permiten a las organizaciones crear topologías de red complejas, optimizar la gestión del tráfico y mejorar el rendimiento general de la red. El enfoque de MicroStack en paradigmas de redes modernas apoya tecnologías emergentes como contenedores y computación en el borde, alineándose con las tendencias industriales hacia infraestructuras de TI ágiles y adaptables.



Soluciones de almacenamiento eficientes📦

MicroStack soporta una variedad de plataformas de almacenamiento a través de componentes como Cinder (almacenamiento de bloques) y Swift (almacenamiento de objetos). Esta versatilidad permite a las organizaciones implementar soluciones de almacenamiento altamente eficientes y escalables, adaptadas a los requisitos específicos de las aplicaciones.



Ahorro💰

Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y enfocarse en la innovación en lugar de la gestión de la infraestructura.

Ilustración con tonos verdes de una pasarela de pago

Ventajas económicas


Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos en comparación con las soluciones de nube tradicionales:


  • Menor costo total de propiedad (TCO)

    Al eliminar las tarifas de licencia y aprovechar hardware de bajo costo, MicroStack reduce significativamente tanto el gasto inicial de CapEx como el gasto continuo de OpEx a medida que la organización y la implementación en la nube escalan.
    Las organizaciones pueden lograr ahorros significativos mientras mantienen la flexibilidad y la escalabilidad de una plataforma de nube de código abierto. Esta rentabilidad hace que la Plataforma OpenStack sea accesible para organizaciones de todos los tamaños, desde startups hasta grandes empresas, que buscan optimizar sus inversiones en TI y maximizar su retorno de inversión.


  • Eficiencia de costos

    Las herramientas de gestión eficiente de recursos de MicroStack optimizan la utilización de recursos, minimizan el desperdicio y mejoran la eficiencia operativa. Al maximizar el uso de los recursos de infraestructura existentes y reducir la necesidad de costosas soluciones propietarias, MicroStack permite a las organizaciones asignar recursos de manera más estratégica y centrarse en la innovación en lugar de la gestión de la infraestructura.

Mujer mirando sus ingresos

Tendencias de mercado e incremento del precio en servicios de nubes públicas


El Auge de OpenStack: Un Mercado en Crecimiento

MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables, proyectadas para experimentar un crecimiento significativo en el mercado, pasando de $5.46 mil millones en 2024 a una impresionante cifra de $29.5 mil millones en 2031. Este crecimiento subraya la creciente adopción y reconocimiento de los beneficios de OpenStack entre las organizaciones en todo el mundo. Su flexibilidad, rentabilidad y sólido soporte comunitario lo convierten en la opción preferida para las empresas que buscan implementar infraestructuras en la nube escalables y eficientes.

Costos en los Servicios de Nube Pública

En contraste, los costos de los servicios de nube pública han ido en aumento. Aunque estas plataformas ofrecen características extensas y alcance global, sus precios en escalada presentan desafíos para las organizaciones que buscan gestionar eficazmente los costos en la nube. MicroStack ofrece una alternativa viable al proporcionar soluciones en la nube rentables sin comprometer el rendimiento o la escalabilidad.

El Cambio de Implementaciones Sin Servidor a Monolíticas

Paradójicamente, incluso los gigantes de la nube pública como Amazon se abstienen de utilizar su propia nube pública, AWS como una plataforma de microservicios/sin servidor, alejándose de los servicios sin servidor y optando en su lugar por una implementación monolítica, lo que ha disminuido sus OPEX en un 90%. Este tipo de arquitectura, si es beneficiosa, puede integrarse rápidamente y sin problemas en su entorno con MicroStack, aprovechando completamente la plataforma OpenStack en unos pocos pasos simples, teniendo toda su arquitectura pertinente bajo una sola red privada, con una gestión sencilla e intuitiva de la topología de la red en caso de un escenario futuro de ampliación. Para empresas más pequeñas, MicroStack simplificará aún más la migración o implementación de dicha infraestructura.

Adopción de OpenStack entre las Empresas Líderes

Por ejemplo, más del 50% de las empresas Fortune 100 han adoptado OpenStack, destacando su confianza y dependencia en estas tecnologías para respaldar operaciones críticas y iniciativas estratégicas.
Empresas como Comcast, Allstate, Bosch y Capital One están aprovechando OpenStack para impulsar la innovación y lograr ventajas competitivas.

Impacto Global de OpenStack

Además, en regiones como APAC, organizaciones como UnionPay, China Mobile y China Railway están utilizando OpenStack para escalar y transformar sus operaciones de TI, impulsando aún más la adopción y el crecimiento de soluciones de nube de código abierto a nivel mundial.

MicroStack ofrece ventajas económicas interesantes en comparación con las nubes tradicionales:

Gráfica que presenta la posición de Openstack en el mercado

Nuestra experiencia con MicroStack en SIXE


En general, nuestra experiencia con MicroStack en SIXE desde una perspectiva operativa puede describirse como la cúspide de la practicidad y eficiencia. La instalación y la implementación de MicroStack fueron intuitivos, lo que nos permitió configurar completamente una nube privada en menos de 30 minutos.

Para resumir, navegar por las complejidades de la gestión de infraestructuras en la nube es un aspecto crucial de las operaciones de TI modernas. En esta sección final, profundizamos en nuestra experiencia de usuario con el panel de control de MicroStack.

El panel de control de MicroStack ejemplifica el compromiso de Canonical, partner de Sixe con la fácil utilización y accesibilidad. Al aprovechar el panel de control, los usuarios pueden fácilmente implementar y gestionar máquinas virtuales, configurar redes y monitorear la utilización de recursos, todo desde un centro centralizado, lo que reduce la curva de aprendizaje requerida para implementar y operar infraestructuras críticas basadas en la nube.

✨¿Cómo lanzar y configurar una instancia virtual?

Solo se necesitan unos pocos clics para lanzar y configurar una instancia virtual a través del panel de control.

Lanzamos una instancia desde el botón que se encuentra en la esquina superior derecha, aparece un menú emergente donde podemos definir la configuración del servidor.

A continuación, elegimos la imagen para nuestra MV, podemos usar una imagen estándar de sistema operativo ISO, o importar nuestras instantáneas personalizadas previamente instaladas en una MV de configuración previa para una rápida, aunque una personalización de la implementación empresarial de nuestras necesidades.

A continuación, seleccionamos el sabor de la instancia, los sabores son una forma de configurar las especificaciones de hardware virtuales de OpenStack, puede usar uno de los presets preestablecidos o crear uno para satisfacer las necesidades específicas de su infraestructura y aplicaciones.

Usaremos la especificación de preset mediano, OpenStack incluso nos advierte de antemano las limitaciones de hardware a las que está sujeta cada instantánea o imagen.

Suponiendo que su red ya está configurada, el paso final (y opcional) es agregar un grupo de seguridad para poder acceder a la instancia a través de SSH y operar dentro de ella.

¡Ahora nuestra instancia personalizada está configurada y en funcionamiento! :)

Bajo el menú de acciones que se encuentra a la derecha, podemos asociar una IP flotante para poder SSH directamente a la instancia desde nuestra red interna.

¡Ahora podemos usar esa IP para acceder directamente a la instancia mediante SSH!

¿Podemos ejecutar máquinas virtuales KVM (anidadas) sobre LPAR Linux IBM PowerVM?

¡Actualizado! Ya no es un rumor, sino que se soporta oficialmente a partir del 19 de julio de 2024 (ver anuncio)

Breve historia de la virtualización anidada en hardware IBM

La virtualización anidada permite a una máquina virtual (VM) alojar otras VM, creando un entorno de virtualización por capas. Esta capacidad es especialmente beneficiosa en escenarios empresariales donde la flexibilidad, la escalabilidad y la gestión eficiente de los recursos (si ahorramos en CPU lo hacemos en licencias $$$) son fundamentales.

Aunque puede utilizarse con fines de prueba con KVM en x86 o VMware, el rendimiento suele ser subóptimo debido a las múltiples traducciones y modificaciones de las instrucciones de hardware antes de que lleguen a la CPU o al subsistema de E/S. Este problema no es exclusivo de estas plataformas y puede afectar también a otras tecnologías de virtualización.

En plataformas como Z, aunque el impacto en el rendimiento de la virtualización anidada existe, las mejoras y optimizaciones en el hipervisor pueden mitigar estos efectos, haciéndola 100% viable para uso empresarial.

Capas de virtualización en IBM Mainframe

Antes de profundizar en el KVM anidado en PowerVM, es esencial comprender tecnologías similares. Si el mainframe es el abuelo de la tecnología actual de servidores, el particionamiento lógico (LPAR) y las tecnologías de virtualización (zVM) son las abuelas de las soluciones de hipervisor.

zvm linuxone kvm powervm hipervisores

En esta imagen (tomada de este GRAN artículo de ) puedes ver hasta 4 capas

Virtualización de nivel 1: Muestra una LPAR ejecutando Linux de forma nativa

Virtualización de Nivel 2: Muestra las máquinas virtuales que se ejecutan en el hipervisor z/VM o KVM

Virtualización de Nivel 3: Muestra el anidamiento de Máquinas Virtuales z/VM

Virtualización de nivel 4: Muestra contenedores Linux que pueden ejecutarse como contenedores independientes o pueden orquestarse con kubernetes

Ahora echa un vistazo a esta imagen antigua (2010) de la arquitectura de la plataforma IBM Power. ¿Ves algo parecido? :) ¡Sigamos adelante!

virtualización powervm

Despliegue de máquinas virtuales sobre una LPAR PowerVM Linux

Si tenemos LPARs en Power donde podemos ejecutar AIX, Linux e IBM i, y en Linux podemos instalar KVM, ¿podemos ejecutar máquinas virtuales dentro de una LPAR?

No del todo; fallará en algún momento. ¿Por qué? Porque KVM no es zVM (por ahora), y necesitamos algunos retoques en el código del kernel de Linux para soportar la virtualización anidada no sólo con los procesadores IBM Power9 o Power10, sino también con el subsistema de memoria y E/S Power.

Examinando las listas de correo de kernel.org, podemos ver avances prometedores. Ejecutar con éxito varias máquinas virtuales con KVM en una LPAR PowerVM significa portar una fantástica tecnología de virtualización de mainframe a IBM Power, lo que nos permite ejecutar máquinas virtuales y virtualización Kubernetes/OpenShift en ppc64le con fines de producción. La virtualización de la CPU en sistemas Power y Mainframe simplemente asigna tiempo de procesador sin asignar un hilo completo como hacen KVM o VMware. Por tanto, es técnicamente posible añadir un hipervisor encima sin afectar significativamente al rendimiento, como hace IBM con LinuxOne.

Últimas noticias sobre KVM en LPARs IBM PowerVM (Mayo 2024)

En Sixe llevamos años siguiendo de cerca la evolución de ppc64 y ppc64le. Recientemente, hemos encontrado algunos mensajes intrigantes en las listas de correo del núcleo Linux. Estos mensajes proporcionan información sobre la hoja de ruta inmediata de esta tecnología tan esperada y demandada.

1) Añade una capacidad VM para permitir la virtualización anidada
Resumen: Este mensaje trata de la implementación de las capacidades de virtualización anidada en KVM para PowerPC, incluidas las configuraciones de módulos y la compatibilidad con CPUs POWER9.

2 ) API PAPR anidada (KVM en PowerVM)
Resumen: Detalla la ampliación del estado de registro para la API PAPR anidada, la gestión de múltiples VCPU y la implementación de hiperllamadas específicas.

3) KVM: PPC: Book3S HV: Virtualización HV anidada
Resumen: Una serie de parches que mejoran la virtualización anidada en KVM para PowerPC, incluyendo el manejo de hiperllamadas, fallos de página y tablas de mapeo en debugfs.

Para obtener información más detallada, puedes consultar los siguientes enlaces:

¿Podremos instalar Windows en Power Systems (por diversión)?

CAKE - Perhaps, Perhaps, Perhaps (Official Audio)CAKE – Perhaps, Perhaps, Perhaps (Official Audio)

¡Permanece atento!

IBM Power10 Servers

Nuevo servidor IBM Power10 S1012 para Edge Computing, HA, DR y entornos pequeños

El Power10 más compacto para tu entorno remoto, recuperación ante desastres, edge computing e inferencia de IA

IBM acaba de anunciar un nuevo modelo de servidor IBM Power, el S1012. Una auténtica BELLEZA que en SIXE pronto tendremos en la oficina, y dependiendo del ruido que haga puede que incluso debajo de la mesa :) Se puede conseguir en formato torre o enrracable, bien juntando dos servidores pues cada uno ocupa la mitad de la anchura de un rack convencional, como se ve en esta imágen o dejando un “hueco” para llenar las 2U enteras. Se puede configurar como quieras. El serviodr viene con 1 socket de hasta 8 cores y 256GB de RAM y en SIXE lo comenzaremos a ofrecer a partir de Junio de 2024.

¿Qué podemos ejecutar en los nuevos S1012?

En  podremos instalar directamente o de manera virtualizada con PowerVM distribuciones de Linux como Ubuntu, Rocky, Alma, RHEL y SUSE, así como AIX e IBM i. IBM Power S1012 está diseñado para mejorar las capacidades de gestión remota para clientes que buscan expandir aplicaciones como la inferencia de IA, nodos de OpenShift, aplicaciones críticas bajo arquitecturas de “Edge Computing”, es decir, llevando estos servidores físcamente a donde sean necesarios para procesar directamente los datos sin necesidad de transferirlos primero logrando importantísimos ahorros de costes, rapidez y eficiencia. Además gracias al formato torre, podemos instalar estos servidores donde queramos sin necesidad de disponer de armarios de rack.

 

Reduce tu huella de carbono

Con los servidores Power10 puedes hacer mucho más con menos. Gracias a sus 8 hilos por core físico, puedes consolidar muchas, pero que muchos entornos x86 o ARM en un único Power, ahorrando en energía y espacio en tus centros de datos.

Casos de uso

Está diseñado y optimizado para computación distribuida como plantas fotovoltaicas, industrias, barcos, aviones, vehículos, entornos militares, naves espaciales y un largo etc. También es ideal para ejecutar cargas de trabajo principales en organizaciones pequeñas, que tengan por ejemplo ERPs o aplicaciones de gestión industrial en IBMi y RPG, o como solución de muy bajo coste para entornos de respaldo (Remote Office / Back Office – ROBO). Además es muy sencillo conectarlo directamente con servicios en la nube como IBM® Power® Virtual Server para respaldo y recuperación de desastres. Además para bases de datos críticas, con GLVM podemos crear clusters entre sedes a cientos de KM de distancia para Oracle, Informix o DB2 sin necesidad de conexiones de fibra dedicadas.

Detalles técnicosAccede al redbook que IBM ha preparado con todos los detalles de estos sistemas

Precio

El S1012 ofrece el precio de entrada más bajo de todos los servidores Power y con hasta 3 veces más rendimiento que un sistema x86 equivalente. Si eres cliente de IBM i puedes licenciar un único core y usar el resto para otras cargas de trabajo en AIX o Linux. Si quieres saber más, ¡llámanos!

 

logos LXD, IBM PowerVM, Proxmox y Red Hat OpenShift vs. VMware ESXi

Comparando hipervisores: LXD, IBM PowerVM, Proxmox y Red Hat OpenShift como alternativas a VMWare ESXi

La virtualización es una herramienta vital en el mundo de las TI, permitiendo a las empresas optimizar sus recursos de hardware y mejorar la eficiencia y la gestión de sus sistemas. VMware ESXi ha sido un líder indiscutible en este espacio, pero con su compra por Broadcom y los cambios muy importantes en precios, y sobretodo, la eliminación de su versión gratuita, miles de clientes están evaluando las alternativas existentes.

Aquí va nuestra pequeña aportación, como expertos en IBM PowerVM pero también entusiastas del resto de opciones basadas en KVM. Todas (menos VMWare) funcionan en nuestros laboratorios y dependiendo de los proyectos elegimos unas u otras para nuestros clientes. Si quieres que lo discutamos en detalle ponte en contacto con nosotros sin compromiso.

Si bien es difícil proporcionar una comparación exhaustiva con todas las características de ESXi, ya que varían entre versiones y combinaciones específicas con otras herramientas de VMware, la siguiente tabla ofrece un resumen de lo que para nosotros son las características más importantes de ESXi y cómo se soportan en LXD, PowerVM, Proxmox y Red Hat OpenShift. Esperamos que os sea de utilidad.

Característica LXD VMware ESXi PowerVM Proxmox Red Hat OpenShift (OCP)*
Tipo de software Código abierto. Propietario Propietario (específico de IBM) Código abierto (basado en KVM y contenedores) Propietario (basado en Kubernetes y contenedores)
Se basa en KVM. Igual que OCP soporta contenedores y también VMs. VMkernel Basado en tecnología IBM heredada de entornos Mainframe, con tecnologías avanzadas de micro-particionamiento de procesadores y asilamiento HW de VMs KVM y LXC KVM (para máquinas virtuales *si se instala en modo bare-metal y no sobre otros hipervisores) y Kubernetes para contenedores
Web UI Sí pero limitado. Se necesita vSphere para muchas funcionalidades. Sí HMC (equivalente a vSphere) o PowerVC (basado en OpenStack)
Clustering Sí (a través de Kubernetes)
Alta Disponibilidad Sí (con características avanzadas de Kubernetes)
VM live migration Sí (a través de Kubernetes y OpenShift Virtualization)
Almacenamiento compartido Ceph vSAN Soporta varios sistemas de archivos y almacenamiento Ceph, ZFS y otros GlusterFS, Ceph y otros
Networking Bridge, OVN NSX Compatible con casi todas las tecnologías de red Bridge, VLAN, VXLAN y otros SDN, OVN y otros
Snapshots
Backup Sí (con herramientas de gestión de IBM y terceros)
Free trial N/A (uso gratuito ilimitado) 30 días No aplica (incluido gratis en el hardware IBM) N/A (uso gratuito ilimitado) Prueba gratuita disponible
Coste Gratuito, con soporte empresarial disponible por host físico La funcionalidad completa requiere una licencia de pago. Incluido con el hardware IBM Power Gratuito, con soporte empresarial por suscripción Suscripción basada en núcleos; varía según el entorno.
Número de hilos Limitado a 2 hilos por core (x86) Limitado a 2 hilos por core (x86) Hasta 1,920 hilos (Power10 E1080) Limitado a 2 hilos por core (x86) Limitado a 2 hilos por core (x86)
Tipo de hipervisor Nivel 1 (sobre KVM) Nivel 1 Nivel 0 (VMs separadas a nivel de firmware con mapeo de CPU) Nivel 1 (KVM) y Nivel 2 (LXC) Nivel 2 (sobre RHEL)
Madurez de la tecnología (años) > 10 años > 20 años > 30 años (viene de entornos Z / LPARs) > 10 años > 10 años
Capacidad máxima de RAM por VM Hasta 2TB Hasta 2 TB Hasta 32 TB Hasta 2TB Hasta 2TB
Migrar de oracle

Como salir del ULA de Oracle y ahorrar hasta un 60% migrando a IBM Power

Salir de un contrato Unlimited License Agreement (ULA) de Oracle y migrar a sistemas IBM Power puede ser un proceso complejo, pero bien ejecutado, puede ofrecer ahorros significativos y beneficios a largo plazo. En este artículo, exploraremos cómo realizar esta transición de manera efectiva y sin penalizaciones, basándonos en ejemplos reales.

Entendiendo el ULA de Oracle

Primero, es esencial comprender lo que implica un ULA de Oracle. Se trata de un contrato que Oracle compró a una tercera empresa y que sigue asustando y gustando a partes iguales. Permite un uso ilimitado de ciertos productos de software de Oracle durante un período determinado, generalmente entre 3 y 5 años. Al final del contrato ULA, la empresa debe declarar el uso de estos productos y este se convierte en su “certificación” para futuras auditorías de licencias. Dice un célebre refrán que más vale malo conocido, que bueno por conocer. Y otro que el diablo, está en los detalles. En el caso de Oracle, no hay dos ULAs iguales. Todos se basan en una misma premisa “cuando dinero Oracle cree que puede obtener de su cliente”. Pero bueno, más allá de eso, hay unas reglas de juego que una vez entendidas nos permiten ayudar a nuestros clientes.

Pasos para Salir del ULA de Oracle

  1. Auditoría incial: Antes de la finalización del ULA, realizamos una auditoría interna para entender completamente su uso actual de los productos Oracle. Esto incluye identificar qué productos son esenciales y cuáles pueden ser reemplazados o descartados.
  2. Análisis de necesidades futuras: Evaluamos las necesidades futuras de su empresa en términos de software y bases de datos. Este paso es crucial para determinar si es viable la transición a IBM Power y cuales son los ahorros potenciales.
  3. Revisión de contratos licenciamiento por terceras partes: Dado que los contratos de Oracle pueden ser complejos, es aconsejable trabajar con consultores especializados en licenciamiento de Oracle. Ellos pueden ayudar a entender las implicaciones de su ULA y cómo salir de él sin incurrir en penalizaciones.
  4. Negociamos con Oracle: Os ayudamos a negocir un nuevo acuerdo que se ajuste mejor a tus necesidades actuales y futuras.
  5. Planificación de la migración: Desarrolle un plan detallado para migrar de Oracle a IBM Power.

Migración a IBM Power

La migración a IBM Power implica trasladar las cargas de trabajo de las bases de datos y aplicaciones de Oracle a un entorno de IBM. Esto puede incluir la utilización de IBM Db2, que es conocido por su alto rendimiento y seguridad.

  1. Evaluación de compatibilidad: Nos aseguramos de que tus aplicaciones actuales sean compatibles con IBM Power. Oracle lo es en todas sus versiones actuales y futuras, pero siempre puede haber algún aplicativo que requiera alguna modificación para cambiar de arquitectura (lo hacemos todos los días y sin problemas).
  2. Diseño del nuevo entorno: En base a la auditoría previa, diseñamos un nuevo entorno seguro, sencillo, potente y estable adaptado a tus necesidades y presupuesto.
  3. Implementación de IBM Power: Os ayudamosa a adquirir y desplegar IBM Power. Configuramos las bases de datos y aplicaciones necesarias.
  4. Migración de Datos: Movemos los datos de Oracle a IBM Power, asegurándose de que la integridad de los datos se mantenga durante el proceso.
  5. Pruebas de rendimiento, HA y DR: Realice pruebas exhaustivas para asegurar que todas las aplicaciones y bases de datos funcionen correctamente en el nuevo entorno.
  6. Formación y soporte técnico: Capacitamos a tu equipo en el uso de la nueva plataforma y si lo necesitas, puedes nuestros servicios de mantenimiento preventivo y soporte técnico para ayudarles.

Más cosas que te va gustar de Oracle en Power

Tenemos playbooks de Ansible oficiales y soportados para automatizar todos los despliegues y operaciones de día 2:

Muchísima documentación:

 

Y en SIXE como proveedor oficial de formación de IBM nos encargamos de que vuestros equipos técnicos dominen la plataforma en semanas. Como técnicos que también somos, os garantizamos que van a agradecer mucho el cambio.

 

 

¿Cuanto presupuesto me puedo ahorrar migrando Oracle a IBM Power?

En términos de costes, la migración de Oracle a IBM Power puede resultar en ahorros significativos, aunque estos varían según cada cliente. Ejemplos reales han mostrado ahorros de entre un 20% y un 60% en costes totales de propiedad (TCO) al migrar de Oracle a soluciones alternativas como IBM. Estos ahorros provienen de menores costes de licencias, reducción en la necesidad de hardware de alto rendimiento debido a la eficiencia de IBM Power, y menores costes de mantenimiento y soporte.

¡Pero las licencias de Oracle para Power son más caras!

Es cierto, pero tenemos clientes donde podemos hacer con 25 cores de Power10 lo mismo que con 100 en un Exadata, pero es que además IBM Power no está restringido a Oracle (aunque hay más de 80.000 instalaciones en el mundo). Puedes desplegar OpenShift, SAP HANA o cualquier otra carga de trabajo que funcione en SUSE, Red Hat, AIX e IBMi. En realidad, el caso de uso más habitual es la consolidación de todos los Exadatas y gran parte de los servidores x86 en un Power10 en cada centro de datos. Funcionando todo sobre un hipervisor que está a otro nivel, donde en vez de “mapear cpus” como hace KVM o VMWare, la capacidad de cada una se comparte en tiempo real, ganando en utilización global del sistema además de en rendimiento.  Los Exadatas han sido un gran logro a nivel de marketing, pero ni son más baratos, ni dan mejor rendimiento ni proporcionan la seguridad de IBM Power.

Conclusión

Salir de un contrato ULA de Oracle y migrar a IBM Power, es perfectamente viable. Al hacerlo correctamente, no solo se pueden evitar penalizaciones sino también lograr ahorros considerables en costes, mejorando al mismo tiempo la eficiencia y la adaptabilidad tecnológica de la empresa. Es esencial contar con el apoyo de expertos en licencias y realizar un análisis exhaustivo para asegurar una transición exitosa.

No esperamos haberte convencido, pero quizás podríamos hablar sin compromiso, discutir cualquier duda y, si os parece interesante, realizar gratuitamente un análisis de viabilidad. En el pero de los casos, renováis el ULA tal cual. Es broma (o no) :)

Logo AIX

¿Buscas una alternativa para Oracle en Solaris? ¡Prueba AIX (o Linux) en IBM Power!

En SIXE nos encanta Solaris, y hemos trabajado con muchas máquinas SPARC durante muchos años. Por desgracia, su ciclo de vida llega a su fin, pero no el de sus bases de datos Oracle (ni sus nada baratas licencias por procesador). ¿Qué alternativas existen? Os contamos nuestra experiencia. Como integrador de sistemas, nos especializamos en entornos críticos,. Trabajamos duro para diseñarlos, configurarlos y mantenerlos seguros y disponibles 24x7x365. Nuestra elección natural es IBM Power con AIX (para Oracle, DB2 o Informix) y Linux para nuevas cargas de trabajo con bases de datos de código abierto. Dentro de los entornos propietarios, las bases de datos Oracle 19c y 21c forman una gran parte de la base instalada de nuestros clientes. Entornos SAP “legacy” y aplicaciones de lo más diversas dependen de ellos.

¿Por qué elegir IBM Power para Oracle?

Vamos a daros cinco razones para intentar si no convenceros, que al menos os apetezca hablar con nosotros y discutirlo más detalladamente. Los que nos conocéis sabéis que en general somos mejores ingenieros que comerciales. Los que no, pronto podréis saber por qué. ¡Vamos allá!

1. Es una mejor inversión a largo plazo

A tan largo plazo como lo han sido las máquinas SPARC en tantos clientes. Cuando tengais un Power20 podréis darnos la razón. Es una arquitectura robusta, segura, de alto rendimiento y con soporte total para entornos UNIX (AIX) y Linux. De hecho, antes de que Oracle comprara Sun, la combinación Power-AIX-Oracle salía hasta en los anuncios de TV. Gran parte de la tecnología IBM en servidores UNIX se diseñó para grandes bases de datos Oracle, DB2 e Informix. El marketing de Oracle dice su apuesta son Exadatas basados en OracleLinux , pero más de 80.000 clientes en todo el mundo usan Power. Será por algo.

2. Si quieres, puedes mantenerte o pasarte a UNIX (y no es una broma)

Aunque nos encanta Linux, los contenedores, el software libre y todo este mundo, pensamos que no hay ningún entorno más estable para una base de datos crítica (que no sea HOST / IBM Z) y seguro que AIX. Es un UNIX moderno, flexible, compatible con cientos de paquetes de software libre y extremadamente sencillo de utilizar. Si vienes de Solaris, verás que son primos hermanos y en SIXE os damos la formación que necesitéis, o un soporte L2 y L3 para toda la infraestructura durante todo el ciclo de vida de las máquinas para que solo os tengáis que preocupar de la base de datos o de vuestras aplicaciones. A muchos les sorprende que ejecutemos proyectos de migración de Oracle Linux a AIX, pero es que todo son ventajas para los clientes y sus administradores de sistemas. AIX es un UNIX seguirá entre nosotros, igual que FreeBSD o MacOS por muchos motivos. Aun así si por lo que sea, prefieres Red Hat o SUSE, también funcionan perfectamente, eso sí Oracle solo los soporta en sus sistemas Z (LinuxOne). Pero las demás alternativas a Oracle como PostgreSQL / EnterpriseDB, MongoDB o MariaDB funcionan genial y tienen soporte total para todas las distribuciones de Linux que funcionan en Power (ppc64le). También las libres como Alma, Rocky Linux y OpenSUSE.

3. Te vas a ahorrar muchos, pero que muchos miles o cientos de miles de euros.

IBM tiene desde hace muchos años migradas a Power las tecnologías de micro-particionamiento de procesadores de los entornos Mainframe. Eso significa que puedes asignar las porciones de procesadores que necesites con una flexibilidad y fiabilidad extrema. Por ejemplo puedes comprar 10 licencias de Oracle y ejecutar 20 máquinas virtuales en una máquina física de 24 cores. No tienes que licenciar la máquina entera. Y es que además cada core de IBM Power rinde aproximadamente entre 3 y 4 veces lo que uno de x86 de generación equivalente. Los Exadatas de Oracle, son (en nuestra opinión) más caros, menos fiables y menos seguros.

4. Disminuyes radicalmente la superficie de ataque

Tenemos muchos clientes que han sido atacados con ransomware (y cosas peores). Ningún sistema Power actualizado, mantenido y con nuestra  solución de ciberseguridad basada en PowerSC ha sido afectado. Y vamos a decir una obviedad, pero la mayoría del código malicioso no está compilado para entornos Power :P Igual que tu dinero está más seguro en un entorno Z / s390, probablemente tu base de datos vivirá más tranquila en ppc64. Y no te preocupes, que vamos hacia un mundo multi-arquitectura, donde cada vez habrá más libertad para elegir si quieres ARM, x86, ppc64le u RISC-V. ¿O no conoces a nadie con un MAC?

5. Está muy bien documentado, funciona por defecto y lo puedes automatizar

Hay cientos de guías de arquitectura, despliegue, administración, determinación de problemas y operaciones de día 2 en general. Además en el caso de AIX, el ajuste por defecto del kernel está optimizado para grandes bases de datos como las de Oracle. Además la arquitectura Power no tiene cuellos de botella entre procesador y memoria, con un muy buen rendimiento en SMT-4 y SMT-8. También puedes automatizar la mayoría de las tareas de administración con Ansible. Hay colecciones actualizadas desarrolladoras por IBM y Red Hat.

Servicios para Oracle en AIX / Power de SIXE

SIXE ofrece servicios especializados de Oracle en IBM Power, proporcionando una transición tranquila y eficiente, con total soporte y optimización de recursos, lo que garantiza una migración y operación con éxito, teniendo en cuenta las necesidades de disponibilidad, rendimiento y la seguridad. Os podemos ayudar con:

En conclusión: migrar Oracle de SPARC / Solaris a IBM Power con AIX (o Linux) no solo es una decisión inteligente en términos de rendimiento y soporte, sino que también es una inversión y decisión estratégica. ¿Hablamos?

Sixe Ingeniería
×