Chain of Thought: por qué tu IA no razona

IA · Razonamiento · LLM

Chain of Thought: por qué tu modelo de IA no razona.

El Chain of Thought no es pensamiento. Es la forma estadística del pensamiento. Apple, Arizona State y UC Berkeley lo demuestran con datos. Esto es lo que significa para quien despliega IA en producción.

9 min lecturaIA · Producción · Infraestructura

El Chain of Thought (CoT) es una técnica que hace que los modelos de lenguaje generen pasos intermedios antes de responder. Aunque mejora benchmarks, investigaciones recientes demuestran que no constituye razonamiento genuino: es una restricción estadística que imita la forma del pensamiento humano.

Para las empresas que despliegan IA en entornos de producción, entender esta diferencia no es un debate filosófico. Es una decisión de arquitectura que afecta a la fiabilidad, al coste y al riesgo operativo. En SIXE llevamos más de 15 años diseñando infraestructuras críticas donde la tolerancia al fallo es cero. Esa experiencia nos ha enseñado una regla que aplica igual a un cluster IBM Power que a un agente de IA: nunca confíes en un solo componente para algo que no se puede caer.

01 · Qué es

¿Qué es el Chain of Thought y por qué parece razonamiento?

Cuando activas el modo de "razonamiento" o "thinking" en modelos como GPT-5, Claude o DeepSeek, el modelo genera un monólogo intermedio antes de responder: "vale, primero analizo X... ahora considero Y... déjame revisar Z...". En la literatura técnica esto se conoce como Chain of Thought (CoT), literalmente "cadena de pensamiento".

El problema es que eso no es pensar. Es generar texto con la forma estadística del razonamiento humano. El modelo ha visto millones de ejemplos de razonamiento paso a paso durante su entrenamiento, y aprendió a reproducir ese patrón. Cuando le pides que "piense", lo que hace es reconocer la categoría del problema y rellenar la plantilla estadística que mejor encaja.

Un ejemplo concreto: si le planteas a un modelo "razonador" un problema de dimensionado de almacenamiento Ceph con 12 OSD, replicación 3 y tolerancia al fallo de 2 nodos, te devolverá cuatro párrafos impecables con fórmulas, consideraciones sobre dominios de fallo y un número final. Parece pensamiento estructurado. Lo que ha hecho es detectar "problema de dimensionado Ceph" y aplicar el patrón que ha visto en cientos de documentos técnicos similares.

¿Por qué funciona? Porque la mayoría de las veces acierta. La cuestión es qué pasa cuando el problema se sale del manual.

02 · La evidencia

¿Los LLM realmente razonan? Lo que dicen los papers

El CoT funciona. Mejora benchmarks de forma medible. La pregunta relevante no es si funciona, sino por qué funciona. Y la respuesta que ofrecen los estudios más rigurosos es incómoda.

El CoT como muleta estadística

Un equipo de Arizona State University demostró que el CoT brilla cuando los datos del problema están dentro de la distribución de entrenamiento. En cuanto el problema se sale de la zona conocida, el rendimiento se desmorona. Es la diferencia entre un sistema que ha memorizado soluciones y otro que realmente comprende los principios subyacentes.

El CoT como restricción arquitectónica

El CoT no es razonamiento abstracto: es una restricción que obliga al modelo a imitar la forma del razonamiento. Forzar al modelo a escribir "primero... segundo... por lo tanto..." hace que cada token generado influya con más coherencia en el siguiente. Es un truco de arquitectura que mejora la coherencia interna del texto, no un acto cognitivo. El paper Chain-of-Thought Reasoning In The Wild Is Not Always Faithful documenta cómo el CoT puede dar una imagen incorrecta del proceso real que sigue el modelo para llegar a sus conclusiones.

Conclusión técnica

El CoT es útil para muchas tareas. Pero no es razonamiento. Es coherencia formal con apariencia de lógica.

03 · Lo decorativo

¿Qué son los "pasos decorativos" del razonamiento IA?

Un paper de octubre de 2025 publicado por investigadores de UC Berkeley y UC Davis introdujo el concepto de decorative thinking steps (pasos de pensamiento decorativos), y su hallazgo es especialmente relevante para cualquiera que evalúe modelos de IA para producción.

Los investigadores descubrieron que muchos pasos intermedios del CoT son literalmente decorativos. El modelo escribe cosas como "espera, déjame revisar... creo que cometí un error... voy a recalcular", y luego ignora por completo esa autocorrección y entrega la respuesta que ya tenía decidida internamente.

La demostración fue elegante: perturbaron deliberadamente los pasos intermedios (cambiaron números, alteraron la lógica) y comprobaron si la respuesta final cambiaba. En muchos casos, no cambiaba. La conclusión ya estaba decidida. La cadena de pensamiento se generaba después, como racionalización a posteriori.

Toca cada paso para descubrir si es real o decorativo
"Hmm, espera. Creo que me he equivocado con el factor de replicación. Déjame recalcular desde el principio..."
Toca para revelar
Decorativo El modelo ya tenía la respuesta. La "autocorrección" no cambió el resultado final. Es teatro narrativo.
"Capacidad bruta = 12 × 8 TB = 96 TB. Con replicación 3: 96 / 3 = 32 TB útiles."
Toca para revelar
Real Este paso contiene el cálculo que determina la respuesta final. TTS alto: el output depende de él.
"Voy a verificar mi respuesta paso por paso para asegurarme de que no he cometido ningún error de cálculo en la estimación anterior..."
Toca para revelar
Decorativo Pura fórmula retórica. El modelo no re-ejecuta ningún cálculo: ya emitió los tokens de la respuesta. Solo añade palabras que parecen rigor.
"Interesante pregunta. Antes de responder, voy a considerar varios ángulos: el dominio de fallo, el balanceo de OSD y el overhead de metadatos..."
Toca para revelar
Decorativo Enumerar factores sin procesarlos no es análisis. Es la forma estadística de lo que haría un experto. El modelo ya eligió la respuesta.
"Con tolerancia al fallo de 2 nodos y 4 OSD por nodo, el peor caso pierde 8 OSD. Capacidad mínima garantizada: (12−8) × 8 / 3 ≈ 10,7 TB."
Toca para revelar
Real Introduce variables nuevas (nodos, OSD por nodo) que sí cambian el resultado. Sin este paso, la respuesta sería diferente.

Un dato concreto del estudio: en el dataset AIME, solo el 2,3% de los pasos de razonamiento del CoT tenían una influencia causal real sobre la predicción final del modelo. El resto era decoración. (Fuente: Can Aha Moments Be Fake?, UC Berkeley)

Implicación directa

Que un modelo te explique bien por qué ha llegado a una conclusión no significa que esa conclusión sea correcta. La explicación se genera junto con (o después de) el resultado, y en muchos casos es una justificación construida sobre una respuesta predeterminada.

04 · Apple

"The Illusion of Thinking": el estudio de Apple que lo cambia todo

Si los pasos decorativos demuestran que el CoT no garantiza razonamiento ni siquiera cuando acierta, el estudio de Apple va un paso más allá: demuestra que cuando el problema se complica de verdad, los modelos se rinden.

En junio de 2025, Apple publicó The Illusion of Thinking, un estudio que puso a modelos de razonamiento de última generación a resolver puzzles clásicos de informática: la Torre de Hanói, problemas de cruce de río y otros ejercicios que cualquier estudiante de primer curso resuelve con lápiz y papel.

RENDIMIENTO POR COMPLEJIDAD — DATOS APPLE "ILLUSION OF THINKING" (2025) 100% 75% 50% 25% 0% 88% 72% Fácil 55% 82% Media 8% 10% Difícil Sin CoT Con CoT
Rendimiento de modelos con y sin CoT según complejidad — Basado en datos de Apple ML Research, "The Illusion of Thinking", junio 2025
Arrastra el cursor — ¿cómo rinde el CoT según la complejidad?
Fácil Media Difícil
Sin CoT
88%
Con CoT
72%
El modelo sin CoT gana. El "pensamiento" extra solo añade coste y latencia.

El hallazgo más significativo es el tercero. Los modelos "razonadores" no solo fallan en problemas complejos — reducen el esfuerzo computacional precisamente cuando deberían aumentarlo. Es el equivalente a un sistema de monitorización que deja de generar alertas cuando la infraestructura más lo necesita.

Cabe señalar que el paper generó debate: un equipo del CSIC en Madrid replicó parte de los experimentos y matizó que algunos fallos se debían a límites de tokens de salida, no a limitaciones cognitivas puras. Pero las conclusiones de fondo — que el rendimiento colapsa con la complejidad y que el CoT no escala de forma predecible — se mantuvieron.

05 · Costes

¿Merece la pena pagar por modelos de razonamiento?

Depende. Y esa es precisamente la respuesta que la mayoría de proveedores no quiere darte.

Un caso que ilustra el riesgo: una empresa europea montó un agente "razonador" para clasificar tickets de soporte. La cadena de pensamiento que generaba el modelo era impecable desde el punto de vista narrativo. El problema es que el 30% de los tickets acababan en la cola equivocada, y el modelo explicaba con elocuencia impecable por qué esa clasificación errónea era la correcta. Narrativa perfecta, resultado erróneo.

Esto ocurre porque estamos confundiendo calidad de la explicación con calidad de la decisión. Son cosas distintas. Un modelo puede producir un razonamiento formalmente impecable y llegar a una conclusión incorrecta, exactamente igual que una presentación con gráficos espectaculares puede defender una estrategia equivocada.

Regla práctica

Antes de pagar por modelos de razonamiento, benchmarkea con tu caso real. Los marketing decks de los proveedores muestran los resultados de sus mejores días. Tus datos, tu casuística y tus edge cases son los que determinan si el coste adicional compensa.

06 · Perspectiva

¿La IA es inútil entonces?

No. Y esto es importante entenderlo bien, porque el péndulo puede irse al otro extremo con la misma facilidad.

Que un LLM no razone como un humano no significa que sea inútil. Significa que hay que entender qué hace exactamente para usarlo correctamente.

Un sistema IBM Power10 con AIX no "piensa" sobre las cargas de trabajo. No tiene intuición. Lo que tiene es una arquitectura RISC de alto rendimiento, ancho de banda de memoria que un x86 equivalente no alcanza, y fiabilidad (RAS) de nivel mainframe. Si entiendes lo que hace, lo usas para lo que vale: bases de datos críticas, HPC, inferencia de IA a escala. Si no lo entiendes, lo usas como un servidor x86 caro y te preguntas por qué no rinde.

Con los LLM pasa exactamente lo mismo. Son procesadores de lenguaje extraordinarios. Sintetizan, traducen, redactan, clasifican y extraen patrones de texto a una velocidad que ningún equipo humano alcanza. Eso es real, tiene valor medible y está transformando operaciones en todos los sectores.

Lo que no son es agentes pensantes con comprensión genuina del mundo. Y vender lo segundo cuando lo que tienes es lo primero es lo que está creando una burbuja de expectativas que, tarde o temprano, se ajustará.

07 · En producción

¿Cómo usar IA en producción sin caer en la trampa?

En el mundo de la infraestructura crítica — IBM Power, AIX, clusters de alta disponibilidad — hay un principio que nunca falla: diseña con redundancia. Nunca confías en un solo componente para algo que no se puede caer.

1. No uses la explicación como garantía de la respuesta

La explicación del modelo se genera junto con (o después de) el resultado. Muchas veces es una racionalización a posteriori. Si el sistema toma decisiones críticas, necesitas verificación independiente. No importa lo bien que lo explique.

2. Benchmarkea con tu caso real antes de elegir modelo

Para tareas simples, el modelo barato puede superar al caro. Para tareas medias, el CoT compensa. Para tareas muy complejas, fallan ambos. La única forma de saberlo es probar con tus datos reales, no con los del proveedor.

3. Diseña arquitecturas con verificación externa

Si tu arquitectura de IA es "le pregunto al modelo y confío en lo que diga", no tienes una arquitectura. Un despliegue serio de IA incluye validación cruzada, reglas de negocio como capa de control, alertas cuando la confianza del modelo baja, y humanos en el loop para decisiones críticas.

4. Exige pruebas, no promesas

El mercado de la IA está lleno de afirmaciones extraordinarias sin evidencia proporcional. Un proveedor serio te muestra benchmarks sobre tu tipo de datos. Un proveedor menos serio te muestra una demo espectacular con datos preparados.

08 · Nuestra metodología

¿Cómo evaluamos los modelos de IA para entornos de producción?

En SIXE aplicamos a la IA los mismos criterios que llevamos más de 15 años aplicando a cualquier componente de infraestructura crítica:

  • Pruebas con datos reales del cliente, no con datasets genéricos ni demos preparadas.
  • Medición de rendimiento en los edge cases, no solo en el caso feliz. Los errores no aparecen en la mediana, aparecen en los extremos.
  • Arquitectura redundante siempre. La IA es una capa más del sistema, no el sistema entero. Se complementa con reglas de negocio, validación cruzada y supervisión humana donde la decisión es crítica.
  • Selección de modelo por caso de uso, no por marketing. Un modelo con CoT puede ser perfecto para análisis de texto complejo y totalmente innecesario (y más caro) para clasificación simple.
  • Infraestructura dimensionada para inferencia. Un modelo de IA es tan bueno como la infraestructura que lo sustenta. Lo hemos comprobado de primera mano con vLLM sobre IBM Power y con Ceph como backend de almacenamiento para IA.
Resumen

Para directivos con poco tiempo

Lo esencial en 6 puntos

→ El Chain of Thought no es pensamiento: es la forma estadística del pensamiento, una restricción que mejora la coherencia del texto generado.

Apple demostró que los modelos de razonamiento colapsan en problemas complejos y reducen su esfuerzo justo cuando deberían aumentarlo.

Solo el 2,3% de los pasos de razonamiento tienen influencia causal sobre la respuesta del modelo. El resto es decoración.

No pagues por "razonamiento" sin medirlo en tu caso de uso concreto con tus datos reales.

Nunca uses la explicación del modelo como garantía de que la respuesta es correcta.

Diseña con verificación externa. La IA es una herramienta extraordinaria, no un oráculo.

Fuentes

Referencias y papers citados

Apple Machine Learning Research. The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. Junio 2025. machinelearning.apple.com

Zhao, C. et al. (Arizona State University). Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens. Agosto 2025. arxiv.org/abs/2508.01191

Zhao, J. et al. (UC Berkeley, UC Davis). Can Aha Moments Be Fake? Identifying True and Decorative Thinking Steps in Chain-of-Thought. Octubre 2025. arxiv.org/abs/2510.24941

Arcuschin, I. et al. Chain-of-Thought Reasoning In The Wild Is Not Always Faithful. Marzo 2025. arxiv.org/abs/2503.08679

Dellibarda Varela, I. et al. (CSIC, Madrid). Rethinking the Illusion of Thinking. Julio 2025. arxiv.org/abs/2507.01231

Última actualización:


IA en producción

¿Necesitas evaluar cómo integrar IA en tu infraestructura?

En SIXE diseñamos arquitecturas de IA con la misma filosofía que aplicamos a cualquier sistema crítico: redundancia, verificación externa y benchmarks reales. Cuéntanos tu caso.

Servidores y almacenamiento en stock | Entrega < 30 días | SIXE

Disponibilidad · Mayo 2026

Servidores y almacenamiento en stock. Entrega en menos de 30 días.

La crisis de suministro de SSDs y la demanda de infraestructura para IA están llevando los plazos de entrega del sector a 3–6 meses. En SIXE tenemos hardware disponible, lo configuramos internamente y lo entregamos en menos de 30 días.

8 min lecturaStorage · Servidores · Infraestructura

Si estás buscando comprar un servidor o una cabina de almacenamiento y tu proveedor habitual te ha dicho que tardan semanas o meses, no es un caso aislado. Es la nueva normalidad del sector.

La buena noticia: tenemos stock. Servidores IBM Power10 y Power11, Dell PowerEdge, Lenovo ThinkSystem. Cabinas IBM FlashSystem de todas las gamas. Configurados por nuestros propios ingenieros y listos para poner en producción.

<30
Días de entrega
garantizada
3–6
Meses de lead time
media del sector
100%
Configuración
interna — sin intermediarios
01 · Contexto

Por qué conseguir hardware es un problema real en 2026

La crisis de suministro de hardware no terminó con la pandemia. Se transformó. En 2026, la situación es diferente pero igual de complicada: ya no faltan chips, pero la demanda global de capacidad para inteligencia artificial está absorbiendo producción de SSDs, memoria y componentes de servidor a una velocidad que la cadena de suministro no puede seguir.

Las consecuencias para cualquier empresa que necesite renovar o ampliar su infraestructura on premise son concretas:

  • Proyectos de migración detenidos por falta de hardware disponible.
  • Contratos de mantenimiento vencidos sin equipo de reemplazo en plazo.
  • Ampliaciones de capacidad que llegan tarde a compromisos de negocio.
  • Precios al alza en el canal por escasez de unidades flash y SSDs NVMe.
Plazos de entrega reales — sector vs SIXE (mayo 2026)
Storage
all-flash
SIXE
FlashSystem
Servidor
GPU (IA)
SIXE
Servidores
Servidor
rack x86
SIXE
Dell / Lenovo
Sector — lead time alto
Sector — variable
SIXE — stock propio
Dato crítico

IBM diseña y fabrica sus propias unidades flash (FlashCore Modules). A diferencia de fabricantes como Dell, HPE o NetApp — que dependen de proveedores externos de SSDs —, IBM controla su propia cadena de suministro de almacenamiento flash. Eso se traduce directamente en plazos de entrega más cortos y predecibles para los IBM Business Partners como SIXE.

02 · Almacenamiento

Cabinas IBM FlashSystem en stock

Si hay un producto donde la urgencia es mayor y la entrega de SIXE marca más diferencia, es el almacenamiento empresarial. La escasez de SSDs NVMe está tensando los plazos de todas las cabinas all-flash del mercado. Pero IBM fabrica sus propias unidades — y eso nos permite tener stock cuando otros no lo tienen.

Cabinas IBM FlashSystem — almacenamiento all-flash NVMe con FlashCore Module de quinta generación
IBM FlashSystem — nueva generación 2026 con FlashCore Module 5 (FCM5)

Gama entrada: FlashSystem 5015 y 5045

La puerta de entrada al almacenamiento all-flash empresarial. Una cabina 2U con controladora dual, compresión, deduplicación y analítica predictiva con IA incluida. Ideal como servidor de almacenamiento para pyme, backup o consolidación de cargas de trabajo mixtas. Consulta disponibilidad y condiciones.

Gama media: FlashSystem 5200 y nueva 5600

Para empresas que necesitan rendimiento real. La nueva FlashSystem 5600 incorpora el FlashCore Module de quinta generación (FCM5) en formato NVMe EDSFF con capacidades de hasta 105 TB por unidad. Detección de ransomware a nivel de hardware en sub-minuto, snapshots inmutables (safe-guarded copies) y cifrado de datos en reposo como estándar.

Gama enterprise: FlashSystem 7200/7600 y 9600

Para entornos de misión crítica: SAP HANA, bases de datos Oracle, factoría de IA, HPC. La 9600 escala a cientos de PB con latencias sub-100μs. Si tu proyecto de infraestructura IA necesita almacenamiento NVMe paralelo a esa escala, esta es la respuesta.

Protección anti-ransomware en hardware

Todas las cabinas FlashSystem incluyen detección de amenazas a nivel de I/O, por debajo del sistema operativo y del filesystem. Los safe-guarded copies crean snapshots inmutables que no se pueden borrar ni modificar, ni siquiera con acceso root. Si un atacante cifra tus datos, tienes copias limpias garantizadas.

Más allá de las cabinas

También disponemos de IBM Storage Scale (GPFS) para entornos HPC e inferencia IA con acceso POSIX paralelo, Storage Protect y Storage Defender para backup empresarial y resiliencia de datos, y Storage Fusion para arquitecturas basadas en Red Hat OpenShift y Kubernetes.

Condiciones competitivas

Como IBM Business Partner directo tenemos acceso a condiciones que otros distribuidores no pueden ofrecer. Si ya tienes una oferta de otro proveedor, contacta con nosotros antes de decidir — podemos sorprenderte.

03 · Servidores

Servidores para empresas: IBM Power, Dell PowerEdge, Lenovo

IBM Power10
S1012, S1022, S1024, E1050, E1080. AIX, IBM i y Linux. PowerVM. Consolidación extrema.
En stock
IBM Power11
S1122, S1124, E1150, E1180. La nueva generación. IA integrada y eficiencia energética.
Nuevo 2026
Dell PowerEdge
T360 (torre pyme), R660, R760 (rack), XE9680 (8× GPU NVIDIA H100 para IA).
En stock
Lenovo ThinkSystem
Servidores x86 para virtualización, bases de datos y aplicaciones empresariales.
En stock

IBM Power: corren Linux exactamente igual que un x86

Este es el punto donde muchos clientes paran. «Ah, pero es que son Power…». Bien: los servidores IBM Power ejecutan Red Hat, SUSE y Ubuntu de forma nativa. Instalas tu distribución Linux, montas tus contenedores, despliegas OpenShift o Kubernetes. La experiencia del administrador es idéntica.

La diferencia está debajo. Un solo servidor Power10 o Power11 consolida lo que antes necesitabas en cuatro o cinco racks de servidores commodity. PowerVM virtualiza con una fiabilidad que VMware ya no puede prometerte — ni cobrarte, desde que Broadcom cambió el modelo de licencias. Para quien busca una alternativa a VMware sin pasar por KVM desde cero, Power es la opción que menos riesgo tiene.

Dell y Lenovo: x86 cuando x86 es la respuesta correcta

No todo necesita un Power. Para un servidor torre para pyme que va a correr un ERP local, un Dell T360 resuelve el problema sin complicaciones. Para el rack del CPD, los R660 y R760 son el estándar del mercado. Y si lo que necesitas es un servidor GPU NVIDIA para inferencia IA on premise, el Dell XE9680 con 8 GPUs H100 es probablemente el servidor de IA más versátil que se puede comprar hoy. Consulta disponibilidad y condiciones.

04 · Catálogo

Qué tenemos y para qué sirve cada producto

Producto Caso de uso Disponibilidad
FlashSystem 5015/5045
Pyme, backup, consolidación
En stock
FlashSystem 5200/5600
ERP, SAP, virtualización, IA
En stock
FlashSystem 7600/9600
Misión crítica, HPC, Oracle
En stock
Dell T360
Torre pyme, ERP, fileserver
En stock
Dell R660 / R760
Rack, virtualización, BBDD
En stock
Dell XE9680
IA on premise, 8× NVIDIA H100
Consultar
Power10 S1022/S1024
Linux, AIX, IBM i, consolidación
En stock
Power11 S1122/S1124
Nueva generación, IA integrada
En stock
Lenovo ThinkSystem
x86 estándar, gestión simplificada
En stock

Consultar disponibilidad y condiciones →

05 · Servicio

Lo que entregamos no es una caja: es un sistema en producción

Cada proyecto de hardware incluye diseño de la solución junto al cliente, configuración y validación en nuestras instalaciones, instalación on-site o remota, y soporte post-venta. No enviamos hardware sin configurar.

Nuestros ingenieros — los mismos que imparten la formación oficial de IBM y prestan el soporte L2/L3 — conocen cada producto porque trabajan con ellos a diario. Si necesitas migrar desde VMware, desde una cabina de otra marca o desde un servidor que ya no tiene soporte, lo hacemos nosotros.

Opcionalmente: contratos de mantenimiento anuales 8×5 o 24×7 con SLA garantizado.

Sin intermediarios

Somos IBM Business Partner directo. No hay distribuidores, resellers ni capas intermedias entre tu proyecto y el fabricante. Eso significa acceso directo a stock IBM, condiciones de partner, y capacidad de escalar al soporte del fabricante cuando se necesite.


Confirma disponibilidad

No esperes a que la cadena de suministro se ponga peor.

Cuéntanos qué necesitas — servidor, almacenamiento o ambos — y te confirmamos disponibilidad y plazo real en menos de 24 horas laborables.

Storage Scale vs Ceph para inferencia IA: cuál elegir

Storage Scale vs Ceph · Inferencia IA

Storage Scale vs Ceph para inferencia IA: cuál elegir.

Implementamos los dos. Llevamos años con ambos en producción. Y no, la respuesta no es «usa los dos»: es entender qué hace bien cada uno, en qué fallan, y cuál encaja en tu caso.

12 min lecturaStorage · IA · Arquitectura

Últimamente nos llega la misma pregunta con distintos disfraces: «¿Storage Scale o Ceph para inferencia IA?»

Somos IBM Business Partner. Vendemos Storage Scale. También damos formación en Ceph y hacemos consultoría de Ceph en producción. Así que cuando decimos «este es mejor para tu caso», es porque realmente analizamos y sabemos qué puede funcionar para cada cliente.

Esto es lo que le contamos a un cliente cuando se sienta con nosotros a diseñar la arquitectura de almacenamiento para inferencia IA.

01 · Lo primero

Antes de elegir: qué le pide la inferencia al almacenamiento

Mucha gente empieza por el producto. Nosotros empezamos por el patrón de acceso, porque es lo que determina si la elección funciona o te da dolor de cabeza durante años.

Un entorno de inferencia de verdad — no un Llama corriendo en un portátil — tiene esta pinta:

Lo que vive en tu storage de inferencia
# Lo gordo — lectura paralela, muchos nodos a la vez models/llama-70b/ ← 40-140 GB en shards safetensors models/embedding/ ← pequeños pero se leen constantemente# RAG — millones de ficheros pequeños, acceso mixto rag/raw/ ← PDFs, emails, imágenes, audio rag/parsed/ ← salida de Docling/OCR rag/chunks/ ← fragmentos, JSONL, parquet rag/embeddings/ ← vectores# Operación — batch, logs, adapters batch-jobs/ ← input/output de inferencia batch checkpoints/ ← LoRA adapters, fine-tuning logs/ ← trazabilidad, evaluación

Y esos datos los consume un zoo de procesos: nodos GPU con vLLM o TGI, nodos CPU, Spark o Ray preprocesando, pipelines de Docling y OCR, la base vectorial, aplicaciones legacy que entran por NFS, y alguien de compliance que quiere ver un PDF desde Windows por SMB.

Si tu caso se parece a esto — muchos consumidores, muchos protocolos, datos compartidos — ese patrón es el que tiene que mandar en la decisión. No el precio por TB ni el logo del vendor.

02 · Storage Scale

Dónde gana Storage Scale para inferencia IA

POSIX nativo: tus frameworks esperan un directorio, no un bucket

Esto parece obvio hasta que te toca montarlo. Mira cómo cargan modelos las herramientas que vas a usar:

Así cargan modelos los frameworks reales
# HuggingFace Transformers model = AutoModel.from_pretrained("/models/mistral-7b")# vLLM vllm serve /models/Meta-Llama-3-8B-Instruct# Triton Inference Server model_repository: /models/triton-repo/

Piden un path. Un directorio. No un endpoint S3. Storage Scale (el antiguo GPFS) es un filesystem paralelo POSIX nativo. Ese /models es un directorio compartido que todos los nodos leen a la vez, con acceso concurrente real, sin copias intermedias. No hay que inventar nada.

IBM Storage Scale — documentación oficial

Cero copias entre capas: el argumento que más nos convence

Con Ceph S3, el patrón típico para servir un modelo es: descargar del bucket → escribir en disco local o PVC → arrancar el motor de inferencia → servir. Son tres pasos antes de que la primera query entre. Y si tienes 16 nodos, los 16 descargan su copia.

Con Storage Scale, el motor de inferencia apunta a /gpfs/models/llama-70b/ y arranca. Ya está. Sin descarga, sin caché, sin «¿este nodo tiene la última versión del modelo?». Cuando cambias el modelo, lo cambias una vez y todos los nodos lo ven.

Eso se nota especialmente cuando estás iterando — cambiando modelos, probando adapters LoRA, rotando entre configuraciones. Con caché local acabas manteniendo scripts de sincronización, invalidación y limpieza de disco. Con un filesystem paralelo no hay nada que mantener.

Multiprotocolo sobre el mismo fichero

Esto es lo que a los clientes enterprise les resuelve la vida. Un mismo fichero en Storage Scale se puede consumir por POSIX (nodo GPU), por S3 (app moderna), por NFS (equipo de datos), por SMB (alguien en Windows) y por CSI (pod en Kubernetes). El mismo fichero. No una copia por protocolo. No un namespace diferente por interfaz.

IBM lo implementa a través de Cluster Export Services (CES), que expone acceso S3, NFS y SMB sobre el mismo dato del filesystem paralelo.

En un entorno donde conviven contenedores modernos con aplicaciones legacy que no sabes ni quién mantiene, esto es lo que te permite montar una factoría de IA sin romper lo que ya funciona.

Metadata: cuando tienes millones de ficheros pequeños

RAG enterprise no es «tres PDFs en un bucket». Son millones de documentos, millones de chunks, millones de embeddings, ficheros de configuración, índices auxiliares, shards, logs. Operaciones intensivas sobre directorios grandes con muchos ficheros pequeños. Storage Scale lleva décadas resolviendo esto en entornos HPC — Summit, Sierra y otros supercomputadores corrían sobre GPFS. CephFS puede funcionar para esto, pero en nuestra experiencia hay que afinar bastante más el diseño para que no sufra.

03 · Ceph

Dónde gana Ceph para inferencia IA

Object storage masivo: S3 de verdad, no S3 como feature

Ceph nació como almacenamiento distribuido para objetos, bloques y ficheros. Su RGW (RADOS Gateway) ofrece una API S3 completa, con lifecycle policies, versioning, multitenancy, IAM — todo lo que necesitas para operar un object store serio. No es un add-on. Es su razón de ser.

Si tu pipeline de inferencia es S3-native — los modelos se descargan de un bucket, los datasets se leen por API, los resultados se escriben como objetos — Ceph va como un tiro. Un cluster Ceph bien diseñado escala horizontalmente a cientos de PB añadiendo nodos commodity.

Coste por TB: aquí Ceph arrasa

Seamos directos: Storage Scale cuesta más. Necesita licencias IBM, hardware con ciertos requisitos, y gente que sepa operarlo (no abunda). Ceph corre en hardware commodity, no tiene coste de licencias de software, y un equipo con experiencia en Linux puede operarlo.

Para un cliente con petabytes de datos donde la mayoría son «fríos» — datasets de entrenamiento, archivos históricos, backups de modelos — no tiene sentido pagar Storage Scale por TB que se leen una vez al mes. Ceph con erasure coding bien configurado es la respuesta correcta ahí.

Kubernetes: Rook lo hace todo trivial

Para equipos que viven en Kubernetes u OpenShift, Ceph con Rook es difícil de superar. Un operador que te da RBD (ReadWriteOnce), CephFS (ReadWriteMany) y RGW (S3) desde un solo clúster. OpenShift Data Foundation (ODF) es literalmente Ceph empaquetado por Red Hat — lo contamos en detalle en nuestra guía Ceph vs MinIO 2026.

Storage Scale también tiene CSI, pero Rook/Ceph lleva más tiempo en el ecosistema Kubernetes y la comunidad es mucho más grande. Si tu equipo piensa en operadores, en Helm charts y en GitOps, Ceph es su idioma.

Block storage para VMs y bases de datos

Si además de inferencia tienes OpenStack, virtualización o necesitas volúmenes de bloque para bases de datos, el RBD de Ceph es de lo mejor que hay. Storage Scale no compite aquí — no es su territorio.

Dato

El CERN opera más de 60 PB en Ceph en producción, vertebrando su infraestructura OpenStack. Ha pasado de unos pocos PB a escala exabyte en una década, añadiendo nodos sin saltos arquitectónicos. Lo contamos con más detalle en nuestro artículo sobre almacenamiento open source para IA y HPC.

04 · Las pegas

En lo que falla cada uno — y nadie te quiere contar

Aquí es donde la mayoría de artículos se ponen tibios. Nosotros no. Implementamos los dos, y los dos tienen cosas que no nos gustan.

Lo que no nos gusta de Storage Scale

  • Es caro. Licencias IBM, hardware con requisitos específicos, y un rack con Storage Scale ECE + GPUs no baja de una inversión considerable. Para un piloto de IA o una startup, no tiene sentido.
  • Operarlo exige un perfil HPC. No es que sea difícil — es que es un mundo diferente al cloud-native. Si tu equipo vive en Kubernetes y nunca ha tocado un filesystem paralelo, la curva de aprendizaje es real.
  • S3 no es su punto fuerte. Storage Scale tiene acceso S3 vía CES, y funciona. Pero si lo comparas con RGW de Ceph en features S3 puras — lifecycle, multitenancy, versioning avanzado — Ceph le saca ventaja.
  • Block storage: prácticamente no existe. Si necesitas RBD o volúmenes de bloque para VMs, Storage Scale no es tu herramienta.

Lo que no nos gusta de Ceph

  • CephFS no es GPFS. CephFS funciona, pero para muchos clientes concurrentes haciendo I/O paralelo sobre millones de ficheros (el patrón clásico de IA/HPC), Storage Scale tiene bastante más rodaje. Lo explicamos en nuestra comparativa de 2023.
  • El patrón de caché local añade complejidad. Si tus modelos viven en S3, cada nodo de inferencia descarga su copia. Con 4 nodos es trivial. Con 32, estás manteniendo scripts de sincronización, controlando versiones de caché, y rezando para que no se llene el disco local.
  • Multiprotocolo no es limpio. Ceph habla RGW (S3), RBD (bloque), CephFS (fichero) y NFS (vía Ganesha). Pero cada protocolo opera sobre su pool o namespace. No puedes leer el mismo fichero por S3 y por NFS a la vez de forma transparente como en Storage Scale.
  • Metadata bajo presión. Operaciones intensivas sobre directorios con millones de ficheros pequeños (el caso RAG) pueden ser un cuello de botella en CephFS si no se diseña bien. Ceph no se improvisa.
Trampa habitual

Montar s3fs o goofys para darle POSIX a Ceph S3 y poder usar from_pretrained() directamente. Técnicamente funciona. En producción, la semántica POSIX es parcial, el rendimiento es impredecible y los errores son creativos. No lo recomendamos como solución permanente.

05 · La comparativa

Storage Scale vs Ceph para almacenamiento de inferencia IA: resumen

Criterio Storage Scale Ceph
POSIX para IA
Nativo
CephFS
Object store S3
Vía CES
Nativo
Block storage
No
RBD
Model loading compartido
Directo
Con caché
RAG / muchos ficheros
Fuerte
Si es S3
Multiprotocolo / mismo dato
No limpio
Kubernetes
CSI
Rook
Coste por TB
Alto
Bajo
Operación
HPC
SRE
Heritage IA/HPC
Décadas
Creciente

En crudo: Storage Scale gana cuando los datos están «vivos» — muchos procesos leyendo modelos compartidos, pipelines POSIX, entornos mixtos donde coexisten Kubernetes y aplicaciones legacy. Ceph gana cuando los datos son objetos — S3 como interfaz principal, modelos que se cachean en local, equipos cloud-native, presupuesto ajustado.

Intentar usar Storage Scale como object store barato es tirar dinero. Intentar que CephFS se comporte como un filesystem paralelo HPC es buscar problemas. Cada uno es muy bueno en lo suyo.

06 · Opinión SIXE

Lo que le diríamos a un cliente que nos preguntase hoy

Si nos pones contra la pared: para inferencia IA en entornos enterprise con datos compartidos y RAG, Storage Scale da menos quebraderos de cabeza. Los modelos están vivos, compartidos, accesibles por el protocolo que necesite cada consumidor. No hay que mantener scripts de sincronización ni cruzar los dedos con la caché.

Pero si tu patrón es cloud-native de verdad — pods stateless, S3 como fuente de verdad, equipo SRE que sabe operar Ceph — entonces Ceph es la respuesta correcta y te va a costar bastante menos. No lo decimos por quedar bien: lo hemos visto funcionar así en producción muchas veces.

Y si tu entorno tiene datos sensibles en IBM Power, integración con DB2 u Oracle, y la inferencia va a convivir con cargas HPC o analytics — ahí Storage Scale no tiene rival real. Es su terreno natural. Lo contamos con más detalle en el contexto de IBM Fusion y las GPUs NVIDIA Blackwell, donde Storage Scale + Content-Aware Storage empieza a convertir el almacenamiento en un motor activo de preparación de datos para RAG.


¿Storage Scale o Ceph?

Depende. Cuéntanoslo y te decimos.

Implementamos los dos en producción. Te ayudamos a elegir el que encaja en tu caso, no el que nos da más margen.

IBM Fusion y NVIDIA Blackwell: qué cambia para la IA on-premises

IBM Storage · NVIDIA · IA

IBM Fusion y NVIDIA Blackwell: el almacenamiento ahora procesa datos para IA.

GTC 2026 trajo una alianza IBM-NVIDIA mucho más profunda de lo que parece. Fusion ya no es solo storage para contenedores: con Content-Aware Storage y GPUs Blackwell, el almacenamiento se convierte en un motor activo de preparación de datos para IA.

8 min lecturaStorage · IA · Infraestructura

El 16 de marzo, IBM subió al escenario de GTC 2026 en San José con un anuncio que pasó relativamente desapercibido fuera de los círculos de storage: una colaboración expandida con NVIDIA que abarca GPUs Blackwell Ultra en IBM Cloud, analítica de datos nativa en GPU, procesamiento inteligente de documentos y despliegues on-premises para sectores regulados.

Tres semanas después, IBM publicó un Redbook técnico que detalla cómo integrar Storage Scale, Fusion y Content-Aware Storage (CAS) con la plataforma NVIDIA AI Data Platform. Y hace días, IBM, NVIDIA y Samsung demostraron un sistema CAS capaz de gestionar 100 mil millones de vectores en un solo servidor.

¿Qué significa todo esto en la práctica? ¿Es un cambio real o es marketing de keynote? Lo analizamos.

El anuncio

GTC 2026: IBM y NVIDIA se toman en serio la IA empresarial

Lo que IBM anunció en GTC no es un partnership genérico. Son cinco líneas de trabajo concretas que afectan directamente a cómo las empresas despliegan IA on-premises:

  • GPUs Blackwell Ultra en IBM Cloud — disponibles desde Q2 2026 para entrenamiento a gran escala, inferencia de alto rendimiento y razonamiento IA.
  • Content-Aware Storage (CAS) integrado en la próxima versión de Fusion — el almacenamiento deja de ser pasivo y empieza a procesar datos para IA.
  • Red Hat AI Factory con NVIDIA — OpenShift + GPUs NVIDIA como plataforma estandarizada para desplegar IA en producción.
  • IBM Consulting + NVIDIA Blueprints — servicios de integración para llevar IA de piloto a producción.
  • Soporte para NVIDIA AI Data Platform (AIDP) — un diseño de referencia que integra compute, networking y storage en un sistema unificado para IA.
Fuente: IBM Newsroom, 16 marzo 2026

El dato que más impacto tiene para infraestructura on-premises: Fusion HCI ya incluye servidores GPU con NVIDIA H200 y RTX Pro 6000 Blackwell Edition. Esto no es un roadmap — el hardware está disponible. Cada sistema admite hasta 4 servidores GPU con 8 tarjetas cada uno.

Para entender cómo encajan todas las piezas, este es el stack completo que IBM ha definido como referencia para AIDP sobre Fusion:

Y Rob Davis, VP de Storage Networking Technology en NVIDIA, fue directo en su declaración: los agentes de IA necesitan acceder, buscar y procesar datos a escala, y hoy esos pasos ocurren en silos separados. La integración de CAS con NVIDIA orquesta datos y compute a través de una red optimizada para superar esos silos.

La tecnología

Content-Aware Storage: cuando el almacenamiento entiende lo que guarda

Esto es lo más interesante del anuncio y lo que menos se ha cubierto. Hasta ahora, el almacenamiento empresarial era un repositorio pasivo: guardaba ficheros y los servía cuando se los pedían. Para hacer RAG (Retrieval-Augmented Generation) o alimentar modelos de IA con datos corporativos, necesitabas una pipeline separada que extraía documentos, los troceaba en chunks, los vectorizaba y los metía en una base de datos vectorial.

CAS elimina esa pipeline externa. Opera en dos fases — visualízalo así:

Fase 1: Ingesta y preparación continua

CAS monitoriza carpetas en Storage Scale (o en almacenamiento externo vía AFM) y detecta cambios en tiempo real. Cuando un documento se modifica o se añade, CAS lo procesa automáticamente: extracción de contenido de texto, tablas, gráficos e imágenes usando NVIDIA NeMo Retriever, chunking semántico, y conversión a embeddings de alta dimensión. Los vectores se indexan en una base de datos vectorial gestionada por CAS sobre Storage Scale ECE.

Fase 2: Consulta y recuperación

Cuando un usuario o un agente de IA hace una pregunta, CAS realiza búsqueda semántica, por keywords (BM25) o híbrida. Los resultados pasan por un reranker de NVIDIA optimizado para máxima relevancia. Y lo crítico: los vectores heredan los controles de acceso (ACLs) de los documentos originales. Si un usuario no tiene permiso para ver un fichero, tampoco ve sus vectores en los resultados de RAG.

Fuente: IBM Redbook MD248598 — Enabling AI Inference at Scale, abril 2026
Por qué importa

La mayoría de despliegues RAG empresariales fallan en dos puntos: los datos se quedan obsoletos porque nadie actualiza la base vectorial, y no hay control de acceso sobre los vectores. CAS resuelve ambos problemas a nivel de infraestructura, no de aplicación. Eso es un cambio de paradigma real.

Demo IBM + NVIDIA + Samsung
100mil millones
de vectores en un solo servidor con compute y storage desacoplados, indexación jerárquica acelerada por GPU. A esa escala, los índices RAG tradicionales se vuelven inmanejables.
Fuente: SDxCentral, abril 2026
El hardware

H200, RTX Pro 6000 y Blackwell Ultra: qué GPU va dónde

Hay tres líneas de GPU NVIDIA en el ecosistema IBM que conviene no confundir. Cada una tiene un rol distinto — pincha cada pestaña para ver dónde se despliega y para qué sirve:

NVIDIA Blackwell Ultra
GTC 2026 · Cloud-first
IBM Cloud
DisponibilidadIBM Cloud · Q2 2026
Caso de usoEntrenamiento a gran escala, inferencia de alto rendimiento, razonamiento IA
DespliegueCloud puro · sin opción on-prem en Fusion
IntegraciónRed Hat AI Factory + VPC servers con compliance
Si tu carga de trabajo puede ir a cloud y no tienes restricciones de residencia de datos, Blackwell Ultra en IBM Cloud es la opción más potente del catálogo. Pero si tus datos no pueden salir del perímetro, mira las otras dos pestañas.
NVIDIA H200
Hopper · Memoria HBM3e ampliada
Fusion HCI on-prem
DisponibilidadFusion HCI · Mayo 2026
Caso de usoEntrenamiento, fine-tuning e inferencia pesada de LLMs
Memoria141 GB HBM3e · 4,8 TB/s bandwidth
Configuración2 GPUs por servidor · Hasta 4 servidores por rack
Total máximo32 GPUs por sistema Fusion
La H200 es la opción para entrenamiento serio on-premises. Su memoria HBM3e ampliada respecto a la H100 la hace ideal para modelos grandes que antes no cabían sin sharding agresivo. En Fusion HCI accede directamente a Storage Scale ECE por red 200 GbE.
NVIDIA RTX Pro 6000
Blackwell Edition · Inferencia + visualización
Fusion + AIDP
DisponibilidadFusion HCI · Mayo 2026
Caso de usoInferencia, RAG, vectorización con CAS, visualización profesional
ArquitecturaBlackwell Server Edition · 96 GB GDDR7
Configuración2 GPUs por servidor · Hasta 4 servidores por rack
Stack AIDP+ BlueField-3 DPU · ConnectX-7/8 SuperNICs
La RTX Pro 6000 Blackwell es la GPU del stack AIDP de referencia. Acelera el chunking semántico y la vectorización de CAS, y combinada con BlueField-3 DPU descarga el procesamiento de red y storage de la CPU principal. Es la pieza clave para CAS-RAG en producción.
Fuente: IBM Redbook MD248598 — Reference Stack AIDP
Lo que no es obvio

BlueField-3 no es solo un NIC rápido. Es un DPU (Data Processing Unit) que descarga operaciones de red, storage y seguridad de la CPU principal. En un sistema AIDP, los BlueField-3 aceleran la comunicación entre Storage Scale y las GPUs, reduciendo la latencia de acceso a datos para inferencia en tiempo real. Es una pieza crítica que no aparece en las keynotes pero marca la diferencia en rendimiento real.

La lectura

Qué significa esto para la IA on-premises

Si juntamos todas las piezas, el mensaje de IBM es claro: Fusion ya no es un producto de almacenamiento para contenedores. Es una plataforma de IA on-premises que integra compute (OpenShift), aceleración (GPUs NVIDIA), almacenamiento inteligente (Storage Scale + CAS) y networking optimizado (Spectrum-X + BlueField-3) en un appliance unificado.

Para organizaciones que no pueden — o no quieren — enviar sus datos a la nube, esto es relevante. Especialmente en tres escenarios:

Sector regulado

Banca, sanidad, administración pública. Los datos no pueden salir del perímetro. Con Fusion HCI + CAS + GPUs NVIDIA puedes tener RAG corporativo sobre documentos internos sin que nada salga del rack. Y los ACLs se respetan a nivel de vector — compliance integrado, no bolted-on.

IA sobre datos propios a gran escala

IBM cifra que el 80-90% de los datos empresariales son no estructurados. CAS convierte ese volumen en datos consumibles por IA de forma continua y automática. No es un proyecto de ETL puntual — es una capacidad permanente de la infraestructura.

Alternativa a cloud cuando el TCO no cuadra

IBM sigue repitiendo el dato de rendimiento equivalente a Databricks al 60% del coste. Es un benchmark interno sobre operaciones seleccionadas, así que hay que tomarlo con cautela. Pero la lógica económica de on-premises para cargas predecibles y de alto volumen sigue siendo sólida. Si sabes que vas a tener 30 GPUs corriendo 24/7, el TCO on-premises suele ganar.

Nuestra lectura

¿Es real o es marketing?

Un poco de ambos, como siempre. Lo que es indiscutiblemente real:

  • El hardware existe y se puede comprar. Las H200 y RTX Pro 6000 están disponibles como servidores GPU para Fusion HCI. No es un roadmap.
  • CAS funciona. La demo de 100 mil millones de vectores es verificable. El Redbook detalla la arquitectura paso a paso.
  • NVIDIA AIDP es un diseño de referencia real con adopción temprana en sanidad (UT Southwestern Medical Center) y finanzas.
  • Red Hat AI Factory estandariza el despliegue de OpenShift + GPU como plataforma de IA, que es exactamente lo que Fusion HCI entrega como appliance.

Lo que hay que matizar:

  • CAS aún no está en Fusion GA. IBM dijo Q2 2025, luego Q2 2026. Está integrado en Storage Scale desde marzo 2025, pero la versión embebida en Fusion todavía está aterrizando.
  • El dato del 60% del coste vs Databricks es un benchmark interno en condiciones controladas. En producción real, el beneficio dependerá de tu carga de trabajo.
  • Fusion HCI no es barato. Un rack con GPU H200, 16 nodos de storage y licencias OpenShift es una inversión considerable. Tiene sentido para organizaciones con datos sensibles y cargas predecibles, no para un piloto de IA.
Opinión de SIXE

Lo más significativo de esta oleada no son las GPUs — esas las tienen todos. Es CAS. Que el almacenamiento entienda semánticamente lo que guarda y mantenga una base vectorial actualizada en tiempo real con ACLs heredados es un cambio arquitectónico real. Si funciona como promete (y las demos sugieren que sí), resuelve los dos problemas principales de RAG empresarial: freshness y seguridad.

Dicho esto, no todo el mundo necesita Fusion HCI para beneficiarse. CAS vive en Storage Scale, que también se puede desplegar como software-defined sobre tu propio hardware. Y si tu volumen de datos no justifica Storage Scale, Ceph con una pipeline RAG convencional sigue siendo una alternativa viable y más económica.

Como siempre, la respuesta depende del volumen, la sensibilidad de los datos y el presupuesto. Te ayudamos a evaluarlo.


¿Evaluando IA on-premises?

Cuéntanos tu caso de uso. Te ayudamos a dimensionar.

Fusion HCI, Fusion Software, Storage Scale standalone o Ceph — depende de lo que necesites. No vendemos una solución; te ayudamos a elegir la correcta.

¿Sigues en Informix 12.10? Esto te interesa

IBM Informix · Migración

¿Sigues en Informix 12.10? Esto te interesa.

El soporte de 12.10 se ha acabado. Pero mientras no mirabas, Informix ha cambiado bastante: contenedores standalone para Kubernetes, un motor nuevo por dentro, backup nativo a S3 y una certificación que cambia de versión.

6 min lecturaBases de datos · Cloud-native

En marzo, Anup Nair — Principal Technical Product Manager de Informix — publicó en IBM TechXchange el anuncio del Informix Standalone Container. Imágenes enterprise-grade para Kubernetes y OpenShift, con soporte oficial, sin depender de Cloud Pak for Data. El post acumula 13 visualizaciones y cero comentarios. Casi nadie se ha enterado.

Y sin embargo, es probablemente el cambio más significativo en la forma de desplegar Informix desde que IBM lo compró. Junto con el fin del soporte de 12.10, las novedades de Informix 15 y la transición de la certificación a v15, el panorama ha cambiado bastante. Aquí lo resumimos.

Novedades de Informix — contenedores standalone, migración desde 12.10 y formación oficial
La noticia

Contenedores standalone: qué ha cambiado

Hasta hace poco, si querías Informix en contenedores con soporte enterprise en producción, el único camino era Cloud Pak for Data (CP4D). Las imágenes de Docker Hub — que se han movido al IBM Container Registry (ICR) — eran Developer Edition: válidas para desarrollo, sin soporte para producción.

El Informix Standalone Container elimina esa dependencia:

  • Imágenes production-grade para Informix v14 y v15 en IBM Container Registry.
  • Despliegue directo en Kubernetes y OpenShift sin CP4D.
  • Soporte enterprise bajo el entitlement existente — no es un producto adicional.
  • Upgrade de Developer a Enterprise Edition cambiando imagen y aplicando installer.
  • CASE bundles en GitHub: ibm-informix-standalone.
Fuente: Anup Nair, IBM TechXchange Community, marzo 2026

En la práctica esto significa integrar Informix en pipelines CI/CD, levantar instancias para tests automatizados, desplegar con Helm Charts en hybrid-cloud y tener entornos dev idénticos a producción. Daniel Weber, Informix Container Dev Lead, hizo demo del proceso en la IIUG Tech Talk de abril.

Es el tipo de anuncio que no sale en titulares pero cambia cómo se opera un producto en el día a día.

El corte

Informix 12.10 ha perdido el soporte

El 30 de abril, IBM ha completado la transición de Informix 12.10 a Extended Support. Tres consecuencias directas:

  • Sin parches de seguridad. Cualquier vulnerabilidad descubierta queda sin resolver.
  • Sin correcciones de bugs. El fixpack actual es el último.
  • Soporte técnico solo de pago bajo Extended Support, hasta 2030.
Fuente: IBM Product Lifecycle — Informix 12.10

El CSDK 4.10 (Client SDK) también pasa a Extended Support en la misma fecha, lo que afecta a drivers ESQL/C, ODBC y JDBC antiguos.

12.10 se lanzó en 2013. Trece años es un ciclo razonable. Pero muchos entornos siguen corriendo esta versión porque «funciona» y nunca hubo presión suficiente para migrar. Ahora la presión existe — y coincide con que hay un camino de modernización real: contenedores, cifrado nativo, backup a S3.

La decisión

14.10 o 15: cuál elegir para migrar

Informix 15 (noviembre 2024) es la primera release major en más de un lustro, con cambios profundos en las estructuras internas del motor: límites ampliados drásticamente (una partición puede tener 140 billones de páginas), cifrado nativo por dbspace, Wire Listener mejorado (MongoDB 3.2–4.2), backup a S3/Azure/IBM COS con ON-Bar, Helm Charts oficiales y Java 11 obligatorio.

Informix 14.10xC13 (enero 2026) es la última release de la rama 14.10: mejoras en archecker para SmartLOBs, Direct I/O para bloques 2K/4K, y las correcciones acumuladas. Madura, probada, conservadora.

Estable · Probado
Informix 14.10xC13
Enero 2026 · Release madura
RiesgoBajo
UpgradeIn-place desde 12.10
DriversAlta compatibilidad
Cifrado dbspaceNo
Backup S3No nativo
ContainersStandalone ✓

Nuestra recomendación: si el entorno es estable y no necesitas las funcionalidades de 15, la ruta 12.10 → 14.10 es la más segura. Te da tiempo a que Informix 15 acumule fixpacks. Si el proyecto es nuevo o necesitas cifrado at-rest, backup a cloud o Kubernetes nativo, ve directo a 15.

Lo que no recomendamos

Quedarse en 12.10 bajo Extended Support «hasta que no haya más remedio». El Extended Support tiene fecha de fin y cuanto más esperes, menos flexibilidad tendrás. Migrar con prisas es caro. Migrar planificadamente es un proyecto controlable.

El equipo

Por qué formar al equipo importa tanto como migrar

Lo vemos proyecto tras proyecto. Un equipo actualiza Informix y sigue operando con los mismos procedimientos de hace ocho años. El servidor está en versión nueva; el conocimiento sigue en la antigua.

14.10 introdujo AUTO_TUNE que convierte en innecesarios muchos ajustes manuales. 15 cambia la filosofía de cifrado, backup y despliegue. Y con los contenedores standalone hay un modelo operativo nuevo que requiere competencias de Kubernetes que un DBA clásico no necesariamente tiene. La documentación oficial está en la guía de despliegue containerizado de Informix 15, pero la documentación no sustituye a la formación práctica.

La certificación oficial también ha cambiado: el IIUG e IBM han confirmado la transición a la nueva IBM Certified Informix v15.0 Database Administrator – Professional. La certificación v14 se está retirando.

Nuestros cursos de Informix

En SIXE llevamos más de 15 años impartiendo formación oficial de IBM. Hemos actualizado todo el temario de Informix a v15 con laboratorios nuevos y documentación propia.

Informix 15 & 14.10 System Administration (SIFMX819G) — 3 días / 24 horas. Desde la arquitectura del servidor hasta troubleshooting en producción, con módulo de migración 12.10→14.10/15 y despliegue en contenedores. Impartido por DBAs en activo sobre una instancia Informix 15 en vivo.

El catálogo completo de Informix incluye administración de sistemas, administración de bases de datos y cursos personalizados para migración. En español, inglés y francés — online, presencial, abierto o in-company.

Ver todos los cursos de Informix →


¿Migración, contenedores o formación?

Cuéntanos qué Informix tienes y te decimos por dónde empezar.

Versión actual, si estáis mirando contenedores, si necesitáis formar al equipo antes de mover producción. Sin pitch comercial.

IBM COS vs Ceph: cuándo migrar y en qué dirección (2026)

Object Storage · Abril 2026

IBM COS vs Ceph: cuándo migrar, en qué dirección y por qué.

Tres caminos para hacer object storage a escala petabyte — y cómo llegamos a la recomendación correcta en cada caso. Con quince años de despliegues en producción y tres casos reales sobre la mesa.

Abril 202611 min lecturaInfraestructura · Open Source

En 2026, si llevas un despliegue de object storage de varios petabytes y te planteas qué hacer con él los próximos cinco años, tienes tres opciones realistas sobre la mesa: IBM Cloud Object Storage (el heredero de Cleversafe), Ceph upstream apoyado en un partner de soporte, o Ceph empaquetado comercialmente — típicamente IBM Storage Ceph.

Nuestra preferencia es el open source y lo decimos al principio para no hacer perder el tiempo a nadie. Pero también hemos recomendado IBM COS a clientes concretos sabiendo que era la respuesta correcta, y nos hemos opuesto a migraciones que nos habrían facturado bien pero que habrían complicado la vida del cliente sin ganancia real. En este artículo explicamos cuándo y por qué, con casos vividos.

Comparativa IBM COS vs IBM Storage Ceph vs Ceph upstream — criterios de elección para migración de object storage
El contexto

El contexto de 2026, sin adornos

El mercado de object storage on-premise lleva tres años en reacomodo. IBM ha ido reposicionando COS varias veces desde que absorbió Cleversafe en 2015: primero como producto independiente, luego empujado hacia IBM Storage Ready Nodes, después integrado en el discurso de «cyber vault» dentro del portfolio de Storage Defender. Los clientes históricos de Cleversafe — muchos de ellos con despliegues legacy de más de diez años sobre hardware Cisco UCS que ya tocaron fin de vida — se preguntan cuál es el camino a cinco años.

Ceph, mientras tanto, ha hecho lo contrario. Ha consolidado. La release actual Tentacle (20.2.1, abril de 2026) cierra un ciclo de madurez que arrancó con Reef y Squid, y el proyecto tiene contribuciones activas de CERN, DigitalOcean, Bloomberg, OVH, Clyso, Red Hat/IBM y SUSE. Es difícil encontrar un proyecto open source de infraestructura con más actividad sostenida.

En el medio ha aparecido IBM Storage Ceph: Ceph upstream empaquetado y soportado comercialmente por IBM, heredero directo de Red Hat Ceph Storage. Técnicamente es el mismo Ceph. Comercialmente es una suscripción con SLA vendor tier-1. Existe porque hay clientes cuyos pliegos exigen soporte enterprise con nombre conocido, y Ceph upstream «a secas» no pasa ese corte aunque técnicamente sea idéntico.

Tres productos, tres modelos de negocio, tres perfiles de cliente distintos.

Las opciones

Los tres protagonistas, en sesenta segundos

IBM COS
IDA patentado (SecureSlice), arquitectura cerrada de tres capas, hardware certificado. Fuerte en compliance regulatorio avanzado.
Propietario
IBM Cloud Object Storage
Heredero Cleversafe · ClevOS
LicenciaPropietaria IBM
HardwareLista cerrada cert.
ProtocolosObject S3 / Swift
Coste 5 añosAlto
Lock-inAlto
Op. complejidadBaja
IBM Storage Ceph
Ceph upstream con suscripción IBM. Mismo código, SLA contractual tier-1. Para quienes necesitan vendor enterprise en el pliego.
Ceph + IBM
IBM Storage Ceph
Red Hat Ceph heredero · ppc64le
LicenciaSuscripción IBM
HardwareCualquier x86/ARM
ProtocolosS3 · RBD · CephFS · NVMe-oF
Coste 5 añosMedio-alto
Lock-inMedio
Op. complejidadMedia

Hover sobre cada tarjeta para más detalle · La opción correcta depende de la realidad operativa de cada cliente

Los tres funcionan. A nivel técnico, las diferencias que importan no están en el qué hacen sino en el cómo se operan y en el cuánto cuestan a cinco años. IBM Storage Ceph e IBM COS no compiten entre sí — sirven a perfiles distintos. Si te interesa la comparativa de Ceph frente a Storage Scale, GPFS o NFS, tenemos un artículo específico: IBM Storage Ceph vs Storage Scale, GPFS, GFS2, NFS y SMB.

Nuestra posición

Por qué preferimos open source

No es ideología. Es el resultado de ver, proyecto tras proyecto, que un cliente con buen equipo interno o con un partner competente detrás obtiene sobre Ceph upstream la misma estabilidad operativa que sobre cualquier alternativa comercial, con bastante más libertad y por menos dinero.

El lock-in de los productos propietarios no es solo de hardware, es también de roadmap. Si mañana IBM reposiciona COS otra vez — y ya ha pasado varias veces desde 2015 —, el cliente mira el cambio desde la barrera. Con Ceph, si tu distribuidor comercial cambia de estrategia o sube precios, te mueves a upstream o a otro distribuidor sin migrar datos. La portabilidad es real, no es marketing.

La comunidad es garantía de continuidad de una manera que un solo fabricante no puede serlo. Un producto propietario depende en última instancia de una hoja de cálculo en la sede del fabricante. Ceph tiene tantos contribuidores institucionales que si uno se va — cosa que ha pasado — el proyecto sigue. Para infraestructura que vas a tener quince o veinte años en producción, esto cuenta.

La versatilidad arquitectónica se paga sola. Object storage hoy, block mañana para virtualización, file puntual, NVMe-oF cuando aparezca la necesidad. Todo sobre el mismo hardware y el mismo equipo. COS solo hace object bien. Separar plataformas por protocolo duplica equipos, procedimientos y contratos de soporte. Y para los casos donde Ceph actúa como backend NFS, hemos documentado el proceso en este artículo: NFS de alta disponibilidad con Ceph Ganesha.

La transparencia operativa es otro tipo de seguridad. Cuando algo falla en Ceph, tienes el código. Cuando algo falla en COS, abres un caso y esperas. Para equipos técnicos serios, la primera vale más de lo que aparenta en una comparativa de features.

El matiz importante

El open source no es gratis. Es distinto. Lo que te ahorras en licencias lo pagas en horas de equipo, propio o contratado. Si no tienes el equipo ni un partner que actúe como extensión de él, la cuenta puede darse la vuelta. Por eso la siguiente pregunta importa tanto como la filosofía: ¿quién opera esto en el día a día?

Honestidad técnica

Cuándo IBM COS es la respuesta correcta

Si fuéramos talibanes del open source estaríamos vendiendo humo y ya hay suficiente en el mercado. COS es la elección correcta para un perfil de cliente bastante concreto.

Equipos operativos pequeños, sin skills profundos en SDS y sin presupuesto para contratarlos ni para externalizar de forma continua. La curva de aprendizaje de Ceph es real. Si la organización no puede asumirla, un producto empaquetado como COS reduce la superficie de problemas operativos.

Sectores regulados con requisitos de compliance muy específicos — WORM auditado, retención bajo SEC 17a-4, Compliance Enabled Vaults, NENR. El ecosistema IBM está muy maduro aquí y las auditorías van más rápido cuando todo el stack es del mismo fabricante.

Política corporativa de «una sola garganta que apretar» con preferencia explícita por vendor tier-1. Hay organizaciones — banca conservadora, administración pública, defensa — donde el CISO no acepta una arquitectura sin SLA contractual. Discutir con esa política desde fuera es perder el tiempo; lo correcto es ayudar al cliente a elegir el producto que mejor encaje.

Ecosistema IBM ya desplegado. Si el cliente ya tiene Spectrum Protect, Storage Defender, Fusion, Power o Z, consolidar object storage dentro del mismo paraguas vendor tiene lógica operativa y comercial.

Escala muy grande (petabytes altos o exabytes) con workload predecible y estable, donde la simplicidad operativa de un producto maduro compensa el coste de la licencia. Hemos visto clientes con más de un exabyte bajo soporte IBM para los que migrar supondría un proyecto de tres años y decenas de millones; en esos casos la respuesta es quedarse y optimizar.

Lo que no justifica quedarse en COS

La inercia, el miedo mal informado al open source, o dar por buena la partida anual de licencia sin cuestionarla. Eso sí lo cuestionamos siempre.

La mayoría del mercado

Cuándo Ceph upstream con buen partner es la respuesta

Este es el escenario donde creemos que está la mayoría del mercado, aunque no siempre lo sepa.

Perfiles donde Ceph upstream gana claro:

  • Cliente con equipo técnico competente en Linux e infraestructura, o dispuesto a tener partner de soporte continuado.
  • Escala media-grande, de cientos de TB a decenas de PB, donde la suscripción comercial empieza a dolerle al presupuesto.
  • Necesidad o intención de unificar object, block y file en la misma plataforma.
  • Refresh de hardware en curso sin ganas de atarse a una lista certificada de un único fabricante.
  • Integración nativa con Kubernetes vía Rook, si hay plataforma cloud-native en el mapa.
  • Preferencia, simplemente, por poder ver lo que hay debajo del capó.

Aquí toca enfrentar un mito que lleva años rondando: que Ceph es difícil. Lo es a medias. Ceph es complejo — como lo es cualquier sistema distribuido serio — pero no es caótico ni inestable. La diferencia entre un cluster Ceph que da guerra y uno que corre años sin incidentes no está en el software. Está en el diseño del despliegue, en el tuning de los placement groups y del balancer, en la elección de hardware coherente, en la monitorización, y en tener a alguien al otro lado del teléfono que sepa qué hacer cuando algo raro aparece en ceph health detail. Tenemos un artículo específico sobre el error más común de Ceph y cómo corregirlo.

El problema no es Ceph. El problema es desplegarlo sin expertise. Eso es un problema de cualquier infraestructura compleja, no un defecto del producto.

La pregunta honesta. No es «¿puedo yo solo con Ceph?». Es «¿tengo a alguien — propio o contratado — que me cubra las espaldas?». Si la respuesta es sí, Ceph upstream da el mejor ratio coste/resultado del mercado. Si es no, hay que conseguir el alguien antes de firmar nada.

Un cluster Ceph bien operado funciona igual de bien con soporte upstream más partner competente que con una suscripción enterprise. La diferencia real es quién coge el teléfono a las tres de la mañana. Si te estás planteando Ceph frente a alternativas más ligeras de object storage, el artículo Ceph vs MinIO para 2026 cubre ese análisis en detalle.

La opción intermedia

IBM Storage Ceph: la opción intermedia

Aquí nos mojamos más, porque sobre este producto se escribe poco con claridad.

IBM Storage Ceph es, en lo técnico, Ceph. El mismo Ceph que te bajas de la web del proyecto. Empaquetado, probado, integrado con herramientas propias de IBM, soportado comercialmente con SLA, y certificado en varios entornos regulados. Eso es lo que pagas. Técnicamente no tienes nada que no puedas tener con upstream.

Cuándo tiene sentido pagarlo:

  • Pliegos de contratación pública o privada que exigen vendor tier-1 con soporte contractual, sin margen de negociación.
  • Organizaciones donde la política de compras obliga a soporte enterprise sí o sí, y no hay manera de homologar a un partner externo como sustituto.
  • Clientes que ya tienen un ELA con IBM y añadir Storage Ceph al paquete sale razonable frente al precio de lista.
  • Sectores con auditorías donde el nombre del fabricante en la factura acorta el proceso.

Cuándo no vale la pena: en prácticamente todos los demás casos. Si tu compliance no te obliga y tienes un partner decente, pagar suscripción por upstream es un sobrecoste evitable. A escala decenas de petabytes, la diferencia entre suscripción comercial y partner de soporte sobre upstream puede rondar cientos de miles de euros al año. A escala exabyte, pasa a millones. Ese dinero, para la mayoría de los clientes, vale más reinvertido en equipo, hardware o cualquier otra cosa.

Sin floritura. COS = producto completo, vendor único, coste alto, lock-in alto, simplicidad operativa alta. IBM Storage Ceph = Ceph de la comunidad con factura IBM, tranquilidad contractual, coste medio-alto. Ceph upstream con partner = máximo control, coste bajo, requiere madurez — propia o prestada.

Si tu realidad te empuja al primero o al segundo, ahí estaremos para ayudarte a operarlo bien. Pero la mayoría de clientes con los que trabajamos descubren, tras un assessment honesto, que el tercero les encaja mejor de lo que pensaban.

Casos reales

Tres casos reales

Anonimizados, porque los NDAs son los NDAs. La moraleja siempre es la misma: la pregunta correcta no es «cuál es mejor en abstracto» sino «cuál encaja con esta realidad concreta».

Casuística real · Tres perfiles, tres decisiones distintas
A
Operador telco europeo · 50 PB · COS → Ceph upstream
Hardware Cisco UCS M4 en fin de vida, refresh en hardware certificado IBM prohibitivo. Coste de licencia COS cuestionado internamente desde hacía años. Intención estratégica de consolidar object y block para la plataforma Kubernetes interna. Migración en fases durante 18 meses con dual-running. Resultado: coste operativo total reducido significativamente, equipo autosuficiente, SIXE como soporte de segundo nivel. Tres años después el cluster sigue estable.
Hardware EoLCoste licenciaConsolidación K8s
B
Entidad financiera regulada · 8 PB · Se quedaron en COS
Nos llamaron para evaluar una posible migración motivada por el coste. Hicimos el assessment completo. Recomendamos no migrar: equipo pequeño, sin presupuesto para asumir Ceph de forma autónoma, requisitos SEC 17a-4 con Compliance Enabled Vaults profundamente integrados en sus auditorías anuales, y aversión al riesgo operativo legítimamente alta. Ganamos menos, pero ganamos un cliente de largo plazo. Seguimos trabajando con ellos en optimización del despliegue existente y planificación del siguiente refresh.
SEC 17a-4Equipo pequeñoRespuesta: quedarse
C
Administración pública · 3 PB · Ceph self-managed → IBM Storage Ceph
Cluster Ceph desplegado internamente sin expertise suficiente: inestable, con incidentes recurrentes que habían quemado al equipo. Nuevo requisito de pliego exigía vendor tier-1 con soporte por contrato — upstream quedaba fuera. Los acompañamos en la migración a IBM Storage Ceph, la estabilización y la formación del equipo. Terminaron con un cluster sano. No era la opción más barata, pero era la única posible dadas las restricciones externas.
Pliego vendor tier-1Cluster inestable→ IBM Storage Ceph
Lo que nadie cuenta

Lo que la mayoría de comparativas no cuenta

Cuatro cosas que en los whitepapers de vendor nunca aparecen y que hemos visto tropezar a muchos equipos técnicos.

Migrar a escala petabyte no es copiar datos

Es migrar configuración: lifecycle policies, retention, legal holds, ACLs, CORS, bucket policies, versioning, notificaciones de eventos, tagging, replicación. Se migra el contexto tanto como los bytes. Un proyecto de migración mal escopado se da cuenta de esto a mitad de camino y se le duplica el calendario.

El dialecto S3 no es uniforme

Entre AWS S3, Ceph RGW e IBM COS hay diferencias sutiles en headers, en comportamiento de LIST con muchos objetos, en casos borde de multipart upload, en la semántica de versioning. Las aplicaciones cliente a veces necesitan ajustes. Hay que probar, no asumir.

La protección de datos cambia de filosofía según el producto

El IDA de COS, el erasure coding de Ceph y la replicación triple tradicional no son intercambiables a nivel de garantías de durabilidad ni de perfil de fallos que toleran. Traducir un IDA 10/8/7 de COS a un perfil de erasure coding de Ceph requiere criterio, no es aritmética.

El día a día operativo es radicalmente distinto

En COS diagnosticas con storagectl list y el shell del Manager. En Ceph con ceph -s, ceph osd tree, ceph health detail, placement groups, OSDs, CRUSH maps. Reentrenar a un equipo cuesta entre seis y doce meses de transición efectiva. Hay que presupuestarlo, no puede ser una nota al pie del proyecto.

Cómo trabajamos

Cómo trabajamos en SIXE

El esquema lleva años funcionando. Primero un assessment: revisamos la arquitectura actual, los workloads reales, el perfil del equipo operativo, las restricciones regulatorias, el presupuesto a tres o cinco años y las opciones técnicas viables. El output es una recomendación motivada, con alternativas, y a veces es «quédate donde estás». Lo hemos dicho más de una vez.

Luego un diseño, si hay migración o cambio sustancial. Arquitectura objetivo, plan por fases, ventanas operativas, matriz de riesgos, runbooks. No hay dos migraciones iguales.

Después la ejecución. Migración en fases con dual-running cuando es posible, validación de datos, QA funcional con aplicaciones cliente, ajuste fino post-corte.

Y finalmente el handover con mentoring al equipo del cliente, más soporte técnico Ceph continuado si quieren que sigamos al otro lado del teléfono. Muchos clientes prefieren este modelo — SIXE como extensión de su equipo — frente a una suscripción comercial. Es exactamente lo que hace viable Ceph upstream en producción seria. Para los equipos que quieren construir capacidad interna, tenemos el curso de administración de Ceph y el curso práctico de IBM Storage Ceph.

Nuestro equipo diagnostica un DONT-START-DAEMON de un slicestor ClevOS con la misma soltura que un placement group inactive+incomplete de Ceph. No somos un partner «de IBM» ni «de Ceph». Somos un partner de object storage, y conocemos las tres opciones lo suficientemente bien como para recomendar la que toca en cada caso.


¿Tienes object storage que revisar?

Una conversación técnica honesta, sin pitch comercial.

Cuéntanos tu despliegue actual — capacidad, workloads, equipo, restricciones regulatorias — y te decimos qué tiene sentido hacer. Si la respuesta es «quédate donde estás», también te lo decimos.

IBM DataStage: qué es, para qué sirve y cómo funciona el ETL de IBM

Data Integration · Abril 2026

Qué es IBM DataStage y por qué sigue siendo el ETL de referencia en entornos enterprise.

Mientras el mercado de integración de datos se fragmenta entre herramientas cloud-native, notebooks y orquestadores de moda, DataStage lleva tres décadas moviendo los datos que importan — los de banca, sanidad, telecomunicaciones y administraciones públicas. Te contamos qué es, cómo funciona y cuándo tiene sentido en 2026.

Abril 20269 min lectura

Si trabajas con datos en una empresa grande, probablemente ya has oído hablar de DataStage — aunque quizá no sepas exactamente qué es, o lo confundas con "esa cosa de IBM que se usa para mover datos". Es bastante más que eso.

IBM DataStage es la herramienta ETL (Extract, Transform, Load) de la suite IBM InfoSphere. Lleva más de 25 años en producción, ha pasado por varias adquisiciones y rebrandings, y en 2026 sigue siendo una de las piezas centrales del ecosistema de datos de IBM — ahora también disponible como servicio dentro de IBM Cloud Pak for Data.

Los fundamentos

Qué es DataStage y de dónde viene

IBM DataStage es una herramienta de integración de datos que permite diseñar, desplegar y ejecutar pipelines que extraen información de múltiples fuentes, la transforman según reglas de negocio y la cargan en sistemas destino. En el mundo de la ingeniería de datos, esto se conoce como ETL — Extract, Transform, Load — y DataStage es una de las implementaciones más veteranas y robustas del mercado.

La historia es larga y vale la pena resumirla porque explica mucho de lo que es hoy. DataStage nació en los años 90 como producto de Ardent Software, fue adquirida por Informix, que a su vez fue comprada por IBM en 2001. Desde entonces forma parte de la familia IBM InfoSphere — una suite de herramientas para integración, calidad y gobierno de datos.

Lo que diferencia a DataStage de un script de Python o de un flujo en Apache Airflow no es lo que hace (mover datos de A a B), sino cómo lo hace: con una interfaz visual de diseño de jobs, un motor de procesamiento paralelo distribuido, conectores nativos para prácticamente cualquier base de datos o sistema del planeta, y un sistema de metadatos integrado que permite trazar de dónde viene cada dato y qué transformaciones ha sufrido.

En cristiano: DataStage es lo que usan las organizaciones que mueven millones de registros cada noche entre decenas de sistemas, y que necesitan que eso funcione siempre, sea auditable y no requiera un equipo de 15 personas para mantenerlo.

La arquitectura

Cómo funciona: el motor de procesamiento paralelo

El componente central de DataStage es su motor paralelo (Parallel Framework). A diferencia de las herramientas ETL que procesan datos de forma secuencial — un registro detrás de otro —, DataStage distribuye el trabajo entre múltiples particiones que se ejecutan simultáneamente. Es la misma idea que MapReduce o Spark, pero implementada antes de que esas tecnologías existieran.

Un pipeline típico en DataStage tiene esta estructura:

Pipeline ETL · DataStage Parallel Engine
Extracción
Conectores nativos para más de 80 fuentes de datos. Soporte bulk load, pushdown optimization y lecturas incrementales.
Extract
Fuentes
Db2 Oracle SAP APIs CSV Kafka
Procesamiento paralelo
El motor distribuye automáticamente la carga entre N nodos. Particionado inteligente, sort, join, aggregation y custom transforms.
Transform
DataStage
Reglas Limpieza Enriquec. Paralelo N nodos
Carga
Entrega a DWH, data lakes y plataformas cloud con soporte batch y near-real-time via CDC. Rollback y auditoría incluidos.
Load
Destinos
DWH Data Lake Cloud Batch/RT
Consumo
Los datos transformados alimentan herramientas de BI, dashboards ejecutivos y modelos de ML/AI en producción.
Analytics
Consumo
Cognos Power BI AI/ML
Hover sobre cada nodo para más detalle · DataStage gestiona E + T con procesamiento paralelo distribuido

Lo interesante del motor paralelo es que el desarrollador no tiene que pensar en el paralelismo. Diseñas el job como si fuera secuencial — arrastrando stages en el Designer — y el engine decide cómo particionar los datos, cuántos nodos usar y cómo redistribuir la carga. Puedes forzar particionado manual cuando necesitas control fino (por ejemplo, para garantizar que todas las filas con el mismo customer_id acaben en la misma partición), pero en la mayoría de casos el motor lo hace solo.

Los componentes del stack

  • DataStage Designer. La interfaz visual donde se diseñan los jobs. Arrastras stages (fuentes, transformaciones, destinos), los conectas con links, defines los metadatos de cada columna, y compilas. Es visual pero potente — detrás genera OSH (Orchestrate Shell), que es el lenguaje que el motor paralelo ejecuta.
  • DataStage Director. La consola de monitorización. Ves qué jobs están corriendo, cuáles han fallado, logs, estadísticas de rendimiento, y puedes relanzar o abortar ejecuciones.
  • Information Server. La capa que envuelve todo: seguridad, metadatos compartidos con otras herramientas InfoSphere (Quality Stage, Information Analyzer, IGC), API REST para automatización, y el repositorio central de definiciones de jobs.
  • Conectores. DataStage tiene conectores nativos para un catálogo enorme: Db2, Oracle, SQL Server, PostgreSQL, MySQL, SAP, Teradata, Netezza, Snowflake, Amazon Redshift, S3, Azure Blob, Kafka, ficheros planos, XML, JSON, APIs REST — la lista es larga. Estos no son wrappers genéricos ODBC — son conectores optimizados para cada motor, con soporte de bulk load, pushdown optimization y control fino de sesiones.
Casos de uso

Para qué se usa DataStage en la práctica

La pregunta no es tanto "para qué se puede usar" (la respuesta sería "para mover cualquier dato entre cualquier sitio") sino "para qué tiene sentido usarlo frente a alternativas más modernas o más baratas". Porque DataStage no es la herramienta más sencilla del mercado, y tiene un coste de licencia que no es trivial. Lo que justifica ese coste son escenarios muy concretos.

Alimentación de datawarehouses

Este es el caso clásico y sigue siendo el más común. Organizaciones que tienen un DWH — ya sea IBM Db2 Warehouse, Teradata, Snowflake o Redshift — y necesitan cargar datos limpios, transformados y enriquecidos cada noche (o cada hora) desde docenas de sistemas fuente. DataStage brilla aquí por el procesamiento paralelo: donde un script en Python tarda horas, un job de DataStage bien diseñado procesa el mismo volumen en minutos.

Migración de datos entre sistemas

Cuando una organización cambia de ERP, de core bancario o de sistema hospitalario, hay un proyecto de migración de datos que puede durar meses. DataStage se usa para mapear esquemas viejos a nuevos, aplicar reglas de conversión, validar integridad referencial y ejecutar cargas masivas con rollback. La trazabilidad de metadatos es crucial aquí — necesitas demostrar a auditoría que cada dato migrado tiene origen conocido.

Integración en tiempo real con CDC

Con IBM CDC (Change Data Capture) integrado, DataStage puede replicar cambios en bases de datos con latencias de milisegundos. Esto se usa en entornos donde los datos operacionales tienen que estar sincronizados entre sistemas en casi-tiempo-real — por ejemplo, entre el core bancario y el sistema de antilavado, o entre el ERP y el datawarehouse operacional.

Calidad y gobierno de datos

DataStage se integra nativamente con el resto de la suite InfoSphere: Quality Stage para limpieza y estandarización, Information Analyzer para profiling, e IBM Knowledge Catalog (antes IGC) para gobierno y linaje. Esto hace que los proyectos de gobierno de datos que necesitan trazabilidad de extremo a extremo tengan todo bajo el mismo paraguas.

Dónde DataStage tiene más sentido

Banca, seguros, telecomunicaciones, sanidad, administración pública y utilities. Son sectores con volúmenes masivos, regulación estricta (NIS2, PCI DSS, HIPAA, ENS), y entornos IBM Power donde DataStage corre de forma nativa. Si tu infraestructura ya es IBM — Power11, AIX, Db2 — DataStage encaja como un guante.

La evolución

DataStage en Cloud Pak for Data: la evolución de 2025-2026

La historia reciente de DataStage tiene un protagonista claro: IBM Cloud Pak for Data. Es la plataforma de datos unificada de IBM, construida sobre Red Hat OpenShift, que agrupa todos los servicios de datos (DataStage, Watson Studio, Knowledge Catalog, Db2, etc.) bajo una interfaz común.

El cambio más importante de los últimos meses fue en junio de 2025, con la versión 5.2 de Cloud Pak for Data: DataStage está disponible en OpenShift sobre IBM Power (ppc64le). Esto significa que las organizaciones con servidores Power que antes tenían que ejecutar DataStage en el stack clásico de InfoSphere ahora pueden containerizarlo y gestionarlo con la misma orquestación que el resto de sus workloads cloud-native.

La versión actual — Cloud Pak for Data 5.3 — trae DataStage con soporte completo para ETL y ELT, ejecución en remoto (puedes correr jobs en cloud sin mover los datos de tu datacenter), y el nuevo DataStage Flow Designer integrado en la interfaz web de Cloud Pak for Data. El Designer clásico de escritorio sigue siendo el preferido de los desarrolladores veteranos, pero IBM está empujando el flujo web para proyectos nuevos.

Un apunte sobre seguridad. En febrero y marzo de 2026, IBM publicó varios parches de seguridad para DataStage on Cloud Pak for Data 5.1.2 a 5.3.0, incluyendo vulnerabilidades de inyección de comandos y filtración de información sensible via HTTP. Si tienes DataStage en Cloud Pak for Data, asegúrate de estar en la versión 5.3.1 o posterior. No es un problema de la herramienta en sí — es mantenimiento normal de un producto enterprise — pero sí es un recordatorio de que los entornos on-premise necesitan gestión activa de parches.
El contexto competitivo

DataStage vs las alternativas en 2026

Sería deshonesto hablar de DataStage sin reconocer que el mercado de integración de datos en 2026 es muy diferente al de 2015. Hay alternativas serias, y la decisión depende mucho del contexto. Aquí va el mapa sin discurso comercial.

IBM DataStage Referencia
Licencia IBM
FuerteParalelo, IBM Power, regulación
DébilCoste, curva de aprendizaje
Informatica IDMC
SaaS / on-prem
FuerteCuota de mercado, conectores
DébilMás caro que DataStage
Apache Spark / dbt
Open source
FuerteCloud-native, flexibilidad
DébilNo es llave en mano
Talend (Qlik)
Comercial
FuerteFácil de usar, open core
DébilRoadmap incierto tras Qlik
Azure Data Factory
SaaS Azure
FuerteIntegración nativa Azure
DébilLock-in, limitado fuera Azure
AWS Glue
SaaS AWS
FuerteServerless, coste bajo
DébilLock-in, limitado fuera AWS

¿Cuándo tiene sentido DataStage? Cuando ya tienes inversión en el ecosistema IBM (Power, Db2, InfoSphere), cuando necesitas procesamiento paralelo on-premise con volúmenes que otros no manejan bien, cuando la regulación te exige trazabilidad de metadatos end-to-end, o cuando tu equipo ya sabe DataStage y el coste de reentrenamiento supera al de la licencia.

¿Cuándo no tiene sentido? Cuando tu stack es cloud-native puro (AWS/Azure/GCP sin IBM), cuando tus volúmenes son pequeños, cuando prefieres código sobre interfaz visual, o cuando el presupuesto no da para la licencia IBM y prefieres invertir en ingeniería con herramientas open source.

Formarse en DataStage

Formación oficial de IBM DataStage en España

Si DataStage es parte de tu stack actual o va a serlo, formarse bien es la diferencia entre un equipo que diseña jobs eficientes y uno que genera pipelines que tardan horas en ejecutarse y nadie sabe depurar. Los cursos oficiales de IBM cubren eso — no solo los menús y los botones, sino las mejores prácticas de diseño, particionado, debugging y puesta en producción.

SIXE es IBM Authorized Training Partner y ofrece los siguientes cursos de DataStage impartidos en español:

Los dos cursos se imparten con instructores acreditados por IBM, materiales oficiales y laboratorios prácticos. Modalidad presencial en España (Madrid, Barcelona, Sevilla, Valencia, Bilbao, Málaga), remota, o in-company adaptada a tu equipo. También disponible en inglés y francés para equipos internacionales.

Formación a medida

Si necesitas un curso adaptado — por ejemplo, centrado en migración de jobs clásicos a Cloud Pak for Data, o en optimización de rendimiento para un entorno concreto — lo diseñamos sobre los materiales oficiales con contenido adicional de nuestros propios despliegues. Consulta el catálogo completo de formación oficial IBM o escríbenos directamente por WhatsApp.

Para seguir leyendo


¿Trabajas con IBM DataStage?

Formación oficial. En español. Con gente que lo despliega.

Ya sea que empieces con DataStage o quieras llevar a tu equipo al siguiente nivel, los cursos oficiales IBM impartidos por SIXE cubren desde los fundamentos hasta la administración avanzada del motor paralelo.

OpenStack Gazpacho | Novedades 2026 y guía para empresas

Cloud privada · Abril 2026

OpenStack Gazpacho: la release que acelera la salida de VMware y prepara tu nube privada para lo que viene.

El 1 de abril se publicó OpenStack 2026.1 Gazpacho. Más de 9.000 cambios, 500 colaboradores, migraciones en vivo paralelas, automatización de bare metal con Ironic y la eliminación progresiva de Eventlet. Es la release SLURP del año — y la más relevante para empresas que están evaluando su infraestructura de virtualización.

Abril 202614 min lectura
Logo de OpenStack 2026.1 Gazpacho, la versión número 33 del software de infraestructura cloud open source más desplegado del mundo

OpenStack acaba de publicar su versión número 33. En otros tiempos, la noticia habría pasado sin pena ni gloria fuera del círculo habitual de operadores de nubes privadas. Pero 2026 no es un año normal para la infraestructura. Broadcom lleva más de un año forzando el cambio de modelo de VMware. Las empresas europeas están midiendo el coste real de la dependencia tecnológica. Y el cloud privado open source ha dejado de ser una opción ideológica para convertirse en una opción económica.

Gazpacho llega en el momento exacto en que más organizaciones están buscando alternativas serias a vSphere. Y esta release, por primera vez en mucho tiempo, tiene respuestas concretas para las preguntas que se hacen esas organizaciones.

Para entender qué hay de nuevo, conviene empezar por algo que no es glamuroso pero que determina si puedes actualizar o no: el modelo de releases.

El modelo de releases

Qué es una release SLURP y por qué Gazpacho es la que importa

OpenStack publica dos versiones al año. Desde 2022, las releases alternas se marcan como SLURP (Skip Level Upgrade Release Process): permiten a los operadores actualizar una sola vez al año, saltando directamente de una SLURP a la siguiente sin pasar por la versión intermedia.

Esto es lo que hay encima de la mesa a fecha de este post:

ReleaseFechaEstado
2026.1 Gazpacho1 abril 2026Release actual. SLURP. Recomendada para nuevos despliegues y actualizaciones.
2025.2 Flamingo1 octubre 2025Soportada. No-SLURP (intermedia).
2025.1 EpoxyAbril 2025SLURP anterior. Actualización directa a Gazpacho posible.
2026.2 HibiscusSeptiembre 2026 (prevista)Próxima release. No-SLURP.

El calendario oficial del ciclo Gazpacho detalla los milestones, fechas de feature freeze y los equipos responsables de cada componente. La página oficial de la release recoge las highlights seleccionadas por la comunidad.

La consecuencia práctica: si tu entorno ejecuta Epoxy (2025.1), puedes saltar directamente a Gazpacho sin tocar Flamingo. Eso reduce a la mitad las actualizaciones obligatorias y simplifica la planificación de ventanas de mantenimiento en producción.

Y si estás en Flamingo, el salto es de un solo paso — el estándar.

Dato de contexto

Gazpacho es la versión 33 de OpenStack. Unos 500 colaboradores de 100 organizaciones — Ericsson, Rackspace, Red Hat, Samsung SDS, SAP, NVIDIA, Walmart, entre otras — han aportado más de 9.000 cambios durante un ciclo de seis meses. El sistema de CI/CD (OpenDev Zuul) procesó más de un millón de jobs para validar esta release. Y un dato relevante para Europa: el 40% de las contribuciones provienen de desarrolladores europeos, impulsados por las iniciativas de soberanía digital del continente. Los detalles completos están en el blog oficial de la OpenInfra Foundation.

Con el calendario claro, veamos qué justifica actualizar — más allá de cerrar una ventana de soporte.

La novedad estrella

Migraciones en vivo paralelas en Nova: el cambio de juego

Si tuviéramos que elegir una sola novedad de Gazpacho para explicar por qué esta release importa a las empresas, sería esta: Nova ahora soporta migraciones en vivo paralelas.

Hasta ahora, la migración en vivo de instancias procesaba las transferencias de memoria de forma secuencial: una conexión tras otra. Gazpacho introduce múltiples conexiones simultáneas, lo que acelera significativamente el traslado de cargas de trabajo grandes entre hosts o zonas de disponibilidad.

¿Por qué importa tanto? Porque la velocidad de migración es, en la práctica, el factor que determina cuánto dura una ventana de mantenimiento. Para una empresa con cientos de máquinas virtuales — o que está evaluando mover cargas desde VMware — la diferencia entre migrar en serie y migrar en paralelo es la diferencia entre una noche de mantenimiento y un fin de semana entero.

Migración en vivo — tiempo de ventana ↕ hover para detalle
t=0 t=T t=2T t=3T t=4T

Y eso no es todo lo que cambia en Nova

Las migraciones paralelas son la novedad más visible, pero Nova trae otros tres cambios que se acumulan sobre el mismo principio: menos fricción operativa.

Migración en vivo con vTPM

Otra novedad que acompaña a las migraciones paralelas: Nova permite ahora migrar instancias que utilizan vTPM (módulo de plataforma segura virtual) sin necesidad de apagarlas. Las cargas de trabajo con requisitos de cifrado de disco o arranque seguro — habituales en entornos regulados — ya pueden trasladarse entre nodos sin interrumpir el servicio. Hasta ahora, migrar una VM con vTPM requería apagar, mover, y volver a encender. Eso se ha acabado.

IOThread por defecto en QEMU

Un cambio más sutil pero con impacto real: Nova activa por defecto un IOThread por instancia de QEMU, descargando el procesamiento de E/S de disco de las vCPU. En entornos de alta densidad — muchas VMs por host — esto se traduce en un rendimiento de almacenamiento más consistente bajo carga, sin necesidad de tocar la configuración.

Cobertura completa de OpenAPI en Nova

Nova logra cobertura total de su esquema OpenAPI: cada endpoint del API tiene ahora una especificación legible por máquinas. Para equipos que automatizan con Terraform, Ansible o herramientas propias, esto significa validar peticiones antes de enviarlas al API y reducir errores en despliegues de infraestructura como código.

Bien. Nova controla las VMs. Pero las VMs tienen que vivir en algún sitio. Y si ese sitio es hardware físico que no ha pasado por OpenStack antes — que es exactamente la situación de la mayoría de migraciones desde VMware — entra en escena Ironic.

Bare metal inteligente

Ironic: automatización inteligente que reduce el trabajo manual

Ironic es el servicio de OpenStack para aprovisionar servidores físicos — bare metal — como si fueran máquinas virtuales. En Gazpacho, Ironic recibe un paquete de mejoras que, juntas, representan un salto en la operación del día a día:

  • Autodetect deploy interface. Ironic detecta automáticamente el método de despliegue adecuado para cada servidor, eliminando la selección manual. No suena espectacular, pero en un datacenter con hardware heterogéneo (distintas generaciones, distintos fabricantes) quita horas de configuración por nodo.
  • Detección automática de protocolo (NFS/CIFS) para Redfish. La configuración de arranque por virtual media se simplifica: Ironic determina el protocolo correcto sin intervención del operador.
  • Planificación de puertos basada en traits. La asignación de red se automatiza según los atributos reales de la infraestructura — tipo de NIC, velocidad, capacidades — en lugar de depender de mapeos manuales.
  • Interfaz de despliegue "noop". Quizá la más interesante para proyectos de migración: permite registrar y monitorizar servidores que ya están desplegados y funcionando sin necesidad de reaprovisionarlos. El caso de uso típico: incorporar hardware existente al inventario de OpenStack durante una migración gradual desde VMware o desde otra plataforma.
En la práctica

La interfaz noop es particularmente útil en los proyectos que hacemos en SIXE de migración desde vSphere. Permite registrar los hosts ESXi existentes en OpenStack, monitorizarlos, y planificar la migración de cargas sin necesidad de reinstalar el sistema operativo del host hasta que llega el momento. Es la diferencia entre "migrar todo de golpe un fin de semana" y "migrar por fases con control".

Guía de drivers en Cyborg

Cyborg, el servicio de aceleradores de OpenStack, publica por primera vez una guía de configuración de drivers que cubre todos los tipos soportados: FPGA, GPU, NIC, QAT, SSD y PCI passthrough. Para organizaciones que están incorporando aceleradores de IA o cargas HPC en su cloud privado, disponer de documentación unificada y probada reduce significativamente la barrera de entrada.

Tenemos las VMs migradas con Nova y el hardware registrado con Ironic. Ahora viene la parte que siempre acaba siendo más complicada de lo esperado: la red.

Redes, almacenamiento, seguridad

Lo que cambia por dentro: OVN, Manila, OpenBao

Redes: BGP nativo y mejoras OVN en Neutron

El controlador OVN de Neutron incorpora novedades que llevan tiempo pidiéndose en entornos enterprise:

  • Soporte BGP nativo para anunciar rutas directamente desde el controlador de red, sin necesidad de herramientas externas.
  • Enrutamiento Norte-Sur para puertos externos, simplificando la conectividad con redes físicas.
  • Pares de direcciones permitidos con MACs virtuales, facilitando escenarios multitenant y arquitecturas de conectividad híbrida.

Históricamente, estos eran escenarios donde OpenStack requería soluciones alternativas o herramientas de terceros. Gazpacho los resuelve de forma nativa.

Almacenamiento: QoS en Manila y adjuntos asíncronos

Manila introduce tipos y especificaciones de QoS que permiten aplicar políticas de rendimiento por carga de trabajo al almacenamiento compartido. Si tienes un pool de almacenamiento para bases de datos y otro para ficheros fríos, ahora puedes establecer límites y prioridades a nivel de la plataforma, no solo a nivel del hardware. Cinder avanza en los adjuntos asíncronos de volúmenes, mejorando la respuesta en entornos de alta densidad.

Seguridad: PKI con OpenBao

La integración con OpenBao — fork abierto de HashiCorp Vault — para la gestión de certificados PKI en OpenStack-Ansible permite alinear la infraestructura de certificados de OpenStack con las herramientas de seguridad empresarial existentes. Especialmente relevante en entornos regulados donde la gestión del ciclo de vida de los certificados está auditada y donde la administración ya utiliza Vault como estándar.

Watcher: estrategias de migración cross-zone

Watcher, el servicio de optimización de recursos, mejora sus estrategias de redistribución de cargas entre zonas con un testing reforzado. Para operadores que gestionan clouds multi-site o con zonas de disponibilidad diferenciadas, esto mejora la fiabilidad de las redistribuciones automáticas durante mantenimientos o ante fallos.

Todo lo anterior — migraciones, automatización, redes — son features visibles que puedes vender internamente. Pero hay un trabajo que Gazpacho hace en silencio, más importante a largo plazo que cualquier feature nueva: limpiar la casa por dentro.

Deuda técnica

Eventlet: el principio del fin de una dependencia heredada

Una de las historias de fondo más importantes de OpenStack en los últimos tres años es la eliminación progresiva de Eventlet, una biblioteca de concurrencia cooperativa que se adoptó en los primeros días del proyecto, cuando Python 2 no tenía una alternativa nativa. Python 3 sí la tiene: asyncio. Pero migrar un proyecto del tamaño de OpenStack de un modelo de concurrencia a otro es un trabajo monumental.

En Flamingo (2025.2), cuatro servicios completaron la migración: Ironic, Mistral, Barbican y Heat. En Gazpacho, Nova avanza significativamente hacia el threading nativo, con mejoras de rendimiento y estabilidad medibles. Neutron también progresa. Y nueve proyectos más están en proceso activo de migración.

¿Por qué importa esto a una empresa que no contribuye código a OpenStack? Porque Eventlet es una fuente conocida de bugs sutiles, dificultades de depuración e incompatibilidades con bibliotecas modernas de Python. Su eliminación hace OpenStack más estable, más mantenible y más predecible en producción a largo plazo. Es el tipo de mejora invisible que no aparece en demos pero que se nota en las 3 de la mañana cuando algo falla y hay que diagnosticarlo.

Progreso de migración de Eventlet
● Completado ◐ En progreso ○ Pendiente
0
Completados
0
En progreso
0
Pendientes
0%
Completado
Progreso global del proyecto Objetivo: asyncio nativo en todos los servicios
El contexto del mercado

Gazpacho como alternativa a VMware: por qué el timing importa

Volvemos al punto de partida del artículo. Dijimos que 2026 no es un año normal para la infraestructura — que Broadcom ha forzado a muchas organizaciones a replantearse su stack de virtualización. La pregunta que se hace ese tipo de organización no es "¿OpenStack es técnicamente capaz?". Eso quedó resuelto hace tiempo. La pregunta es: "¿tiene respuesta para mis problemas concretos?". Y con Gazpacho, la respuesta ha mejorado notablemente.

Desde que Broadcom reestructuró el modelo de licencias — subidas significativas, eliminación de licencias perpetuas, cambio a bundles — las preguntas de los clientes que nos llegan son siempre las mismas. Gazpacho tiene respuesta para cada una de ellas, y es una respuesta que conecta directamente con lo que acabamos de ver:

Preocupación habitualRespuesta de Gazpacho
Velocidad de migraciónMigraciones en vivo paralelas que rivalizan con vMotion. vTPM sin downtime.
Hardware existenteIronic noop permite registrar hosts sin reprovisionar. Migración gradual.
Redes complejasBGP nativo en OVN, enrutamiento N-S, MACs virtuales. Sin herramientas externas.
Aceleradores (GPU, FPGA)Guía unificada de drivers Cyborg. PCI passthrough mejorado.
Actualizaciones predeciblesModelo SLURP: una actualización mayor al año, ruta de upgrade probada.
Soberanía / vendor lock-inProyecto abierto, 100 organizaciones contribuidoras, 40% europeo.

A esto se suma que OpenStack supera los 55 millones de cores en producción a nivel mundial. No es un proyecto de nicho ni una promesa de futuro: es infraestructura que opera en producción en Walmart, CERN, NTT, Deutsche Telekom, y miles de organizaciones más pequeñas que no publican sus números. El proyecto lleva 15 años funcionando y la base de contribuidores está creciendo, no encogiéndose. La release anterior, Flamingo (2025.2), ya había avanzado significativamente en seguridad y en la eliminación de Eventlet.

El ángulo europeo

El 40% de las contribuciones a Gazpacho provienen de desarrolladores europeos. Esto no es casualidad: las iniciativas de soberanía digital de la UE están empujando la adopción de infraestructura abierta en administraciones públicas y empresas reguladas. Para organizaciones españolas que necesitan demostrar independencia tecnológica en sus pliegos o en sus auditorías, OpenStack es una de las pocas opciones que combina madurez técnica con gobernanza verdaderamente abierta.

Siguientes pasos

Cómo encaja esto en tu infraestructura

Modelo de releases, migraciones paralelas, bare metal inteligente, redes sin parches, deuda técnica en retirada, contexto de mercado favorable. Todo confluye en la misma pregunta práctica: ¿y tú, qué haces ahora? La respuesta depende de dónde estás.

Hay tres situaciones habituales, y el diagnóstico es distinto en cada una:

  • Tienes OpenStack en producción y necesitas planificar el salto a Gazpacho. Si estás en Epoxy, el upgrade directo SLURP-a-SLURP es tu ruta. Si estás en Flamingo, es un salto estándar. En ambos casos, la recomendación es validar en entorno de pruebas, especialmente si usas features que han cambiado entre versiones (migraciones, OVN, Ironic).
  • Tienes VMware y el coste de renovación te ha hecho mirar alternativas. Aquí la pregunta es de diseño: qué workloads se mueven primero, qué arquitectura OpenStack encaja (sobre qué hardware, con qué almacenamiento — Ceph es la opción natural), cómo se migran los datos sin parar el servicio.
  • Arrancas un proyecto nuevo — cloud privado, plataforma de datos, infraestructura de IA — y OpenStack es una de las opciones. Gazpacho es la versión correcta para empezar, con Ceph como almacenamiento y, si necesitas contenedores, Kubernetes integrado a través de Magnum.

En los tres casos, el orden sensato es el mismo: conversación técnica corta para entender el caso, propuesta de arquitectura con opciones y trade-offs claros, y laboratorio de validación antes de tocar producción. Lo que cambia con Gazpacho no es el proceso — es que hay más piezas maduras con las que trabajar.

Para seguir leyendo


¿Evaluando OpenStack o planificando un upgrade?

Hablemos de tu infraestructura.

Nos cuentas dónde estás — upgrade pendiente, salida de VMware, proyecto nuevo — y salimos de la llamada con una idea clara de arquitectura, esfuerzo y siguientes pasos. Sin presupuestos genéricos. Directamente con ingenieros que llevan años con las manos dentro de proyectos como el tuyo.

Ceph Tentacle 2026: FastEC, Reef EOL y Umbrella

Almacenamiento SDS · Abril 2026

Ceph Tentacle: el salto silencioso que coloca el almacenamiento open source por delante en 2026.

El 6 de abril salió Tentacle v20.2.1. Reef ha llegado al final de su vida. Viene Umbrella con CephFS reescrito por dentro. Y mientras tanto, el lakehouse on-prem de IBM watsonx.data lleva 768 TiB de Ceph dentro. Repasamos qué ha cambiado de verdad y qué implica si tienes o vas a tener almacenamiento distribuido en España.

Abril 202613 min lectura

Hay una conversación que se repite casi cada semana en SIXE desde el último trimestre de 2025. La llamada llega con dos variantes y un mismo tono de cansancio. La primera: "nos toca renovar VMware con Broadcom y lo que nos piden no tiene sentido, ¿Ceph podría cubrir esto?". La segunda: "tenemos un clúster de Ceph que lleva años rodando en Reef y no sabemos a qué upgrade tirarle sin romperlo".

Las dos preguntas se responden bien a día de hoy, pero por razones distintas — y más interesantes de lo que parece. Ceph ha tenido un año muy movido sin que casi nadie lo contase en español. Vamos al grano.

El contexto 2026

El mapa de releases: Tentacle arriba, Reef fuera, Umbrella en camino

Si tu última foto mental del calendario de Ceph es de 2024, está desactualizada. Esto es lo que hay encima de la mesa a fecha de publicación de este post:

RamaÚltima versiónEstado
Tentacle (v20.x)v20.2.1 · 6 abril 2026Estable actual. Primera minor del ciclo. Recomendada para nuevos despliegues.
Squid (v19.x)v19.2.3 · 26 septiembre 2024Soportada. Elección conservadora sólida.
Reef (v18.x)v18.2.8 · 20 marzo 2026Fin de vida. Última backport release. Hay que migrar.
Umbrella (v21.x)En desarrolloPróxima major. Presentada en FOSDEM 2026 con foco en CephFS y DR.

La transición más importante aquí es la de Reef. El equipo de release anunció en marzo que v18.2.8 era la última — y previsiblemente la definitiva — backport release de la rama Reef. A partir de ahí, Reef entra en modo "si tienes un problema crítico, toca resolverlo actualizando". Si estás en Reef, ya no estás en una rama mantenida activamente. Hay que mover.

Tentacle, por su parte, es un salto mayor con calado real. Se publicó como versión estable inicial (v20.2.0) en noviembre de 2025, y la v20.2.1 del 6 de abril de 2026 corrige varios bugs significativos detectados en los primeros meses en producción — especialmente uno crítico en Erasure Coding que afectaba al scrub de pools con FastEC activado. Volvemos a ese punto en un momento.

Y luego está Umbrella, la próxima major. No hay fecha firme todavía, pero la presentación en FOSDEM 2026 ha dejado claro el enfoque: recorrer de arriba abajo la experiencia de CephFS, con mejoras en disaster recovery, métricas, tuning de MDS y protección de datos de usuario. Si tu caso de uso principal es fichero (HPC, media, home directories a escala), Umbrella es la versión que vas a querer mirar con calma.

Dato que merece la pena tener presente. La Ceph Foundation ha reorganizado su estrategia de eventos en 2026: en lugar de concentrar todo en un único Cephalocon anual, ahora hay Ceph Days regionales distribuidos por el mundo para bajar la barrera de entrada a la comunidad. El siguiente importante es Ceph Days Raleigh en junio, y hay actividad europea creciente. Para empresas españolas que quieran estar cerca de la toma de decisiones del proyecto, 2026 es un año más accesible que los anteriores.
La novedad con más impacto

FastEC: la mejora que cambia la ecuación de coste por TB

Si tuviéramos que elegir una sola novedad de Tentacle para explicar por qué esta release importa, sería FastEC. Es un cambio que se describe en una frase y cuya consecuencia tarda un rato en calar: la pipeline de I/O para Erasure Coding ha sido reescrita, con mejoras de rendimiento sustanciales y algunas mejoras de capacidad para pools EC. Se activa por pool mediante el flag allow_ec_optimizations. Los clientes no necesitan actualizarse.

¿Por qué esto importa tanto? Porque hasta ahora, en la mayoría de despliegues serios, la regla de oro era esta: replicado para lo que rinde (virtualización, bases de datos, CephFS con mucho metadata); Erasure Coding solo para lo que puede permitírselo (objeto frío, backups, archivado). La razón era puramente de rendimiento: EC tradicional tenía una penalización de escritura y una latencia que lo hacían poco adecuado para bloque o fichero con cargas mixtas. FastEC cambia esa regla. No del todo, no en todos los casos — pero sí lo suficiente como para que muchas cargas que antes solo tenían sentido en replicado de tres copias puedan moverse a EC con una relación de eficiencia mucho mejor.

Traducido a dinero, esto se parece bastante a esto:

──────────────────────────────────────────────── 100 TB útiles, clúster típico de virtualización ────────────────────────────────────────────────Replicado x3 (hasta ahora, lo "obligatorio")300 TB raw en cabinas · overhead 200%EC 4+2 con FastEC (ahora viable en más casos)150 TB raw · overhead 50% · ahorro ≈ 50%────────────────────────────────────────────────

El número exacto depende del perfil EC que uses (4+2, 6+3, 8+3...) y de la distribución física, pero el orden de magnitud es real. En un clúster de medio petabyte, estamos hablando del tipo de ahorro que justifica un proyecto entero.

Dos avisos importantes, porque no queremos que nadie se lleve sorpresas:

Aviso operativo

La primera Tentacle (v20.2.0) contenía un bug en FastEC que podía producir millones de errores de scrub al activar el flag sobre pools EC existentes. El informe público está documentado por Clyso. La v20.2.1 del 6 de abril corrige la raíz del problema (length calculation en erase_after_ro_offset y varios ajustes en BlueFS). Si vas a activar FastEC, hazlo desde v20.2.1 o posterior, no desde 20.2.0. Y, como siempre, prueba primero en laboratorio con datos no críticos.

El segundo aviso es más general. FastEC no es magia: sigue habiendo cargas para las que EC, incluso optimizado, no es la respuesta correcta — sobre todo IOPS muy altos con bloque pequeño y latencia muy ajustada (piensa en OLTP serio). La decisión de qué pools van en replicado y cuáles en EC sigue siendo una decisión de arquitectura, no de flag. Lo que ha cambiado no es que ahora todo vaya en EC; es que la conversación sobre "replicado vs EC" ya no está tan decantada hacia replicado como lo estaba hace dos años.

Qué más trae Tentacle

Más allá de FastEC: lo que cambia por dentro

FastEC se lleva los titulares, pero no es el único cambio de calado. Estas son las piezas que importan en operación del día a día:

BlueStore: compresión mejorada y un WAL nuevo

El almacén de objetos nativo de Ceph ha recibido dos cambios importantes. La compresión ha mejorado en eficiencia y velocidad, y hay un WAL (write-ahead log) nuevo y más rápido. El efecto práctico es menos latencia en escritura y menos amplificación sobre los dispositivos físicos — especialmente relevante en clusters de NVMe, donde las write amplification heredadas de generaciones anteriores se notaban.

Data Availability Score por pool

Un nuevo indicador por pool que permite ver "cómo de disponibles están de verdad los datos de este pool", teniendo en cuenta réplicas, EC, fallos históricos y recovery. Suena marketing, pero no lo es — para clusters con multi-tenant interno (por ejemplo, un pool para RGW S3 y otro para RBD con SLAs distintos), tener una métrica directa por pool en el dashboard quita trabajo manual de cálculo sobre OSDs y PGs.

Live migration de RBD entre clusters

Este es el cambio que más hemos visto pedir en proyectos de consolidación. Ahora se pueden importar imágenes RBD de otro cluster Ceph, en formato nativo, o desde una gran variedad de fuentes/formatos externos, de forma instantánea. Sin paradas, sin mover bytes antes de empezar a servir. El caso de uso típico: migración de clusters antiguos, consolidación de varios Ceph pequeños en uno grande, o import desde otro SDS o desde imágenes QCOW2. Para quien haya sufrido migraciones de RBD con rbd import en el pasado, esto es un cambio de juego.

CephFS: proxy propio para Samba y mejoras varias

Se despliega automáticamente un nuevo daemon cephfs-proxy que mejora escalabilidad y uso de memoria cuando Samba conecta con CephFS. Además, los directorios se pueden configurar con nombres case-insensitive o normalizados. Si has sufrido alguna vez montando SMB sobre CephFS en entornos mixtos Windows/Linux, esta es la parte que lleva tiempo pidiéndose.

NVMe/TCP para gateway groups y multi-namespace

Ceph lleva tiempo empujando NVMe-oF sobre TCP como puente hacia el almacenamiento de bloque tradicional. En Tentacle, los gateways NVMe/TCP soportan grupos y múltiples namespaces, gestión multi-cluster y OAuth 2.0. El escenario evidente es dar almacenamiento de bloque a hosts VMware o a otros hipervisores sin pasar por iSCSI y sin SAN propietaria. IBM ha sido muy explícito con esta visión y es una de las razones por las que Ceph está entrando en conversaciones donde antes solo se hablaba de vSAN.

SeaStore en tech preview (con Crimson OSD)

SeaStore — el almacén de objetos de próxima generación, diseñado para hardware NVMe moderno y con threading estructurado — es desplegable en preview junto a Crimson-OSD. Esto no es para producción todavía, pero sí es la primera vez que se puede probar end-to-end en un Tentacle estable. Para laboratorios y equipos que quieran familiarizarse con hacia dónde va Ceph en los próximos años, merece el rato.

Lo que se ha ido

Los módulos restful y zabbix, deprecados desde 2020, se han eliminado oficialmente. Si tu monitorización dependía del módulo Zabbix nativo, toca migrar a Prometheus + exporter de Ceph, que es la vía oficial desde hace tiempo.

El factor empresarial

El factor IBM, watsonx.data y la salida de Broadcom-VMware

La parte técnica de Ceph nunca ha sido el problema. Lo que impedía a muchas empresas españolas mirarlo en serio era el factor "esto es muy open source, no lo veo aprobado por comité". En 2026 ese argumento se ha caído solo, por dos vías independientes que se refuerzan.

IBM watsonx.data incluye 768 TiB de Ceph "de serie"

Desde hace un par de años, IBM ha hecho de Ceph el almacenamiento por defecto del lakehouse on-premise de watsonx.data. IBM Storage Ceph es un producto empresarial con precios publicados desde 0.026 USD/GB/mes, soporte 24/7, integración con Apache Iceberg, Apache Parquet, watsonx.ai, y el ecosistema Red Hat completo (OpenShift, OpenStack). La consecuencia práctica: cuando un CISO o un director de infraestructura pide "una opción soportada por un fabricante gran cuenta", Ceph ya no es "solo comunidad". Es un producto IBM con contrato, SLA y escalado de incidencias.

Broadcom-VMware ha empujado a medio sector a buscar alternativas

No hace falta que nos extendamos en esto. La subida de precios y el cambio de modelo de licenciamiento de VMware desde la compra por Broadcom ha abierto oficialmente la puerta a revisar las pilas de virtualización y almacenamiento. En esa revisión, el combo Proxmox + Ceph, o OpenStack + Ceph, o OpenShift/Kubernetes + Rook-Ceph, está entrando en bastantes shortlists que hace dos años no se planteaban.

Ceph, por diseño, encaja bien en esa conversación porque cubre los tres tipos de almacenamiento en una sola plataforma — bloque para VM y contenedores, fichero para datos compartidos, objeto S3 compatible para backups y datos no estructurados. Eso lo diferencia del resto del catálogo SDS open source: MinIO hace muy bien objeto, pero no bloque ni fichero; Longhorn es bloque para Kubernetes pero no objeto. Ceph hace los tres con el mismo cluster, y eso en proyectos reales ahorra cabinas, ahorra licencias y ahorra pliegos.

Nuestra perspectiva en SIXE

Llevamos años desplegando Ceph en proyectos donde el cliente no quería depender de un único fabricante y necesitaba cubrir bloque, fichero y objeto con una misma arquitectura. En 2025-2026 hemos visto cómo el perfil de los clientes ha cambiado: ya no son solo los "pioneros del open source", son también organizaciones medianas con cabinas tradicionales que están calculando su próximo ciclo de refresh. Si tu caso se parece a alguno de esos, la página de migración a Ceph sin downtime cuenta cómo abordamos la parte complicada: mover datos sin parar el servicio.

El ecosistema

Proxmox, Rook y el empuje del ecosistema

Ceph no existe solo. En 2026, tres ecosistemas están tirando del carro y vale la pena mirarlos por separado porque cada uno aporta un ángulo distinto.

Proxmox VE: Ceph integrado y ahora Tentacle en preview

Proxmox lleva años integrando Ceph de forma nativa como almacenamiento del cluster de virtualización. En enero de 2026 Proxmox publicó Ceph 20.2 Tentacle como test preview, con plan de mover a no-subscription una vez estabilice. Para entornos que ya están en Proxmox, esto significa acceso a FastEC, live migration RBD y NVMe/TCP sin cambiar nada más del stack. Proxmox sigue en Squid como default estable y lo mantendrá hasta septiembre de 2026, así que hay margen para planificar.

Rook y el mundo Kubernetes

Rook, el operator oficial de Ceph en Kubernetes, ha recibido actualizaciones importantes. Ceph-CSI v3.16 ya recomienda Ceph-CSI-Operator como mecanismo de despliegue estándar, e introduce driver NVMe-oF CSI para acceder al almacenamiento por NVMe over Fabrics desde Kubernetes. Para equipos que están construyendo plataformas internas tipo IDP sobre Kubernetes, esto abre posibilidades de rendimiento que antes requerían compromisos.

OpenStack y el campo empresarial

En OpenStack, Ceph sigue siendo el almacenamiento de referencia para Cinder (bloque), Glance (imágenes) y Swift-replacement con RGW (objeto). El trabajo de IBM/Red Hat sobre OpenStack y Ceph es continuo, y para organizaciones con necesidades de cloud privado a escala es, probablemente, la combinación más madura del mercado libre.

¿Qué significa todo esto junto? Que Ceph no depende de un único camino de adopción. Hay tres puertas de entrada naturales — virtualización (Proxmox), contenedores (Rook/OpenShift) y nube privada (OpenStack) — y las tres están activamente mantenidas por equipos grandes. Esa diversidad es, probablemente, la razón estructural por la que Ceph es la pieza de SDS open source más difícil de matar.

La parte operativa

Cuándo actualizar y cómo hacerlo sin estropear nada

Esta es la parte práctica. Tenemos cuatro escenarios típicos y una respuesta razonable para cada uno:

  1. Clúster nuevo desde cero (proyecto greenfield). Directamente Tentacle v20.2.1 o posterior. Con ISA-L como plugin EC por defecto (cambio de Jerasure a ISA-L en pools nuevos), FastEC disponible desde el primer día, y sin deuda técnica heredada. Es el escenario más limpio.
  2. Clúster en producción en Squid (v19.x). Sin urgencia. Squid sigue soportada y funcionando bien. La decisión depende de qué features de Tentacle te aportan valor: si necesitas FastEC, live migration RBD, o NVMe/TCP avanzado, planifica el upgrade para Q3 2026 esperando a v20.2.2 o posterior. Si no las necesitas, puedes esperar con tranquilidad a mitad de vida de Tentacle.
  3. Clúster en producción en Reef (v18.x). Hay que migrar. Reef está en fin de vida tras v18.2.8. La ruta oficial recomendada es Reef → Squid → Tentacle, no Reef → Tentacle directamente — y especialmente no desde Pacific, porque QA ha detectado problemas con upgrades directos desde Pacific. Haz el salto en dos pasos y con ventanas de mantenimiento bien planificadas.
  4. Clúster en Pacific, Quincy o anterior. Esto ya no es "mantenimiento", es deuda técnica activa. Pacific está fuera de soporte, Quincy está en sus últimas backport releases. Si sigues en alguna de esas ramas, es el momento de plantear un proyecto formal de modernización — no solo actualización, porque probablemente haya piezas de arquitectura (cephadm, containerización de daemons, dashboard) que también convenga repensar.

Tres principios de migración que no negociamos

En SIXE, cuando hacemos una migración o una actualización seria de Ceph para un cliente, trabajamos siempre con tres reglas. Las ponemos aquí porque funcionan también si lo gestionas tú mismo:

  1. Laboratorio antes que producción. El flag allow_ec_optimizations, la activación de FastEC, el cambio de versión mayor — todo eso se valida primero en un clúster de pruebas con datos no críticos, incluso si es un clúster pequeño. El coste de mantener un laboratorio durante dos semanas es una fracción ínfima del coste de un incidente en producción.
  2. Nunca saltar etapas. La escalera oficial Reef → Squid → Tentacle existe por buenas razones. Saltarse pasos ahorra dos semanas de proyecto y cuesta dos meses de depurar cosas raras. Respetamos la escalera y documentamos cada paso.
  3. Ventana de rollback viable hasta el último momento. No se borran snapshots del filesystem, no se desactivan backups antiguos, no se retiran nodos viejos hasta que el clúster nuevo lleva funcionando un ciclo de scrub completo con cargas reales encima. Es más tedioso, sí. Y funciona.
Siguientes pasos

Cómo encaja todo esto en un proyecto real

Si has leído hasta aquí, probablemente tu caso se parece a alguno de estos tres:

  • Tienes Ceph en producción y necesitas planificar el salto a Tentacle o decidir si FastEC te aplica. Aquí el trabajo es de arquitectura: revisar perfiles EC actuales, dimensionar el cambio, planificar la ventana de upgrade, validar en laboratorio.
  • Tienes VMware con vSAN y el coste de renovación te ha hecho mirar alternativas. Aquí la pregunta es de diseño: qué workloads se mueven primero, qué arquitectura Ceph encaja (Proxmox? OpenStack? Rook?), cómo se migran los datos sin parar el servicio.
  • Arrancas un proyecto nuevo — lakehouse, plataforma de contenedores, cloud privado — y Ceph es una de las opciones sobre la mesa. Aquí conviene diseñar desde el principio con Tentacle, dimensionar bien la red (spoiler: la red es casi siempre el cuello de botella, no los discos), y elegir la puerta de entrada (k8s vs virtualización vs bare metal).

En los tres casos, el orden sensato es el mismo: conversación técnica corta para entender el caso, propuesta de arquitectura con opciones y trade-offs claros, laboratorio de validación, y proyecto de despliegue con ventanas planificadas. No hay atajos que funcionen bien a medio plazo.

Para seguir leyendo sobre Ceph en SIXE


¿Estás planteándote Ceph o un upgrade serio?

Reserva una consultoría de CEPH.

Nos cuentas dónde estás — clúster existente, proyecto nuevo, salida de VMware, consolidación — y salimos de la llamada con una idea clara de arquitectura, esfuerzo y siguientes pasos. Sin presupuestos genéricos. Directamente con ingenieros que llevan años con las manos dentro de proyectos como el tuyo.

Qué es Wazuh: SIEM open source alternativa a Splunk y QRadar

SIEM & XDR · Abril 2026

Qué es Wazuh y por qué es la alternativa real a Splunk y QRadar en 2026.

En dos años Cisco compró Splunk por 28.000 millones y Palo Alto Networks compró los activos SaaS de QRadar. Mientras tanto, Wazuh seguía publicando releases, lanzaba threat hunting con LLM local y pasaba los 10 millones de descargas anuales. Te contamos por qué eso cambia la conversación sobre SIEM en 2026.

Abril 202611 min lectura

Hay una conversación que llevamos teniendo varias veces al mes en SIXE desde finales de 2024. Llega un director de sistemas o un CISO, normalmente con algo de cansancio en la voz, y nos dice alguna versión de lo mismo: "se nos acaba el contrato de Splunk y el presupuesto del año que viene no lo aguanta", o bien "tenemos QRadar SaaS y IBM nos ha dicho que toca migrar a Cortex XSIAM, pero no sabemos si es lo que queremos".

No es casualidad. El mercado del SIEM comercial ha cambiado en 24 meses más de lo que había cambiado en la década anterior. Y en medio de todo ese movimiento, hay una pieza que sigue donde estaba, que no cotiza en bolsa, que nadie ha comprado, y que mientras tanto no ha parado de crecer. Se llama Wazuh.

El contexto 2024-2026

El mapa del SIEM que cambió en 24 meses

Si llevas años en seguridad defensiva, sabes que el mercado del SIEM comercial siempre ha sido conservador. Los grandes actores cambiaban poco. Los clientes aguantaban contratos dolorosos porque migrar un SIEM es un proyecto serio, y nadie lo hace por gusto. Y entonces, entre la primavera de 2024 y el verano de 2025, pasaron tres cosas que rompieron ese equilibrio.

Marzo 2024 — Cisco compra Splunk por 28.000 millones

El movimiento más caro en la historia del SIEM. Cisco pagó 157 dólares por acción, muy por encima del precio al que había cotizado Splunk ese año. Antes de cerrar la operación, Splunk despidió al 7 % de su plantilla —unas 560 personas— en una reestructuración global. Las encuestas de analistas justo antes de la adquisición ya apuntaban a que el 22 % de los clientes contemplaba cambiarse de proveedor si había subidas de precio tras la compra. Los que hemos visto de cerca este tipo de operaciones sabemos lo que viene después: presión interna por rentabilizar un precio alto, cambios de roadmap y renovaciones cada vez más tensas.

Mayo-septiembre 2024 — Palo Alto Networks compra los activos SaaS de QRadar

Esta fue la que nadie vio venir. En mayo de 2024, IBM y Palo Alto Networks anunciaron que Palo Alto compraba los activos SaaS de QRadar por unos 500 millones de dólares, con cierre confirmado en septiembre. Forrester lo resumió en una frase que los clientes aún están digiriendo: en cuanto venzan los contratos, los clientes de QRadar SaaS tienen que migrar a Cortex XSIAM o marcharse a otro proveedor. No es una opinión, es el plan oficial de la transición.

IBM mantiene el soporte de QRadar on-premise —bug fixes, actualizaciones críticas, conectores nuevos—, así que los clientes que tengan instalaciones propias no se quedan tirados de un día para otro. Pero el mensaje de fondo que están leyendo los comités de seguridad es claro: la inversión fuerte ya no va hacia QRadar, va hacia XSIAM y Precision AI. Muchos están usando esa señal para replantearse toda su estrategia de SOC a medio plazo.

Mientras tanto — Wazuh pasa los 10 millones de descargas anuales

No salió en titulares, porque Wazuh no tiene gabinete de comunicación a la altura de Cisco o Palo Alto. Pero las cifras están ahí. Según los datos que ellos mismos publican, el proyecto supera los 10 millones de descargas anuales, tiene una de las mayores comunidades de seguridad open source del mundo, y en junio de 2025 lanzó una función que ninguno de sus competidores comerciales tiene todavía sin pagar aparte: threat hunting con un modelo de lenguaje grande ejecutándose en local. Volvemos a eso más adelante.

Un apunte importante sobre QRadar. En SIXE seguimos dando soporte y formación oficial de IBM QRadar, y lo vamos a seguir haciendo mientras haya clientes con despliegues activos. QRadar on-prem sigue siendo una herramienta sólida para quien ya lo tiene montado y quiere exprimirlo. Pero si estás arrancando un proyecto SIEM nuevo en 2026, o tienes QRadar SaaS y el contrato se acaba, la conversación que tiene sentido ahora mismo es diferente. Y pasa por Wazuh bastante más a menudo de lo que pasaba hace dos años.
El producto

Qué es Wazuh (más allá del "es gratis")

Si Wazuh fuera solo un recolector de logs barato, esta conversación sería otra. No lo es. Wazuh es una plataforma que unifica, en un mismo agente y en un mismo stack, un montón de funciones que el resto del mercado vende en cajas separadas: SIEM, XDR, detección en endpoint, integridad de ficheros, escaneo de vulnerabilidades CVE, auditoría de configuración contra CIS, cumplimiento regulatorio y respuesta activa. Todo con el mismo agente corriendo en Linux, Windows, macOS, contenedores o máquinas virtuales.

Esto es lo que pasa, en la práctica, cuando un agente de Wazuh se instala en un servidor tuyo:

  • Recoge y correlaciona logs en tiempo real. Syslog, auditd, Windows Event Log, aplicación — todo con decoders nativos. Lo manda cifrado al manager central, donde se evalúan reglas, se correlaciona entre hosts y se dispara alerta si procede.
  • Vigila la integridad de ficheros y configuración. Cualquier cambio en /etc, en el registro de Windows, en binarios de sistema o en ficheros que tú marques como sensibles, dispara una alerta inmediata. Esto es detección de manipulación, y es una de las cosas que antes se compraban aparte.
  • Escanea vulnerabilidades contra bases CVE actualizadas. Wazuh cruza el inventario de paquetes instalados con los feeds oficiales de vendors y bases CVE, y te dice qué máquinas necesitan parche con qué prioridad. Sin pagar Tenable ni Qualys encima.
  • Audita la configuración contra CIS Benchmarks. Cada agente corre evaluaciones periódicas de hardening contra políticas CIS o políticas internas tuyas, y genera el informe de cumplimiento listo para presentar a auditor.
  • Responde activamente. Bloqueo automático de IP, kill de procesos sospechosos, aislamiento del host, ejecución de scripts custom. Sin que nadie toque el teclado a las tres de la mañana.
  • Mapea todo a MITRE ATT&CK. Cada regla disparada se etiqueta con la técnica y táctica ATT&CK correspondiente, lo que hace que los dashboards para el SOC analyst sean mucho más útiles de lo que suelen ser los paneles genéricos.
┌──────────────────────────────────────────────┐ Wazuh Manager (analysis engine · rules · response) └──────┬──────────────┬──────────────┬─────────┘ ┌────▼─────┐ ┌─────▼─────┐ ┌────▼──────┐ Agents │ │ Indexer │ │ Dashboard linux │ │ cluster │ │ windows │ │ OpenSearch│ │ MITRE macos │ │ │ │ compliance docker │ │ → shards │ │ SOC view k8s │ │ → HA │ │ └──────────┘ └───────────┘ └───────────┘

El stack es sólido y está probado en producción. Un paper académico publicado por Springer en abril de 2026 evalúa arquitecturas Wazuh distribuidas con alta disponibilidad y gestión de picos de ingesta muy por encima del EPS medio, y concluye —con las palabras cuidadas habituales del mundo académico— que las soluciones SIEM open source bien diseñadas pueden igualar y en algunos aspectos superar a las plataformas comerciales. Dicho en cristiano: cuando alguien que no vende Wazuh evalúa Wazuh con método, los resultados son buenos.

La novedad del año

El as en la manga: threat hunting con LLM local

En junio de 2025, casi sin ruido, Wazuh incorporó una capacidad que cambia la forma de trabajar de un analista de SOC: threat hunting asistido por un modelo de lenguaje grande ejecutándose en local. No en la nube de OpenAI. Local. En tu propia infraestructura.

¿Por qué es relevante? Porque todos los "SIEM con IA" que ha lanzado el mercado comercial —Cortex XSIAM con Precision AI, Splunk con su propia suite, las novedades de QRadar antes de la venta— funcionan enviando tus logs a los modelos del fabricante. En muchos casos eso mismo es lo que el cliente no puede hacer por razones regulatorias. Si tus logs contienen datos de pacientes, de clientes bancarios, o información clasificada de una administración pública, mandarlos a un LLM en la nube de un proveedor externo no es negociable — simplemente no puedes.

La solución de Wazuh se salta ese problema. Tú eliges el modelo, tú lo despliegas donde quieras, tus datos no salen. Y las consultas son las que un analista haría en lenguaje natural: "enséñame todos los intentos de escalada de privilegios del último mes correlacionados con cuentas de servicio", "resume los eventos de este host en las últimas 24 horas, prioriza lo anómalo", "¿hay algo en estos logs que se parezca a la TTP T1078 de MITRE?".

Nuestra perspectiva en SIXE

Esta es exactamente la línea en la que llevamos tiempo trabajando desde el lado de infraestructura — LLMs corriendo on-premise, sin mandar nada a ninguna nube, para entornos que manejan datos sensibles. Lo hemos aplicado en IBM Power, en AIX, y en clusters Ceph+Kubernetes para inferencia privada. Cuando vimos que Wazuh iba por ese mismo camino desde el lado del SOC, fue uno de los factores que nos hicieron apostar más fuerte todavía por la plataforma. Si te interesa el lado "infraestructura" de la historia, lo contamos en detalle en nuestra página de inferencia de IA on-premise.

La comparativa

Wazuh vs Splunk vs QRadar vs XSIAM, estado 2026

Sin discursos de marketing, aquí está el estado actual de los cuatro actores que se cruzan en la mayoría de conversaciones que tenemos. Las cifras y estados son verificables a la fecha de publicación de este post.

PlataformaEstado 2026Modelo comercial
WazuhIndependiente. Sin adquisiciones, sin rondas de funding, creciendo en descargas y comunidad.Open source AGPLv3. Sin coste de licencia. Wazuh Cloud opcional.
SplunkPropiedad de Cisco desde marzo 2024. Reducción de plantilla del 7 % pre-cierre. Integración en curso.Por volumen de datos ingeridos (GB/día). Coste alto, presión de renovaciones.
QRadar SaaSVendido a Palo Alto Networks en 2024. Migración obligatoria a Cortex XSIAM cuando venzan los contratos.El destino es Cortex XSIAM. Migración gratuita para "clientes elegibles".
QRadar on-premMantenido por IBM. Bug fixes, conectores, sin grandes novedades funcionales.Licencia IBM por EPS. Soporte oficial activo.
Cortex XSIAMProducto estratégico de Palo Alto Networks. IA integrada (Precision AI).Por capacidad y features. Posiciona arriba en precio.
ELK / OpenSearch puroGratis pero te lo construyes tú: reglas, decoders, FIM, compliance.Gratis la base. El coste real es en tiempo de ingeniería propia.

La parte interesante de esta tabla no está en ninguna columna — está en lo que implica leerla entera. Cuatro de los seis actores comerciales están en transición, en mantenimiento o en migración obligatoria. Wazuh y ELK son los únicos que siguen exactamente donde estaban hace tres años, con sus comunidades intactas y su roadmap público. De esos dos, solo uno viene con SIEM, XDR, FIM, vulnerability scan, active response y compliance de serie: Wazuh.

Una nota sobre coste. Cuando comparamos Wazuh con Splunk en sesiones técnicas con clientes, la discusión casi nunca acaba siendo sobre el coste de la licencia — que, sí, es mucho más barato. Suele acabar siendo sobre la predictibilidad. Splunk sube contigo: más datos que ingieres, más pagas. Wazuh no. Y en un entorno donde los logs crecen un 30-40 % al año —porque metes nuevos servicios, porque NIS2 te obliga a retener más, porque montas más contenedores— esa diferencia se traduce en una factura que los CFO saben leer muy bien.
El ángulo regulatorio

Compliance sin sufrir: NIS2, ENS, PCI DSS, ISO 27001

Hay una razón muy práctica por la que Wazuh está creciendo más en Europa que en ningún otro sitio, y es la presión regulatoria. España traspuso NIS2 a finales de 2025 y está exigiendo evidencia real. El Esquema Nacional de Seguridad lleva años pidiendo trazabilidad, detección y respuesta ante incidentes. Para muchas organizaciones medianas —ayuntamientos, universidades, operadoras de servicios esenciales, hospitales concertados— la pregunta no es si necesitan un SIEM, sino cuál pueden permitirse sin que el comité de dirección les mire mal.

Wazuh trae los dashboards y reportes mapeados a los marcos regulatorios importantes directamente de serie:

  • NIS2. Controles de detección, trazabilidad de incidentes, reporte de eventos a la autoridad competente, evidencia de medidas de gestión de riesgos.
  • ENS (Esquema Nacional de Seguridad). Mapeo a las medidas de operación, monitorización y gestión de incidentes. Dashboards listos para los auditores que aplican el ENS en cualquiera de sus categorías.
  • PCI DSS. Controles de logging, integridad de ficheros, gestión de vulnerabilidades, retención — la checklist que exige el estándar, mapeada requisito a requisito.
  • ISO/IEC 27001. Evidencia de los controles del Anexo A relacionados con operaciones, comunicaciones, cumplimiento y gestión de incidentes de seguridad.
  • CIS Benchmarks. Auditoría continua de hardening del sistema operativo y de los servicios, con reporte histórico de desviaciones.

Dicho esto — y lo decimos con cariño porque venimos de este mundo — los dashboards por sí solos no aprueban una auditoría. Lo que los aprueba es que alguien haya diseñado la arquitectura bien, que las reglas estén afinadas al contexto del cliente, que las excepciones estén documentadas, que el flujo de evidencias llegue ordenado a quien lo tiene que firmar. Esa parte no la hace el producto, la hace el equipo que lo despliega. Y esa parte es, probablemente, el 70 % del valor de un proyecto Wazuh bien hecho.

Lo que hacemos en SIXE

Llevamos años desplegando Wazuh en organizaciones sujetas a ENS alto, a la transposición española de NIS2, a PCI DSS y a entornos sectoriales regulados. La página completa del servicio, con la arquitectura, el ciclo de despliegue y los casos de uso, está aquí: Implantación y soporte de Wazuh. Si el compliance es lo que más te presiona ahora mismo, esa es la conversación por la que empezar.

La migración

Cómo se migra desde Splunk, QRadar o ELK sin parar el SOC

Migrar un SIEM es un proyecto que asusta, y con razón. Un SIEM mal migrado deja ciegos los controles de detección justo en el peor momento posible. Por eso la forma en la que lo hacemos tiene que ser aburrida y predecible, con tres principios que no negociamos:

  1. Nunca apagar el SIEM antiguo antes de tener el nuevo funcionando. El viejo sigue tragando logs y generando alertas mientras Wazuh empieza a correr en paralelo. Durante unas semanas tienes cobertura doble y cero riesgo. Ese periodo es caro en recursos, sí, pero mucho más barato que un mes de SOC a ciegas.
  2. Convertir las reglas críticas antes de convertir el catálogo entero. Los SIEM grandes suelen tener miles de reglas acumuladas, y una parte importante son reglas que nadie mira o que disparan falsos positivos. La primera pasada identifica las 50-150 reglas críticas que realmente producen detecciones útiles, se reescriben al formato de Wazuh y se validan con eventos reales. El resto llega después, o no llega — porque muchas veces no merece la pena.
  3. Validar con eventos que duelen, no con tests sintéticos. Antes de considerar Wazuh operativo, reproducimos un conjunto de escenarios reales —intento de escalada, exfiltración, ransomware temprano, compromiso de cuenta— y comprobamos que las alertas se disparan, se correlacionan y llegan al SOC con el contexto correcto. Si no se disparan, no se considera que esté operativo. Es así de simple.

La parte que cambia según de dónde vengas es el trabajo de conversión:

  • Desde Splunk. El trabajo más interesante. Las SPL (Search Processing Language) no se traducen automáticamente a las reglas de Wazuh, pero el patrón de detección suele ser reproducible con decoders custom y reglas sobre OpenSearch. Hemos hecho varias migraciones y el grueso del trabajo está en los dashboards y las reglas, no en la ingesta.
  • Desde QRadar. La parte buena es que QRadar y Wazuh comparten mucha filosofía en cuanto a eventos y offenses. La mala es que las DSM de QRadar son propietarias y hay que reconstruir los parsers. Si vienes de QRadar SaaS con la migración a XSIAM encima, esta es una ventana razonable para plantearse la tercera opción.
  • Desde ELK puro. La más sencilla de las tres — Wazuh ya usa OpenSearch como indexer, así que buena parte del stack de datos ya lo conoces. El salto está en añadir reglas, compliance y active response, que en ELK puro habrías tenido que construir a mano.
Siguientes pasos

Por dónde empezar

Si lees esto y te encuentras pensando "esto me aplica más de lo que me gustaría", probablemente tengas razón. No hace falta un proyecto enorme para dar el primer paso. Lo habitual es empezar por una conversación corta con tres preguntas:

  • ¿Dónde estás exactamente ahora mismo? ¿Tienes Splunk con el contrato por venir? ¿QRadar SaaS con la migración a XSIAM en el horizonte? ¿Nada y te empieza a apretar NIS2 o el ENS?
  • ¿Qué normativa te está obligando? NIS2, ENS, PCI DSS, ISO 27001 — no es lo mismo cumplir uno que cumplir los cuatro, y la arquitectura de Wazuh se dimensiona distinto según cuáles apliquen de verdad.
  • ¿Cuántos endpoints, qué sistemas operativos, qué logs ya tienes, qué integraciones necesitas? Con esos datos ya se puede dibujar un diseño concreto y una estimación de esfuerzo realista.

Cuando tengas claro lo que quieres mirar, la página completa con la arquitectura, los módulos, la comparativa con alternativas comerciales y el ciclo de despliegue está aquí: Wazuh — Implantación y soporte SIXE. Y si quieres hablar con alguien que lleve años con las manos dentro de proyectos como el tuyo, la sesión técnica de 30 minutos es gratuita y sin compromiso. Salimos con un esbozo de arquitectura y una idea real de esfuerzo. Si Wazuh encaja, te lo decimos. Si no, también.

Para seguir leyendo


¿Estás replanteándote tu SIEM?

Sesión técnica de 30 minutos. Sin compromiso.

Nos cuentas dónde estás, qué normativa te aplica y qué te preocupa. Salimos de la llamada con un esbozo de arquitectura, una estimación de esfuerzo y los siguientes pasos. Sin presupuestos genéricos, sin discurso comercial — directamente con alguien del equipo técnico.

SIXE