Ceph vs MinIO 2026 | Guía de almacenamiento distribuido

Otro año más vivo, otro año más viendo cómo la industria del almacenamiento distribuido consigue superarse a sí misma en creatividad comercial. Si 2024 fue el año en que todos descubrieron que necesitaban “almacenamiento para IA” (spoiler: es el mismo almacenamiento de siempre, pero con mejor marketing), 2025 ha sido el año en que MinIO decidió inmolarse públicamente mientras el resto del ecosistema sigue evolucionando a buen ritmo.

Agarraos, que vienen curvas.

minio vs ceph se vienen curvas

El drama del año: MinIO pasa a “modo mantenimiento” (léase: modo abandono)

Si no habéis seguido la telenovela de MinIO, dejadme que os ponga en contexto. MinIO era el object storage open source que todo el mundo desplegaba. Sencillo, rápido, compatible con S3. Lo tenías funcionando en 15 minutos. Era el WordPress del almacenamiento de objetos.

Pues bien, en diciembre de 2025, un commit silencioso en el README cambió todo: “This project is currently under maintenance and is not accepting new changes.” Sin comunicado. Sin guía de migración. Sin despedida. Solo un commit y adiós muy buenas.

La comunidad, como era de esperar, ardió. Un desarrollador lo resumió perfectamente: “A silent README update just ended the era of MinIO as the default open-source S3 engine.”

Pero esto no vino de la nada. MinIO llevaba años con una estrategia de “open source pero no te pases”:

  • 2021: Cambio silencioso de Apache 2.0 a AGPL v3 (sin anuncio, sin PR, sin nada)
  • 2022-2023: Campañas agresivas contra Nutanix y Weka por “violaciones de licencia”
  • Febrero 2025: Eliminan la consola web, gestión de buckets y replicación de la versión Community
  • Octubre 2025: Dejan de distribuir imágenes Docker
  • Diciembre 2025: Modo mantenimiento

El mensaje es claro: si quieres MinIO de verdad, paga. Su producto enterprise AIStor empieza en 96.000€/año para 400 TiB. Para 1 PB, hablamos de más de 244.000€/año.

¿La lección? En 2025, “Open Source” sin Gobernanza Abierta no vale nada. MinIO era una empresa con un producto open source, no un proyecto de comunidad. La diferencia importa.

Mientras tanto, Ceph sigue nadando tranquilo

Mientras MinIO se autodestruía, Ceph celebraba su vigésima release estable: Tentacle (v20.2.0), lanzada en noviembre de 2025. El proyecto acumula más de 1 exabyte de almacenamiento desplegado globalmente en más de 3.000 clusters.

Lo más interesante de Tentacle es FastEC (Fast Erasure Coding), que mejora el rendimiento de lecturas y escrituras pequeñas entre 2x y 3x. Esto hace que erasure coding sea finalmente viable para cargas de trabajo que no son puro archivo frío. Con un perfil EC 6+2, ahora puedes conseguir aproximadamente el 50% del rendimiento de réplica 3 mientras usas solo el 33% del espacio.

Para los que llevamos años oyendo “erasure coding es lento para producción”, esto es un cambio de juego real.

Otras novedades de Tentacle:

  • Soporte SMB integrado via Samba Manager
  • Grupos de gateway NVMe/TCP con soporte multi-namespace
  • Autenticación OAuth 2.0 en el dashboard
  • Directorios CephFS case-insensitive (por fin)
  • ISA-L reemplaza a Jerasure (que estaba abandonado)

El Crimson OSD (basado en Seastar para optimización NVMe) sigue en technical preview. No está listo para producción, pero el roadmap es prometedor.

Los números que importan

Bloomberg opera más de 100 PB en clusters Ceph. Son Diamond member de la Ceph Foundation y su Head of Storage Engineering está en el Governing Board. DigitalOcean tiene 54+ PB en 37 clusters de producción. CERN mantiene 50+ PB en más de 10 clusters.

Y aquí viene lo interesante: ZTE Corporation está entre los top 3 contribuidores globales a Ceph y el número 1 en China. Su producto TECS CloveStorage (basado en Ceph) está desplegado en más de 320 proyectos NFV en todo el mundo, incluyendo China Mobile, izzi Telecom (México) y Deutsche Telekom.

El sector telco es el superpoder secreto de Ceph. Mientras muchos siguen pensando en appliances tradicionales, las telecos están corriendo Ceph en producción a escala masiva.

El ecosistema enterprise: entendiendo qué estás comprando

Aquí es donde la cosa se pone interesante. Y merece la pena entender bien qué hay detrás de cada opción.

 

IBM Fusion: dos sabores para diferentes necesidades

IBM tiene dos productos bajo la marca Fusion, y es importante entender la diferencia:

  • IBM Fusion HCI: Usa IBM Storage Scale ECE (el antiguo GPFS/Spectrum Scale). Sistema de ficheros paralelo con erasure coding distribuido. Appliance hiperconvergente que escala de 6 a 20 nodos.
  • IBM Fusion SDS: Usa OpenShift Data Foundation (ODF), que está basado en Ceph empaquetado por Red Hat.

Storage Scale es una tecnología genuinamente diferenciada, especialmente para HPC. Su arquitectura de sistema de ficheros paralelo ofrece capacidades que Ceph simplemente no tiene: gestión avanzada de metadatos, tiering integrado, AFM para federación… Si tienes cargas de trabajo de computación de alto rendimiento, supercomputación o IA a escala seria, Storage Scale tiene argumentos técnicos sólidos que lo justifican.

Los claims de rendimiento de IBM Fusion HCI son impresionantes: aceleración 90x en queries S3 con caching local, rendimiento equivalente a Databricks Photon al 60% del coste, etc.

Ahora bien, siempre merece la pena preguntarse: ¿cuánto de ese rendimiento es la tecnología propietaria y cuánto es simplemente hardware bien dimensionado con una configuración adecuada? No es una crítica, es una pregunta legítima que cualquier arquitecto debería hacerse antes de tomar una decisión.

En el caso de Fusion SDS, estás comprando Ceph con el valor añadido del empaquetado, la integración con OpenShift, y el soporte enterprise de IBM. Para muchas organizaciones, eso tiene un valor real.

Red Hat Ceph Storage: el estándar enterprise

Red Hat Ceph Storage sigue siendo la distribución enterprise de referencia. Ofrecen 36 meses de soporte de producción más 24 meses opcionales de soporte extendido. El producto está sólido y bien integrado.

Lo que estás comprando realmente es:

  • Paquetes testeados y certificados
  • Soporte enterprise 24/7
  • Ciclos de vida predecibles
  • Integración con OpenShift

¿Vale la pena? Depende de tu contexto. Si tu organización necesita un contrato de soporte para cumplir con compliance o simplemente para dormir tranquila, probablemente sí. Y nosotros encantados de ayudarte con ello. Pero si tienes el equipo técnico para operar Ceph upstream, es una decisión que merece análisis.

SUSE: una lección sobre dependencia de vendors

Aquí hay una historia que merece reflexión: SUSE abandonó completamente el mercado de Ceph enterprise. Su producto SUSE Enterprise Storage (SES) llegó a fin de soporte en enero de 2023. Tras adquirir Rancher Labs en 2020, pivotaron hacia Longhorn para almacenamiento Kubernetes-nativo.

Si eras cliente de SES, te encontraste huérfano. Tus opciones fueron migrar a Red Hat Ceph Storage, Canonical Charmed Ceph, community Ceph, o buscar un partner especializado que te ayudara con la transición.

No es una crítica a SUSE; las empresas pivotan según su estrategia. Pero es un recordatorio de que el control sobre tu infraestructura tiene un valor que no siempre aparece en el TCO.

Pure Storage y NetApp: el enfoque appliance

Pure Storage ha creado una categoría llamada “Unified Fast File and Object” (UFFO) con su familia FlashBlade. Hardware impresionante, rendimiento consistente, experiencia de usuario pulida. Su FlashBlade//S R2 escala hasta 60 PB por cluster con DirectFlash Modules de 150 TB.

NetApp StorageGRID 12.0 se enfoca en IA con mejoras de throughput de 20x via caching avanzado y soporte para más de 600 mil millones de objetos en un solo cluster.

Ambas son soluciones sólidas que compiten con Ceph RGW en object storage compatible con S3. El rendimiento es excelente. La pregunta que cada organización debe hacerse es si el premium justifica la dependencia del vendor para su caso de uso específico.

La pregunta que nadie hace: ¿qué estás comprando realmente?

Aquí es donde me pongo el sombrero de ingeniero reflexivo.

Ceph upstream es extremadamente estable. Lleva 20 releases. La Ceph Foundation incluye a IBM, Red Hat, Bloomberg, DigitalOcean, OVHcloud y decenas más. El desarrollo está activo, la comunidad es sólida, y la documentación es extensa.

Entonces, ¿cuándo tiene sentido pagar por una distribución enterprise y cuándo no?

Tiene sentido cuando:

  • Tu organización requiere un contrato de soporte por compliance o política interna
  • No tienes el personal técnico para operar Ceph y no quieres desarrollarlo
  • Necesitas ciclos de actualización predecibles y testeados
  • El coste del downtime es mayor que el coste de la licencia
  • Necesitas integración específica con otros productos del vendor

Merece más análisis cuando:

  • La decisión se basa en “es lo que hace todo el mundo”
  • Nadie ha evaluado realmente las alternativas
  • La principal razón es que “el vendor nos dijo que el open source no tiene soporte”
  • Tienes equipo técnico capaz pero no se ha invertido en su formación

El desafío real es el conocimiento. Ceph tiene una curva de aprendizaje pronunciada. Diseñar un cluster correctamente, entender CRUSH maps, tunear BlueStore, optimizar placement groups… esto requiere formación seria y experiencia práctica.

Pero una vez que tienes ese conocimiento, tienes opciones. Puedes elegir un vendor enterprise con criterio, sabiendo exactamente qué valor añadido estás comprando. O puedes operar upstream con soporte especializado. La clave es que la decisión sea informada.

Desmitificando los claims de marketing

Una cosa que siempre recomiendo es leer los benchmarks y claims de marketing con espíritu crítico constructivo.

“Nuestro producto es 90x más rápido” — ¿Comparado con qué baseline? ¿En qué workload específico? ¿Con qué configuración del competidor?

“Rendimiento equivalente a [competidor] al 60% del coste” — ¿Incluye el TCO completo? ¿Licenciamiento, soporte, formación, personal?

“Solución certificada enterprise-grade” — ¿Qué significa eso exactamente? Porque Ceph upstream también es “enterprise-grade” en CERN, Bloomberg, y cientos de telecos.

No digo que los claims sean falsos. Digo que el contexto importa. La realidad es que el rendimiento de almacenamiento distribuido depende enormemente de:

  • Diseño correcto del cluster (failure domains, placement groups)
  • Hardware apropiado (red 25/100GbE, NVMe con protección power-loss)
  • Configuración del sistema operativo (IOMMU, CPU governors)
  • Tuning específico del workload (osd_memory_target, bluestore settings)

Un cluster Ceph bien diseñado y operado por gente con experiencia puede alcanzar rendimientos impresionantes. El benchmark de Clyso alcanzó 1 TiB/s con 68 servidores Dell PowerEdge. IBM demostró más de 450.000 IOPS en un cluster Ceph de 4 nodos con 24 NVMe por nodo.

A veces, ese sello de “solución certificada” que ves en un datasheet es, en el fondo, software libre con una configuración experta, hardware bien dimensionado, y mucho testing. Lo cual tiene valor, pero conviene saberlo.

La jugada inteligente: decidir con información

Después de 15 años en este sector, mi conclusión es que no hay una respuesta única. Lo que hay son decisiones informadas.

Para algunas organizaciones, una solución enterprise empaquetada es exactamente lo que necesitan: soporte garantizado, ciclos predecibles, integración validada, y la tranquilidad de tener un vendor responsable. IBM Fusion con Storage Scale es una opción excelente para HPC. Red Hat Ceph Storage es sólido para quien quiere Ceph con respaldo enterprise.

Para otras organizaciones, Ceph upstream con soporte y formación especializada ofrece ventajas importantes:

  1. Governance de fundación: Ceph es un proyecto de la Linux Foundation con gobierno abierto. No puede pasar lo de MinIO.
  2. Comunidad activa: Miles de contribuidores, releases regulares, bugs corregidos rápidamente.
  3. Flexibilidad: Es tu cluster, tu configuración. Si mañana decides cambiar de partner de soporte, no pierdes nada.
  4. TCO transparente: El software es gratis. Inviertes en hardware apropiado y en conocimiento.
  5. Control de versiones: Actualizas cuando tiene sentido para ti, no cuando el vendor saca la siguiente release empaquetada.

El denominador común en ambos casos es el conocimiento. Ya sea que compres una solución enterprise o despliegues upstream, entender Ceph a fondo te permite tomar mejores decisiones, negociar mejor con vendors, y resolver problemas más rápido.

¿Dónde conseguir ese conocimiento?

Ceph es complejo. Pero habemus caminos..

La documentación oficial es extensa y ha mejorado mucho. El Ceph blog tiene deep-dives técnicos excelentes.

Cephalocon es la conferencia anual donde puedes aprender de los que operan Ceph a escala real (Bloomberg, CERN, DigitalOcean).

Formación estructurada con labs prácticos es la forma más eficiente de construir competencia real. No se aprende Ceph leyendo slides; se aprende rompiendo y arreglando clusters.

Soporte técnico L3 de gente que vive Ceph a diario te saca de los apuros cuando las cosas se complican en producción. Porque se van a complicar. En SIXE llevamos años formando equipos técnicos en Ceph y dando soporte L3 a organizaciones de todo tipo: las que operan upstream, las que usan distribuciones enterprise, y las que están evaluando opciones.

Nuestro programa de formación en Ceph cubre desde arquitectura básica hasta operaciones avanzadas con labs prácticos reales. Y si ya tienes Ceph en producción y necesitas respaldo técnico de verdad, nuestro soporte técnico especializado está diseñado exactamente para eso.

Además, acabamos de lanzar un programa de certificación con badges en Credly para que tu equipo pueda demostrar sus competencias de forma tangible. Porque en este sector, “sé Ceph” no significa lo mismo para todo el mundo.


Conclusiones para 2026

  1. MinIO está muerto para uso serio. Busca alternativas. Ceph RGW, SeaweedFS, o incluso el fork OpenMaxIO si eres valiente.
  2. Entiende qué estás comprando. Hay casos donde una solución enterprise empaquetada aporta valor real. Hay otros donde estás pagando principalmente por un logo y una configuración que podrías replicar.
  3. Ceph upstream está maduro y es production-ready. Bloomberg, DigitalOcean, CERN y 320+ proyectos de telecos no pueden estar todos equivocados.
  4. El verdadero coste del almacenamiento distribuido es el conocimiento. Invierte en formación y soporte técnico de calidad, independientemente de qué opción elijas.
  5. El control sobre tu infraestructura tiene valor. Pregúntale a los clientes de SUSE SES cómo les fue cuando el vendor decidió pivotar.
  6. La governance del proyecto importa tanto como la tecnología. Fundación abierta > empresa con producto open source.

El 2026 se presenta interesante. FastEC va a cambiar la ecuación de erasure coding. La integración con IA y ML va a seguir presionando por más rendimiento. Y el ecosistema de vendors va a seguir evolucionando con propuestas que merecen evaluación seria.

Tú decides.

SIXE