Almacenamiento distribuido 2026. Una (polémica) guía técnica

 

Otro año más vivo, otro año más viendo cómo la industria del almacenamiento distribuido consigue superarse a sí misma en creatividad comercial. Si 2024 fue el año en que todos descubrieron que necesitaban “almacenamiento para IA” (spoiler: es el mismo almacenamiento de siempre, pero más caro), 2025 ha sido el año en que MinIO decidió inmolarse públicamente mientras IBM y Red Hat siguen facturando millones por ponerle su logo a Ceph.

Agarraos, que vienen curvas.

El drama del año: MinIO pasa a “modo mantenimiento” (léase: modo abandono)

Si no habéis seguido la telenovela de MinIO, dejadme que os ponga en contexto. MinIO era el object storage open source que todo el mundo desplegaba. Sencillo, rápido, compatible con S3. Lo tenías funcionando en 15 minutos. Era el WordPress del almacenamiento de objetos.

Pues bien, en diciembre de 2025, un commit silencioso en el README cambió todo: “This project is currently under maintenance and is not accepting new changes.” Sin comunicado. Sin guía de migración. Sin despedida. Solo un commit y adiós muy buenas.

La comunidad, como era de esperar, ardió. Un desarrollador lo resumió perfectamente: “A silent README update just ended the era of MinIO as the default open-source S3 engine.”

Pero esto no vino de la nada. MinIO llevaba años con una estrategia de “open source pero no te pases”:

  • 2021: Cambio silencioso de Apache 2.0 a AGPL v3 (sin anuncio, sin PR, sin nada)
  • 2022-2023: Campañas agresivas contra Nutanix y Weka por “violaciones de licencia”
  • Febrero 2025: Eliminan la consola web, gestión de buckets y replicación de la versión Community
  • Octubre 2025: Dejan de distribuir imágenes Docker
  • Diciembre 2025: Modo mantenimiento

El mensaje es claro: si quieres MinIO de verdad, paga. Su producto enterprise AIStor empieza en 96.000€/año para 400 TiB. Para 1 PB, hablamos de más de 244.000€/año.

¿La lección? En 2025, “Open Source” sin Open Governance no vale nada. MinIO era una empresa con un producto open source, no un proyecto de comunidad. La diferencia importa.

Mientras tanto, Ceph sigue nadando tranquilo

Mientras MinIO se autodestruía, Ceph celebraba su vigésima release estable: Tentacle (v20.2.0), lanzada en noviembre de 2025. El proyecto acumula más de 1 exabyte de almacenamiento desplegado globalmente en más de 3.000 clusters.

Lo más interesante de Tentacle es FastEC (Fast Erasure Coding), que mejora el rendimiento de lecturas y escrituras pequeñas entre 2x y 3x. Esto hace que erasure coding sea finalmente viable para cargas de trabajo que no son puro archivo frío. Con un perfil EC 6+2, ahora puedes conseguir aproximadamente el 50% del rendimiento de réplica 3 mientras usas solo el 33% del espacio.

Para los que llevamos años oyendo “erasure coding es lento para producción”, esto es un cambio de juego real.

Otras novedades de Tentacle:

  • Soporte SMB integrado via Samba Manager
  • Grupos de gateway NVMe/TCP con soporte multi-namespace
  • Autenticación OAuth 2.0 en el dashboard
  • Directorios CephFS case-insensitive (por fin)
  • ISA-L reemplaza a Jerasure (que estaba abandonado)

El Crimson OSD (basado en Seastar para optimización NVMe) sigue en technical preview. No está listo para producción, pero el roadmap es prometedor.

Los números que importan

Bloomberg opera más de 100 PB en clusters Ceph. Son Diamond member de la Ceph Foundation y su Head of Storage Engineering está en el Governing Board. DigitalOcean tiene 54+ PB en 37 clusters de producción. CERN mantiene 50+ PB en más de 10 clusters.

Y aquí viene lo interesante: ZTE Corporation está entre los top 3 contribuidores globales a Ceph y el número 1 en China. Su producto TECS CloveStorage (basado en Ceph) está desplegado en más de 320 proyectos NFV en todo el mundo, incluyendo China Mobile, izzi Telecom (México) y Deutsche Telekom.

El sector telco es el superpoder secreto de Ceph. Mientras los vendors enterprise te venden appliances carísimos, las telecos están corriendo Ceph en producción a escala masiva.

El circo de los vendors: pagando por tu propio software libre

Aquí es donde la cosa se pone interesante (e incluso me atrevería a decir que incluso un poco absurda).

IBM Fusion: dos sabores, mismo objetivo

IBM tiene dos productos bajo la marca Fusion:

  • IBM Fusion HCI: Usa IBM Storage Scale ECE (el antiguo GPFS/Spectrum Scale). Sistema de ficheros paralelo propietario con erasure coding distribuido. Appliance hiperconvergente que escala de 6 a 20 nodos.
  • IBM Fusion SDS: Usa OpenShift Data Foundation (ODF), que es… redoble de tamboresCeph empaquetado por Red Hat.

Sí, habéis leído bien. IBM te vende Ceph con otro nombre. Red Hat lo empaqueta como ODF, IBM lo mete en Fusion SDS, y tú pagas el premium de “enterprise”.

Los claims de rendimiento de IBM Fusion HCI son impresionantes en los datasheets: aceleración 90x en queries S3 con caching local, rendimiento equivalente a Databricks Photon al 60% del coste, etc.

Pero aquí está la pregunta que nadie hace: ¿cuánto de esto es la tecnología y cuánto es simplemente hardware bien dimensionado con configuración correcta?

Porque GPFS/Storage Scale es un sistema de ficheros paralelo excelente. Nadie discute eso. Pero también es propietario, te ata a IBM, y el coste de licenciamiento puede ser astronómico. Y cuando IBM te vende Fusion SDS… te está vendiendo Ceph con su marca.

Red Hat: el intermediario del open source

Red Hat Ceph Storage sigue siendo la distribución enterprise de referencia. Ofrecen 36 meses de soporte de producción más 24 meses opcionales de soporte extendido. El producto está bien, no voy a mentir.

Pero el precio refleja el “impuesto Red Hat”. Estás pagando por:

  • Paquetes testeados y certificados
  • Soporte enterprise 24/7
  • Ciclos de vida predecibles
  • Integración con OpenShift

¿Vale la pena? Depende. Si tu organización necesita un contrato de soporte para dormir tranquila, probablemente sí. Y nosotros encantados de vendértelo, pero si tienes el equipo técnico para operar Ceph upstream, quizás no lo necesites.

SUSE: el que abandonó el barco

Plot twist del año: SUSE abandonó completamente el mercado de Ceph enterprise. Su producto SUSE Enterprise Storage (SES) llegó a fin de soporte en enero de 2023. Tras adquirir Rancher Labs en 2020, pivotaron hacia Longhorn para almacenamiento Kubernetes-nativo.

Si eras cliente de SES, ahora estás huérfano. Tus opciones son migrar a Red Hat Ceph Storage, Canonical Charmed Ceph, community Ceph, o buscar un partner especializado que te ayude.

Pure Storage y NetApp: el otro lado del ring

Pure Storage ha creado una categoría llamada “Unified Fast File and Object” (UFFO) con su familia FlashBlade. Hardware impresionante, rendimiento consistente, precio premium. Su FlashBlade//S R2 escala hasta 60 PB por cluster con DirectFlash Modules de 150 TB.

NetApp StorageGRID 12.0 se enfoca en IA con mejoras de throughput de 20x via caching avanzado y soporte para más de 600 mil millones de objetos en un solo cluster.

Ambos son soluciones propietarias que compiten directamente con Ceph RGW en el espacio de object storage compatible con S3. El rendimiento es excelente, pero el lock-in es total.

La pregunta incómoda: ¿realmente necesitas pagar ese premium?

Aquí es donde me pongo el sombrero de ingeniero cínico.

Ceph upstream es extremadamente estable. Lleva 20 releases. Proyectos de la Ceph Foundation incluyen a IBM, Red Hat, Bloomberg, DigitalOcean, OVHcloud y decenas más. El desarrollo está activo, la comunidad es sólida, y la documentación es extensa.

Entonces, ¿por qué pagarías a IBM o Red Hat por empaquetarlo?

Razones legítimas:

  • Tu organización requiere un contrato de soporte por compliance o política interna
  • No tienes el personal técnico para operar Ceph
  • Necesitas ciclos de actualización predecibles y testeados
  • El coste del downtime es mayor que el coste de la licencia

Razones menos legítimas:

  • “Es lo que hace todo el mundo”
  • “Nadie fue despedido por comprar IBM/Red Hat”
  • “El vendor nos dijo que el open source no tiene soporte”
  • Nadie en tu equipo se ha molestado en aprender Ceph de verdad

El problema real es el conocimiento. Ceph tiene una curva de aprendizaje pronunciada. Diseñar un cluster correctamente, entender CRUSH maps, tunear BlueStore, optimizar placement groups… esto requiere formación seria y experiencia práctica.

Pero una vez que tienes ese conocimiento, tienes control total sobre tu infraestructura. No dependes de los ciclos de release del vendor. No pagas por “derechos de uso” de software que es GPL. No te quedas huérfano cuando el vendor decide pivotar a otro mercado (¿verdad, SUSE?).

Los claims del fabricante vs. la realidad

Una de las cosas que más me irritan de este sector es la cantidad de claims de marketing que se aceptan sin cuestionar.

“Nuestro producto es 90x más rápido” — ¿Comparado con qué? ¿En qué workload? ¿Con qué configuración del competidor?

“Rendimiento equivalente a [competidor] al 60% del coste” — ¿Incluye el coste de licenciamiento? ¿El soporte? ¿La formación? ¿El personal adicional?

“Enterprise-grade” — ¿Qué significa eso exactamente? Porque Ceph upstream también es “enterprise-grade” en CERN, Bloomberg, y cientos de telecos.

La realidad es que el rendimiento de almacenamiento distribuido depende enormemente de:

  • Diseño correcto del cluster (failure domains, placement groups)
  • Hardware apropiado (red 25/100GbE, NVMe con protección power-loss)
  • Configuración del sistema operativo (IOMMU deshabilitado para pico rendimiento, CPU governors)
  • Tuning específico del workload (osd_memory_target, bluestore settings)

Un cluster Ceph bien diseñado y operado por gente que sabe lo que hace puede igualar o superar muchas soluciones propietarias. El benchmark de Clyso alcanzó 1 TiB/s con 68 servidores Dell PowerEdge. IBM/Ceph demostró más de 450.000 IOPS en un cluster de 4 nodos con 24 NVMe por nodo.

¿Puedes conseguir estos números con Ceph upstream? Sí, si sabes lo que estás haciendo.

¿Puedes conseguirlos comprando un appliance? También, pero vas a pagar considerablemente más.

La jugada inteligente: control sobre tu infraestructura

Después de 15 años en este sector, mi conclusión es simple:

La opción más inteligente para la mayoría de las organizaciones es Ceph upstream con soporte y formación de especialistas independientes.

¿Por qué?

  1. Governance de fundación: Ceph es un proyecto de la Linux Foundation con gobierno abierto. No puede pasar lo de MinIO.
  2. Comunidad activa: Miles de contribuidores, releases regulares, bugs corregidos rápidamente.
  3. Sin lock-in: Es tu cluster, tu configuración, tu código. Si mañana decides cambiar de partner de soporte, no pierdes nada.
  4. TCO real: El software es gratis. Inviertes en hardware apropiado y en conocimiento (formación y soporte técnico).
  5. Flexibilidad total: Puedes actualizar cuando tú quieras, no cuando el vendor saque la siguiente versión empaquetada.

El “pero” es obvio: necesitas el conocimiento técnico para operar esto. Y aquí es donde muchas organizaciones fallan. Despliegan Ceph sin formación adecuada, lo configuran mal, tienen problemas de rendimiento, y concluyen que “Ceph no funciona” cuando el problema era la implementación.

¿Dónde conseguir ese conocimiento?

Ceph es complejo. Pero hay caminos claros:

La documentación oficial es extensa y ha mejorado mucho. El Ceph blog tiene deep-dives técnicos excelentes.

Cephalocon es la conferencia anual donde puedes aprender de los que operan Ceph a escala real (Bloomberg, CERN, DigitalOcean).

Formación estructurada con labs prácticos es la forma más eficiente de construir competencia real. No se aprende Ceph leyendo slides; se aprende rompiendo y arreglando clusters.

Soporte técnico L3 de gente que vive Ceph a diario te saca de los apuros cuando las cosas se complican en producción. Porque se van a complicar. En SIXE llevamos años formando equipos técnicos en Ceph y dando soporte L3 a organizaciones que han decidido tomar control de su infraestructura de almacenamiento. Nuestro programa de formación en Ceph cubre desde arquitectura básica hasta operaciones avanzadas con labs prácticos reales. Y si ya tienes Ceph en producción y necesitas respaldo técnico de verdad, nuestro soporte técnico especializado está diseñado exactamente para eso.

Además, acabamos de lanzar un programa de certificación con badges en Credly para que tu equipo pueda demostrar sus competencias de forma tangible. Porque en este sector, “sé Ceph” no significa lo mismo para todo el mundo.

Conclusiones para 2026

  1. MinIO está muerto para uso serio. Busca alternativas. Ceph RGW, SeaweedFS, o incluso el fork OpenMaxIO si eres valiente.
  2. Los vendors te venden tu propio software libre con markup. Hay casos donde tiene sentido pagarlo. Hay muchos más donde no.
  3. Ceph upstream está maduro y es production-ready. Bloomberg, DigitalOcean, CERN y 320+ proyectos de telecos no pueden estar todos equivocados.
  4. El verdadero coste del almacenamiento distribuido es el conocimiento. Invierte en formación y soporte técnico de calidad, no en licencias de software que ya es libre.
  5. El control sobre tu infraestructura tiene valor. Pregúntale a los clientes de SUSE SES cómo les fue cuando el vendor decidió abandonar el producto.
  6. La governance del proyecto importa tanto como la tecnología. Fundación > empresa con producto open source.

El 2026 se presenta interesante. FastEC va a cambiar la ecuación de erasure coding. La integración con IA y ML va a seguir presionando por más rendimiento. Y los vendors van a seguir intentando convencerte de que necesitas su empaquetado premium.. con razón o sin ella.

Tú decides. Esto es lo único importante.

SIXE