Historial de Versiones de Seedance: De 1.0 a 2.0 y Más Allá

Seedance pasó de ser un generador de vídeo silencioso al modelo de vídeo IA más capaz del mundo en aproximadamente 8 meses. Este registro de cambios documenta cada versión, los avances técnicos detrás de cada lanzamiento y lo que viene a continuación. Entender la evolución ayuda a explicar por qué Seedance 2.0 es tan capaz como es, y lo que Seedance 2.5 podría traer.

Evolución de un Vistazo

Versión Fecha Titular Principal
1.0Junio-Julio 2025Primera versión — vídeo silencioso, 1080p, 10s máx.
1.5 Pro16 de diciembre de 2025Audio nativo — primer modelo en generar audio + vídeo juntos
2.010 de febrero de 2026Control multimodal — 12 entradas de referencia, 2K, 15s, 90% de éxito
2.5~Mediados 2026 (planificado)4K, generación en tiempo real, narrativas interactivas

Seedance 1.0 (Junio-Julio 2025)

La Base

Seedance 1.0 estableció a ByteDance como un competidor serio en vídeo IA. El paper de investigación ("Seedance 1.0: Exploring the Boundaries of Video Generation Models") fue enviado a arXiv en junio de 2025 por un equipo de 44 investigadores liderados por Yu Gao y Haoyuan Guo.

Arquitectura

  • Diffusion Transformer (DiT) con decodificador Variational Autoencoder (VAE)
  • Curación de datos multi-fuente con subtitulado de vídeo de precisión
  • RLHF (Aprendizaje por Refuerzo con Retroalimentación Humana) afinado específicamente para vídeo
  • ~10x de aceleración de inferencia mediante destilación multi-etapa

Especificaciones

Especificación 1.0 Lite 1.0 Pro
Resolución480p-720p480p-1080p
Duración5-8 segundos5-10 segundos
Tasa de fotogramas24 fps24 fps
AudioNingunoNinguno
EntradaTexto + imagen opcionalTexto + imagen opcional
Multi-tomaBásicoAvanzado
Ideal paraClips sociales, prototipadoNivel cinematográfico, contenido de marca

Capacidades Clave

  • Texto a vídeo e imagen a vídeo básico
  • Generación multi-toma con indicaciones de escena
  • Buena fluidez espacio-temporal
  • Seguimiento complejo de instrucciones con múltiples sujetos

Limitaciones

  • Silencioso — sin ningún tipo de generación de audio
  • Máximo ~10 segundos por clip
  • Solo una imagen de entrada
  • ~20% de tasa de resultados utilizables
  • Artefactos de movimiento en casos límite

Seedance 1.5 Pro (16 de diciembre de 2025)

El Avance del Audio

Seedance 1.5 Pro fue el primer modelo de vídeo IA de la industria en generar audio y vídeo de forma nativa juntos, no como procesos separados unidos en postproducción, sino como una generación unificada. El paper de investigación ("Seedance 1.5 pro: A Native Audio-Visual Joint Generation Foundation Model") marcó un cambio arquitectónico fundamental.

Cambio de Arquitectura

  • MMDiT (Multimodal Diffusion Transformer) — marco unificado para generación audio-visual
  • Dual-Branch Diffusion Transformer generando audio y vídeo simultáneamente
  • RLHF adaptado para contextos audio-vídeo
  • >10x de aceleración de inferencia mantenida desde 1.0

Qué Añadió 1.5 Pro

  • Generación de audio nativo — voces, efectos de sonido, audio ambiental
  • Lip-sync en 8+ idiomas — inglés, chino, japonés, coreano, español, portugués, indonesio + dialectos (cantonés, sichuanés)
  • Cinematografía autónoma — planos secuencia continuos, dolly zooms
  • Mejor comprensión narrativa — mejor análisis de contextos de historia complejos
  • Expresiones faciales sutiles — matices emocionales en primeros planos
  • Corrección de color profesional — transiciones cinematográficas

Qué No Solucionó 1.5 Pro

  • Aún limitado a una sola imagen de entrada
  • Los diálogos con múltiples personajes necesitaban mejoras
  • Escenarios de canto inconsistentes
  • Estabilidad de movimiento en escenas complejas aún limitada

El equipo de ByteDance describió la filosofía: 1.0 se centró en "mejorar el suelo del rendimiento" (estabilidad de movimiento), mientras que 1.5 se centró en "elevar el techo" (impacto visual y efectos de movimiento).

Seedance 2.0 (10 de febrero de 2026)

La Revolución Multimodal

Seedance 2.0 abordó todas las limitaciones de las versiones anteriores simultáneamente. El resultado es el generador de vídeo IA más capaz disponible, y el primero en ofrecer un verdadero control a nivel de director a través de referencias multimodales.

Todo lo Nuevo en 2.0

Función Antes (1.5 Pro) Seedance 2.0
Resolución1080p2K
Duración~10 segundos4-15 segundos (seleccionable)
Entradas de imagen1Hasta 9
Entradas de vídeoNingunaHasta 3
Entradas de audioNingunaHasta 3
Total de referencias1 imagen + textoHasta 12 archivos + texto
Control de referenciasSolo primer fotogramaSistema de etiquetas @ (cualquier rol)
Multi-tomaMejoradoAvanzado con "cambio de lente"
Consistencia de personajesModeradaExcelente
FísicaBuenaExcelente (gravedad, fluidos, telas)
Tasa de éxitoMejorada90%+ utilizable en primer intento
Edición de vídeoNingunaExtender, fusionar, cambiar estilo, intercambiar personaje
Marca de aguaPresenteNinguna

Detalles del Lanzamiento

  • Plataformas iniciales: Jimeng AI (China), Little Skylark / Xiao Yunque (móvil)
  • Expansión: Dreamina / CapCut, Higgsfield, Imagine.Art (finales de febrero de 2026)
  • API: Esperada para finales de febrero de 2026 a través de BytePlus

Incidente de Seguridad

El día del lanzamiento, el investigador de seguridad Pan Tianhong descubrió que Seedance 2.0 incluía una función de clonación de voz que podía generar habla a partir de una sola foto. ByteDance suspendió la función en cuestión de horas. También se implementaron requisitos de verificación en vivo para la creación de avatares.

Para el desglose completo de funciones, consulta la Guía de Seedance 2.0.

Seedance 2.5 (Planificado: Mediados de 2026)

Basándose en las declaraciones públicas de ByteDance e indicaciones de su hoja de ruta, se espera que Seedance 2.5 incluya:

  • Salida en 4K — igualando el techo de resolución de Runway y Veo
  • Generación en tiempo real — tiempo de procesamiento drásticamente reducido
  • Narrativas interactivas — generación de historias con ramificaciones
  • Avatares persistentes — personajes que mantienen su identidad entre sesiones
  • Ecosistema de plugins de terceros — extensibilidad para flujos de trabajo personalizados

Visión a Largo Plazo

El blog oficial de ByteDance describe una hoja de ruta a más largo plazo que incluye:

  • Generación de narrativas extendidas (más allá de 15 segundos)
  • Experiencias en tiempo real en dispositivo
  • Comprensión más profunda de la dinámica del mundo físico
  • Capacidades de percepción multimodal expandidas

Preguntas Frecuentes

P: ¿Qué tan rápido evolucionó Seedance?

R: De 1.0 (junio 2025) a 2.0 (febrero 2026) en aproximadamente 8 meses. El ritmo de mejora es extraordinario incluso para los estándares de la industria de IA.

P: ¿Seedance 1.0 sigue disponible?

R: Sí. Dreamina aún ofrece versiones anteriores de Seedance junto con 2.0. Algunas funciones (Intelligent Multiframe, Main Reference) solo están disponibles en modelos anteriores.

P: ¿Cuándo llega Seedance 2.5?

R: ByteDance ha indicado mediados de 2026 pero no ha confirmado una fecha exacta. Dado su historial (~3-4 meses entre ciclos de lanzamiento), esta línea temporal parece realista.

P: ¿Quién está detrás de Seedance?

R: El equipo Seed de ByteDance, liderado por Wu Yonghui (anteriormente en Google Brain, investigación fundacional del Transformer). Se estima que el equipo tiene ~1.500 personas.

P: ¿Puedo leer los papers de investigación?

R: Sí. Seedance 1.0 (arXiv: 2506.09113) y Seedance 1.5 Pro (arXiv: 2512.13507) están disponibles públicamente en arXiv. El paper de Seedance 2.0 no ha sido publicado a fecha de febrero de 2026.

Empieza a usar la última versión: Guía de Seedance 2.0 | Guía de Prompts | Precios y Acceso