Den komplette guide til Seedance 2.0: Multimodal AI-videoproduktion fra bunden

Seedance 2.0 er ByteDances multimodale AI-videomodel, der genererer filmisk video fra tekst, billeder, videoklip og lyd. Den tilbyder to oprettelsestilstande, et @-referencesystem til præcis styring af dine filer og nativ lydgenerering — alt i ét workflow. Her er en gennemgang af alle funktioner.

To oprettelsestilstande

Seedance 2.0 har to indgangspunkter, der hver passer til forskellige workflows:

Første/Sidste Frame-tilstand

  • Upload ét billede som åbnings- eller afslutningsframe
  • Tilføj en tekstbeskrivelse af den ønskede bevægelse og scene
  • Bedst til: simple animationer, billede-til-video-konverteringer, hurtige tests

Alt-i-én Reference-tilstand (Anbefalet)

  • Kombiner billeder + videoklip + lyd + tekst i en enkelt generering
  • Understøtter op til 12 referencefiler samtidigt
  • Bedst til: komplekse produktioner med flere filer, musikvideoer, karakterdrevne fortællinger

Inputspecifikationer

InputtypeGrænseHvad det styrer
BillederOp til 9Karakterudseende, scenestil, produktdetaljer
VideoklipOp til 3 (samlet ≤15s)Kamerabevægelse, handlingsrytme, overgangseffekter
LydfilerOp til 3 MP3 (samlet ≤15s)Baggrundsmusik, lydeffekter, voiceover-tone
TekstNaturligt sprogScenebeskrivelse, handlingsinstruktioner, stemning

Samlet filgrænse: 12 referencefiler pr. generering.

@-referencesystemet

Dette er den vigtigste funktion at lære. @-systemet lader dig tildele en specifik rolle til hver uploadet fil — modellen følger dine tildelinger præcist i stedet for at gætte.

Sådan bruger du @

  1. Upload dine filer (billeder, videoer, lyd)
  2. I promptfeltet, skriv @ for at åbne filvælgeren
  3. Vælg en fil og beskriv dens rolle i genereringen

Eksempel på prompt med @-referencer

@image1 as the opening frame character,
reference @video1 for camera movement (slow push-in to close-up),
use @audio1 for background music,
@image2 as the environment reference.
The character walks toward the camera under warm sunset lighting.

Vigtige regler

  • Hver uploadet fil bør eksplicit tildeles med @
  • Hold musen over filer for at forhåndsvise og bekræfte, at du refererer til den korrekte fil
  • Modellen udfører præcis det, du tildeler — ingen gætterier

Teknikker til promptskrivning

1. Skriv efter tidslinje

Opdel din prompt i tidssegmenter for præcis kontrol:

  • 0–3s: "Totalbillede af en byskyline ved daggry, langsom panorering mod højre"
  • 4–8s: "Klip til halvtotal, karakter kommer ind fra venstre, gående"
  • 9–12s: "Indkørsel til nærbillede af karakterens ansigt, blød baggrundssløring"

2. Brug specifikt kamerasprog

Modellen forstår professionelle filmtermer:

  • Push-in / Pull-out — zoom mod eller væk fra motivet
  • Pan — horisontal kamerabevægelse
  • Tilt — vertikal kamerabevægelse
  • Tracking shot — kameraet følger motivets bevægelse
  • Orbit — kameraet cirkler rundt om motivet
  • One-take — kontinuerligt uafbrudt shot

3. Beskriv overgange

Når du laver sekvenser med flere shots, specificer hvordan scenerne forbindes:

  • "Fade fra udendørsscene til indendørs nærbillede"
  • "Match cut fra snurrende mønt til snurrende globus"
  • "Whip pan-overgang til næste scene"

4. Skeln mellem reference og instruktion

  • Reference: "@video1 for camera movement" — modellen udtrækker og replikerer kameraarbejdet
  • Instruktion: "slow push-in from wide to close-up" — modellen genererer bevægelsen ud fra din tekstbeskrivelse

Kernefunktioner

Billedkvalitet

  • Fysisk korrekt bevægelse (tyngdekraft, stof der falder, væskedynamik)
  • Blød, naturlig bevægelse for mennesker og dyr
  • Præcis overholdelse af prompten
  • Konsekvent visuel stil hele vejen igennem

Multimodal kombination

  • Udtræk kamerabevægelse fra en referencevideo
  • Udtræk karakterudseende fra referencebilleder
  • Udtræk musikalsk rytme fra referencelyd
  • Kombiner alle tre i en enkelt generering

Karakterkonsistens

  • Bevarelse af ansigt, tøj og udtryk på tværs af shots
  • Konsistens i brandelementer (logoer, farver, typografi)
  • Konsistens i scenestil (belysning, atmosfære)

Kamera- og bevægelsesreplikering

  • Repliker specifikke filmteknikker fra referencevideoer
  • Hitchcock-zoom, orbit-tracking, one-take-sekvenser
  • Præcis matching af bevægelseshastighed og rytme

Outputspecifikationer

  • Varighed: 4–15 sekunder (valgbar)
  • Opløsning: Op til 2K / 1080p
  • Billedformater: 16:9 (landskab), 9:16 (portræt), 1:1 (kvadratisk)
  • Lyd: Nativ — inkluderer dialogsynkronisering, baggrundsmusik, lydeffekter
  • Genereringshastighed: ~30 point pr. 15-sekunders video, 10x hurtigere end forrige generation

Vigtige bemærkninger

  • Ingen rigtige menneskeansigter — uploads med tydelige rigtige menneskeansigter blokeres af indholdsmoderation
  • Kvalitet over kvantitet — upload kun de filer, der har størst indflydelse på dit ønskede resultat
  • Bekræft @-tildelinger — hold musen over hver filreference for at bekræfte korrekt filmapping
  • Modeltilfældighed — resultater varierer mellem genereringer; generer flere gange og vælg det bedste
  • Tilgængelig på: Jimeng (即梦), Doubao (豆包), Volcano Engine (火山引擎)

Ofte stillede spørgsmål

Hvad er de to oprettelsestilstande?

Første/Sidste Frame-tilstand (ét billede + tekst) til simple genereringer, og Alt-i-én Reference-tilstand (op til 12 multimodale filer) til komplekse produktioner.

Hvordan fungerer @-referencesystemet?

Skriv @ i promptfeltet, vælg en uploadet fil, og beskriv dens rolle. Eksempel: "@image1 som karakterreference, @video1 for kamerabevægelse." Modellen følger dine tildelinger præcist.

Hvad er inputbegrænsningerne?

Op til 9 billeder, 3 videoklip (≤15s samlet), 3 lydfiler (≤15s samlet) og tekst. Maksimalt 12 filer pr. generering.

Hvilken output producerer den?

4–15 sekunders video i op til 2K-opløsning med nativ lyd, i formaterne 16:9, 9:16 eller 1:1.

Kan jeg bruge rigtige menneskefotos?

Nej. Uploads med tydelige rigtige menneskeansigter blokeres af indholdsmoderation. Brug stiliserede eller illustrerede karakterreferencer.


Klar til at begynde? Prøv Seedance 2.0 nu — gratis prøveperiode tilgængelig.