Den komplette guide til Seedance 2.0: Multimodal AI-videoproduktion fra bunden
Seedance 2.0 er ByteDances multimodale AI-videomodel, der genererer filmisk video fra tekst, billeder, videoklip og lyd. Den tilbyder to oprettelsestilstande, et @-referencesystem til præcis styring af dine filer og nativ lydgenerering — alt i ét workflow. Her er en gennemgang af alle funktioner.
To oprettelsestilstande
Seedance 2.0 har to indgangspunkter, der hver passer til forskellige workflows:
Første/Sidste Frame-tilstand
- Upload ét billede som åbnings- eller afslutningsframe
- Tilføj en tekstbeskrivelse af den ønskede bevægelse og scene
- Bedst til: simple animationer, billede-til-video-konverteringer, hurtige tests
Alt-i-én Reference-tilstand (Anbefalet)
- Kombiner billeder + videoklip + lyd + tekst i en enkelt generering
- Understøtter op til 12 referencefiler samtidigt
- Bedst til: komplekse produktioner med flere filer, musikvideoer, karakterdrevne fortællinger
Inputspecifikationer
| Inputtype | Grænse | Hvad det styrer |
|---|---|---|
| Billeder | Op til 9 | Karakterudseende, scenestil, produktdetaljer |
| Videoklip | Op til 3 (samlet ≤15s) | Kamerabevægelse, handlingsrytme, overgangseffekter |
| Lydfiler | Op til 3 MP3 (samlet ≤15s) | Baggrundsmusik, lydeffekter, voiceover-tone |
| Tekst | Naturligt sprog | Scenebeskrivelse, handlingsinstruktioner, stemning |
Samlet filgrænse: 12 referencefiler pr. generering.
@-referencesystemet
Dette er den vigtigste funktion at lære. @-systemet lader dig tildele en specifik rolle til hver uploadet fil — modellen følger dine tildelinger præcist i stedet for at gætte.
Sådan bruger du @
- Upload dine filer (billeder, videoer, lyd)
- I promptfeltet, skriv @ for at åbne filvælgeren
- Vælg en fil og beskriv dens rolle i genereringen
Eksempel på prompt med @-referencer
@image1 as the opening frame character,
reference @video1 for camera movement (slow push-in to close-up),
use @audio1 for background music,
@image2 as the environment reference.
The character walks toward the camera under warm sunset lighting.
Vigtige regler
- Hver uploadet fil bør eksplicit tildeles med @
- Hold musen over filer for at forhåndsvise og bekræfte, at du refererer til den korrekte fil
- Modellen udfører præcis det, du tildeler — ingen gætterier
Teknikker til promptskrivning
1. Skriv efter tidslinje
Opdel din prompt i tidssegmenter for præcis kontrol:
- 0–3s: "Totalbillede af en byskyline ved daggry, langsom panorering mod højre"
- 4–8s: "Klip til halvtotal, karakter kommer ind fra venstre, gående"
- 9–12s: "Indkørsel til nærbillede af karakterens ansigt, blød baggrundssløring"
2. Brug specifikt kamerasprog
Modellen forstår professionelle filmtermer:
- Push-in / Pull-out — zoom mod eller væk fra motivet
- Pan — horisontal kamerabevægelse
- Tilt — vertikal kamerabevægelse
- Tracking shot — kameraet følger motivets bevægelse
- Orbit — kameraet cirkler rundt om motivet
- One-take — kontinuerligt uafbrudt shot
3. Beskriv overgange
Når du laver sekvenser med flere shots, specificer hvordan scenerne forbindes:
- "Fade fra udendørsscene til indendørs nærbillede"
- "Match cut fra snurrende mønt til snurrende globus"
- "Whip pan-overgang til næste scene"
4. Skeln mellem reference og instruktion
- Reference: "@video1 for camera movement" — modellen udtrækker og replikerer kameraarbejdet
- Instruktion: "slow push-in from wide to close-up" — modellen genererer bevægelsen ud fra din tekstbeskrivelse
Kernefunktioner
Billedkvalitet
- Fysisk korrekt bevægelse (tyngdekraft, stof der falder, væskedynamik)
- Blød, naturlig bevægelse for mennesker og dyr
- Præcis overholdelse af prompten
- Konsekvent visuel stil hele vejen igennem
Multimodal kombination
- Udtræk kamerabevægelse fra en referencevideo
- Udtræk karakterudseende fra referencebilleder
- Udtræk musikalsk rytme fra referencelyd
- Kombiner alle tre i en enkelt generering
Karakterkonsistens
- Bevarelse af ansigt, tøj og udtryk på tværs af shots
- Konsistens i brandelementer (logoer, farver, typografi)
- Konsistens i scenestil (belysning, atmosfære)
Kamera- og bevægelsesreplikering
- Repliker specifikke filmteknikker fra referencevideoer
- Hitchcock-zoom, orbit-tracking, one-take-sekvenser
- Præcis matching af bevægelseshastighed og rytme
Outputspecifikationer
- Varighed: 4–15 sekunder (valgbar)
- Opløsning: Op til 2K / 1080p
- Billedformater: 16:9 (landskab), 9:16 (portræt), 1:1 (kvadratisk)
- Lyd: Nativ — inkluderer dialogsynkronisering, baggrundsmusik, lydeffekter
- Genereringshastighed: ~30 point pr. 15-sekunders video, 10x hurtigere end forrige generation
Vigtige bemærkninger
- Ingen rigtige menneskeansigter — uploads med tydelige rigtige menneskeansigter blokeres af indholdsmoderation
- Kvalitet over kvantitet — upload kun de filer, der har størst indflydelse på dit ønskede resultat
- Bekræft @-tildelinger — hold musen over hver filreference for at bekræfte korrekt filmapping
- Modeltilfældighed — resultater varierer mellem genereringer; generer flere gange og vælg det bedste
- Tilgængelig på: Jimeng (即梦), Doubao (豆包), Volcano Engine (火山引擎)
Ofte stillede spørgsmål
Hvad er de to oprettelsestilstande?
Første/Sidste Frame-tilstand (ét billede + tekst) til simple genereringer, og Alt-i-én Reference-tilstand (op til 12 multimodale filer) til komplekse produktioner.
Hvordan fungerer @-referencesystemet?
Skriv @ i promptfeltet, vælg en uploadet fil, og beskriv dens rolle. Eksempel: "@image1 som karakterreference, @video1 for kamerabevægelse." Modellen følger dine tildelinger præcist.
Hvad er inputbegrænsningerne?
Op til 9 billeder, 3 videoklip (≤15s samlet), 3 lydfiler (≤15s samlet) og tekst. Maksimalt 12 filer pr. generering.
Hvilken output producerer den?
4–15 sekunders video i op til 2K-opløsning med nativ lyd, i formaterne 16:9, 9:16 eller 1:1.
Kan jeg bruge rigtige menneskefotos?
Nej. Uploads med tydelige rigtige menneskeansigter blokeres af indholdsmoderation. Brug stiliserede eller illustrerede karakterreferencer.
Klar til at begynde? Prøv Seedance 2.0 nu — gratis prøveperiode tilgængelig.