Den komplette guiden til Seedance 2.0: Multimodal AI-videoproduksjon fra bunnen av

Seedance 2.0 er ByteDances multimodale AI-videomodell som genererer filmatisk video fra tekst, bilder, videoklipp og lyd. Den tilbyr to opprettelsesmoduser, et @-referansesystem for presis styring av filene dine og nativ lydgenerering — alt i ett arbeidsflyt. Her er en gjennomgang av alle funksjoner.

To opprettelsesmoduser

Seedance 2.0 har to inngangspunkter, som hver passer til ulike arbeidsflyter:

Første/Siste bilde-modus

  • Last opp ett bilde som åpnings- eller avslutningsbilde
  • Legg til en tekstbeskrivelse av ønsket bevegelse og scene
  • Best for: enkle animasjoner, bilde-til-video-konverteringer, raske tester

Alt-i-ett referansemodus (Anbefalt)

  • Kombiner bilder + videoklipp + lyd + tekst i en enkelt generering
  • Støtter opptil 12 referansefiler samtidig
  • Best for: komplekse produksjoner med flere filer, musikkvideoer, karakterdrevne fortellinger

Inndataspesifikasjoner

InndatatypeGrenseHva det styrer
BilderOpptil 9Karakterutseende, scenestil, produktdetaljer
VideoklippOpptil 3 (totalt ≤15s)Kamerabevegelse, handlingsrytme, overgangseffekter
LydfilerOpptil 3 MP3 (totalt ≤15s)Bakgrunnsmusikk, lydeffekter, voiceover-tone
TekstNaturlig språkScenebeskrivelse, handlingsinstruksjoner, stemning

Total filgrense: 12 referansefiler per generering.

@-referansesystemet

Dette er den viktigste funksjonen å lære. @-systemet lar deg tildele en spesifikk rolle til hver opplastede fil — modellen følger tildelingene dine nøyaktig i stedet for å gjette.

Slik bruker du @

  1. Last opp filene dine (bilder, videoer, lyd)
  2. I promptfeltet, skriv @ for å åpne filvelgeren
  3. Velg en fil og beskriv dens rolle i genereringen

Eksempel på prompt med @-referanser

@image1 as the opening frame character,
reference @video1 for camera movement (slow push-in to close-up),
use @audio1 for background music,
@image2 as the environment reference.
The character walks toward the camera under warm sunset lighting.

Viktige regler

  • Hver opplastede fil bør eksplisitt tildeles med @
  • Hold musen over filer for å forhåndsvise og bekrefte at du refererer til riktig fil
  • Modellen utfører nøyaktig det du tildeler — ingen gjetting

Teknikker for promptskriving

1. Skriv etter tidslinje

Del prompten din inn i tidssegmenter for nøyaktig kontroll:

  • 0–3s: "Totalbilde av en bysilhuett ved daggry, langsom panorering mot høyre"
  • 4–8s: "Klipp til halvtotal, karakter kommer inn fra venstre, gående"
  • 9–12s: "Innkjøring til nærbilde av karakterens ansikt, myk bakgrunnsuskarphet"

2. Bruk spesifikt kameraspråk

Modellen forstår profesjonelle filmtermer:

  • Push-in / Pull-out — zoom mot eller bort fra motivet
  • Pan — horisontal kamerabevegelse
  • Tilt — vertikal kamerabevegelse
  • Tracking shot — kameraet følger motivets bevegelse
  • Orbit — kameraet sirkler rundt motivet
  • One-take — kontinuerlig uavbrutt opptak

3. Beskriv overganger

Når du lager sekvenser med flere opptak, spesifiser hvordan scenene kobles sammen:

  • "Fade fra utendørsscene til innendørs nærbilde"
  • "Match cut fra snurrende mynt til snurrende globus"
  • "Whip pan-overgang til neste scene"

4. Skill mellom referanse og instruksjon

  • Referanse: "@video1 for camera movement" — modellen trekker ut og replikerer kameraarbeidet
  • Instruksjon: "slow push-in from wide to close-up" — modellen genererer bevegelsen fra tekstbeskrivelsen din

Kjernefunksjoner

Bildekvalitet

  • Fysisk korrekt bevegelse (tyngdekraft, stoffdrapering, væskedynamikk)
  • Jevn, naturlig bevegelse for mennesker og dyr
  • Presis overholdelse av prompten
  • Konsekvent visuell stil gjennom hele videoen

Multimodal kombinasjon

  • Trekk ut kamerabevegelse fra en referansevideo
  • Trekk ut karakterutseende fra referansebilder
  • Trekk ut musikalsk rytme fra referanselyd
  • Kombiner alle tre i en enkelt generering

Karakterkonsistens

  • Bevaring av ansikt, klær og uttrykk på tvers av opptak
  • Konsistens i merkevareelementer (logoer, farger, typografi)
  • Konsistens i scenestil (belysning, atmosfære)

Kamera- og bevegelsesreplikering

  • Repliker spesifikke filmteknikker fra referansevideoer
  • Hitchcock-zoom, orbit-tracking, one-take-sekvenser
  • Presis matching av bevegelseshastighet og rytme

Outputspesifikasjoner

  • Varighet: 4–15 sekunder (valgbar)
  • Oppløsning: Opptil 2K / 1080p
  • Sideforhold: 16:9 (landskap), 9:16 (portrett), 1:1 (kvadratisk)
  • Lyd: Nativ — inkluderer dialogsynkronisering, bakgrunnsmusikk, lydeffekter
  • Genereringshastighet: ~30 poeng per 15-sekunders video, 10x raskere enn forrige generasjon

Viktige merknader

  • Ingen ekte menneskeansikter — opplastinger med tydelige ekte menneskeansikter blokkeres av innholdsmoderering
  • Kvalitet over kvantitet — last bare opp filene som har størst innvirkning på ønsket resultat
  • Bekreft @-tildelinger — hold musen over hver filreferanse for å bekrefte korrekt filmapping
  • Modelltilfelighet — resultater varierer mellom genereringer; generer flere ganger og velg det beste
  • Tilgjengelig på: Jimeng (即梦), Doubao (豆包), Volcano Engine (火山引擎)

Ofte stilte spørsmål

Hva er de to opprettelsesmodusene?

Første/Siste bilde-modus (ett bilde + tekst) for enkle genereringer, og Alt-i-ett referansemodus (opptil 12 multimodale filer) for komplekse produksjoner.

Hvordan fungerer @-referansesystemet?

Skriv @ i promptfeltet, velg en opplastet fil, og beskriv dens rolle. Eksempel: "@image1 som karakterreferanse, @video1 for kamerabevegelse." Modellen følger tildelingene dine nøyaktig.

Hva er inndatabegrensningene?

Opptil 9 bilder, 3 videoklipp (≤15s totalt), 3 lydfiler (≤15s totalt) og tekst. Maksimalt 12 filer per generering.

Hvilken output produserer den?

4–15 sekunders video i opptil 2K-oppløsning med nativ lyd, i formatene 16:9, 9:16 eller 1:1.

Kan jeg bruke ekte menneskebilder?

Nei. Opplastinger med tydelige ekte menneskeansikter blokkeres av innholdsmoderering. Bruk stiliserte eller illustrerte karakterreferanser.


Klar til å begynne? Prøv Seedance 2.0 nå — gratis prøveperiode tilgjengelig.