Den komplette guiden til Seedance 2.0: Multimodal AI-videoproduksjon fra bunnen av
Seedance 2.0 er ByteDances multimodale AI-videomodell som genererer filmatisk video fra tekst, bilder, videoklipp og lyd. Den tilbyr to opprettelsesmoduser, et @-referansesystem for presis styring av filene dine og nativ lydgenerering — alt i ett arbeidsflyt. Her er en gjennomgang av alle funksjoner.
To opprettelsesmoduser
Seedance 2.0 har to inngangspunkter, som hver passer til ulike arbeidsflyter:
Første/Siste bilde-modus
- Last opp ett bilde som åpnings- eller avslutningsbilde
- Legg til en tekstbeskrivelse av ønsket bevegelse og scene
- Best for: enkle animasjoner, bilde-til-video-konverteringer, raske tester
Alt-i-ett referansemodus (Anbefalt)
- Kombiner bilder + videoklipp + lyd + tekst i en enkelt generering
- Støtter opptil 12 referansefiler samtidig
- Best for: komplekse produksjoner med flere filer, musikkvideoer, karakterdrevne fortellinger
Inndataspesifikasjoner
| Inndatatype | Grense | Hva det styrer |
|---|---|---|
| Bilder | Opptil 9 | Karakterutseende, scenestil, produktdetaljer |
| Videoklipp | Opptil 3 (totalt ≤15s) | Kamerabevegelse, handlingsrytme, overgangseffekter |
| Lydfiler | Opptil 3 MP3 (totalt ≤15s) | Bakgrunnsmusikk, lydeffekter, voiceover-tone |
| Tekst | Naturlig språk | Scenebeskrivelse, handlingsinstruksjoner, stemning |
Total filgrense: 12 referansefiler per generering.
@-referansesystemet
Dette er den viktigste funksjonen å lære. @-systemet lar deg tildele en spesifikk rolle til hver opplastede fil — modellen følger tildelingene dine nøyaktig i stedet for å gjette.
Slik bruker du @
- Last opp filene dine (bilder, videoer, lyd)
- I promptfeltet, skriv @ for å åpne filvelgeren
- Velg en fil og beskriv dens rolle i genereringen
Eksempel på prompt med @-referanser
@image1 as the opening frame character,
reference @video1 for camera movement (slow push-in to close-up),
use @audio1 for background music,
@image2 as the environment reference.
The character walks toward the camera under warm sunset lighting.
Viktige regler
- Hver opplastede fil bør eksplisitt tildeles med @
- Hold musen over filer for å forhåndsvise og bekrefte at du refererer til riktig fil
- Modellen utfører nøyaktig det du tildeler — ingen gjetting
Teknikker for promptskriving
1. Skriv etter tidslinje
Del prompten din inn i tidssegmenter for nøyaktig kontroll:
- 0–3s: "Totalbilde av en bysilhuett ved daggry, langsom panorering mot høyre"
- 4–8s: "Klipp til halvtotal, karakter kommer inn fra venstre, gående"
- 9–12s: "Innkjøring til nærbilde av karakterens ansikt, myk bakgrunnsuskarphet"
2. Bruk spesifikt kameraspråk
Modellen forstår profesjonelle filmtermer:
- Push-in / Pull-out — zoom mot eller bort fra motivet
- Pan — horisontal kamerabevegelse
- Tilt — vertikal kamerabevegelse
- Tracking shot — kameraet følger motivets bevegelse
- Orbit — kameraet sirkler rundt motivet
- One-take — kontinuerlig uavbrutt opptak
3. Beskriv overganger
Når du lager sekvenser med flere opptak, spesifiser hvordan scenene kobles sammen:
- "Fade fra utendørsscene til innendørs nærbilde"
- "Match cut fra snurrende mynt til snurrende globus"
- "Whip pan-overgang til neste scene"
4. Skill mellom referanse og instruksjon
- Referanse: "@video1 for camera movement" — modellen trekker ut og replikerer kameraarbeidet
- Instruksjon: "slow push-in from wide to close-up" — modellen genererer bevegelsen fra tekstbeskrivelsen din
Kjernefunksjoner
Bildekvalitet
- Fysisk korrekt bevegelse (tyngdekraft, stoffdrapering, væskedynamikk)
- Jevn, naturlig bevegelse for mennesker og dyr
- Presis overholdelse av prompten
- Konsekvent visuell stil gjennom hele videoen
Multimodal kombinasjon
- Trekk ut kamerabevegelse fra en referansevideo
- Trekk ut karakterutseende fra referansebilder
- Trekk ut musikalsk rytme fra referanselyd
- Kombiner alle tre i en enkelt generering
Karakterkonsistens
- Bevaring av ansikt, klær og uttrykk på tvers av opptak
- Konsistens i merkevareelementer (logoer, farger, typografi)
- Konsistens i scenestil (belysning, atmosfære)
Kamera- og bevegelsesreplikering
- Repliker spesifikke filmteknikker fra referansevideoer
- Hitchcock-zoom, orbit-tracking, one-take-sekvenser
- Presis matching av bevegelseshastighet og rytme
Outputspesifikasjoner
- Varighet: 4–15 sekunder (valgbar)
- Oppløsning: Opptil 2K / 1080p
- Sideforhold: 16:9 (landskap), 9:16 (portrett), 1:1 (kvadratisk)
- Lyd: Nativ — inkluderer dialogsynkronisering, bakgrunnsmusikk, lydeffekter
- Genereringshastighet: ~30 poeng per 15-sekunders video, 10x raskere enn forrige generasjon
Viktige merknader
- Ingen ekte menneskeansikter — opplastinger med tydelige ekte menneskeansikter blokkeres av innholdsmoderering
- Kvalitet over kvantitet — last bare opp filene som har størst innvirkning på ønsket resultat
- Bekreft @-tildelinger — hold musen over hver filreferanse for å bekrefte korrekt filmapping
- Modelltilfelighet — resultater varierer mellom genereringer; generer flere ganger og velg det beste
- Tilgjengelig på: Jimeng (即梦), Doubao (豆包), Volcano Engine (火山引擎)
Ofte stilte spørsmål
Hva er de to opprettelsesmodusene?
Første/Siste bilde-modus (ett bilde + tekst) for enkle genereringer, og Alt-i-ett referansemodus (opptil 12 multimodale filer) for komplekse produksjoner.
Hvordan fungerer @-referansesystemet?
Skriv @ i promptfeltet, velg en opplastet fil, og beskriv dens rolle. Eksempel: "@image1 som karakterreferanse, @video1 for kamerabevegelse." Modellen følger tildelingene dine nøyaktig.
Hva er inndatabegrensningene?
Opptil 9 bilder, 3 videoklipp (≤15s totalt), 3 lydfiler (≤15s totalt) og tekst. Maksimalt 12 filer per generering.
Hvilken output produserer den?
4–15 sekunders video i opptil 2K-oppløsning med nativ lyd, i formatene 16:9, 9:16 eller 1:1.
Kan jeg bruke ekte menneskebilder?
Nei. Opplastinger med tydelige ekte menneskeansikter blokkeres av innholdsmoderering. Bruk stiliserte eller illustrerte karakterreferanser.
Klar til å begynne? Prøv Seedance 2.0 nå — gratis prøveperiode tilgjengelig.