seedance시댄스GPTGPT이미지AI영상댄스안무프롬프트

GPT 이미지 + 시댄스 2.0으로 춤추는 영상 만드는 법

GPT 이미지로 안무 스토리보드를 만들고 시댄스 2.0으로 춤추는 영상을 생성하는 프롬프트 5개. 복사해서 바로 사용 가능합니다.

Kyuhee JoKyuhee Jo
2026년 4월 30일5개 프롬프트

"시댄스로 춤추는 영상 만들어봐" — 해본 사람은 알아요. 캐릭터가 그냥 서 있거나, 팔만 어색하게 흔들거나, 아예 다른 사람이 되어버리죠.

저희가 찾은 해결법은 GPT 이미지로 안무 스토리보드를 먼저 그리고, 그 이미지를 시댄스에 레퍼런스로 넣는 방식이에요. 16단계 안무를 패널로 쪼개서 GPT에게 그리게 하고, 시댄스가 그 순서대로 움직이게 하면 놀라울 정도로 정확한 댄스 영상이 나와요. 아래 5개 프롬프트로 실제 워크플로우를 보여드릴게요.


1. 안무 설계도 — 16단계 동작 시퀀스

scenic.sh에서 전체 프롬프트 보기 →

"1. Basic Stance — Stand with your feet shoulder-width apart. Relax your knees. Keep your upper body relaxed. Get ready. 2. Step to the Right — Step to the right. Move your body in the direction of the step. Keep your knees soft... 14. Freeze Pose — Hit a strong pose on the beat. Freeze your body momentarily. Create a powerful shape. 15. Finishing Pose — Finish the dance gracefully... Image 1 as the storyboard sequence reference. Follow the 16 panels in order as a single 15-second animated short"

이 프롬프트가 강한 이유: 전체 워크플로우의 출발점이에요. 16단계를 각각 3~4줄로 쪼개서 쓰면 GPT 이미지가 패널별로 명확한 포즈를 그려줘요. "Basic Stance → Step Right → Step Left → Body Wave → Hip Sway"처럼 동작 난이도가 점진적으로 올라가는 구조예요. 시댄스는 이 패널들을 시간 축 위에 순서대로 배치해서 자연스러운 흐름을 만들어요.

핵심은 마지막 줄이에요. "Follow the 16 panels in order as a single 15-second animated short"가 GPT 이미지가 만든 스토리보드를 시댄스의 타임라인으로 직접 연결해줘요. 이 지시 없이 이미지만 넣으면 시댄스가 첫 번째 패널만 참조하거나 순서를 무시할 수 있어요.


2. 스트리트 댄스 영상 — 시네마틱 풀바디 원테이크

scenic.sh에서 전체 프롬프트 보기 →

"Street Dance Choreography Video (16-Step Sequence) [VISUAL STYLE] Realistic full-color cinematic look. Natural lighting with soft daylight tones, subtle shadows, and a clean, modern street aesthetic. [SETTING] An empty urban street, minimal, clean surroundings with no crowd, no vehicles... [CHARACTER CONSISTENCY] Use image1 as the base identity. The same female dancer appears throughout... [VIDEO STRUCTURE] One continuous shot (no cuts) Full-body framing, camera fixed and centered..."

이 프롬프트가 강한 이유: 섹션 태그 구조예요. [VISUAL STYLE], [SETTING], [CHARACTER CONSISTENCY], [VIDEO STRUCTURE]처럼 대괄호로 카테고리를 분리하면 시댄스가 각 지시를 독립적으로 처리해요. 특히 [CHARACTER CONSISTENCY]에서 "Use image1 as the base identity"가 GPT 이미지로 만든 캐릭터의 얼굴과 체형을 영상 전체에 고정시켜요.

"One continuous shot (no cuts)"와 "camera fixed and centered"의 조합이 댄스 영상에서 결정적이에요. 카메라가 움직이면 시댄스가 동작보다 카메라 모션에 연산을 쏟아서 안무 정확도가 떨어져요. 카메라를 고정하고 풀바디 프레이밍을 잡으면 시댄스가 동작 자체에 집중해서 발 디딤, 무게 이동, 팔 동선이 훨씬 정확해져요.


3. 동일 안무, 다른 설정 — 스커트 물리 시뮬레이션

scenic.sh에서 전체 프롬프트 보기 →

"... [OUTFIT] A stylish fitted top paired with a slightly longer skirt that covers the thighs and extends just above the knees. The skirt should move naturally with the dance, subtle flow during spins and steps. [PHYSICS & REALISM] Cloth physics for skirt movement (gentle sway and rotation response) Natural body mechanics and timing Lighting interacts realistically with the character and ground..."

이 프롬프트가 강한 이유: 같은 16단계 안무를 쓰면서 [OUTFIT]과 [PHYSICS & REALISM]을 추가했어요. 의상 묘사에서 "slightly longer skirt that covers the thighs"처럼 길이와 위치를 구체적으로 지정하면 시댄스가 천의 무게와 관성을 계산해요. "Cloth physics for skirt movement (gentle sway and rotation response)"는 회전할 때 스커트가 얼마나 벌어지는지, 정지할 때 얼마나 빨리 가라앉는지를 결정해요.

이 프롬프트와 2번을 비교하면 같은 안무에 의상과 물리 설정만 바꿔서 완전히 다른 분위기의 영상을 만들 수 있다는 걸 보여줘요. GPT 이미지로 만든 레퍼런스에서 캐릭터 의상을 바꿔 생성하고, 시댄스 프롬프트에서 물리 속성을 추가하는 2단계 변주가 핵심이에요.


4. 멀티모달 입력 — 이미지 + 오디오 동시 투입

scenic.sh에서 전체 프롬프트 보기 →

"Create img2 that follows the exact sequence and movements from steps 1–16 shown in img1. The music should be aud1. There should be no dialogue, text, or narration."

이 프롬프트가 강한 이유: 프롬프트가 두 줄이에요. 길이가 짧은 게 핵심이 아니라, 입력을 텍스트가 아니라 파일로 넘기는 전략이에요. img1에 GPT 이미지로 만든 16단계 스토리보드, aud1에 음악 파일을 넣으면 시댄스가 시각적 시퀀스와 오디오 비트를 동시에 참조해서 영상을 만들어요.

"follows the exact sequence and movements from steps 1–16 shown in img1"이 텍스트 안무 설명을 대체해요. 긴 텍스트 프롬프트를 쓸수록 시댄스가 해석해야 할 정보가 늘어나서 오류 가능성이 커지는데, 이미지로 동작을 보여주면 텍스트 파싱 오류 없이 바로 동작을 복제해요. 이 방식은 특히 복잡한 안무에서 텍스트 프롬프트보다 정확도가 높아요.


5. 최소 프롬프트 — 레퍼런스 이미지 하나로 시작하기

scenic.sh에서 전체 프롬프트 보기 →

"Create a seamless 15-second dance choreography video based on the uploaded reference image. Use the female dancer from the reference image as the main character"

이 프롬프트가 강한 이유: 이건 시작점이에요. GPT 이미지로 댄서 캐릭터 한 명을 생성하고, 그 이미지만 넣어서 "15-second dance choreography"를 요청하는 가장 심플한 형태예요. 안무 디테일을 시댄스에게 맡기는 대신 캐릭터 일관성만 확보하는 전략이에요.

위의 1~4번을 보기 전에 이걸 먼저 테스트해보세요. 레퍼런스 이미지의 품질이 결과를 80% 결정해요. GPT 이미지에서 전신이 선명하고, 포즈가 자연스럽고, 배경이 깔끔한 이미지를 뽑는 게 첫 번째 단계예요. 여기서 만족스러운 결과가 나오면 2번처럼 섹션 태그를 추가하고, 1번처럼 안무 시퀀스를 설계해서 디테일을 올리면 돼요.


GPT 이미지 + 시댄스 워크플로우 정리

  1. GPT 이미지로 캐릭터 생성 — 전신, 선명한 얼굴, 깔끔한 배경
  2. 안무 스토리보드 제작 — 16단계 동작을 GPT 이미지로 패널화
  3. 시댄스에 레퍼런스 투입 — 이미지 + 섹션 태그 프롬프트 조합
  4. 의상/물리 변주 — 같은 안무로 다른 분위기 실험
  5. 오디오 추가 — 음악 파일로 비트 싱크

GPT 이미지가 "어떻게 생겼는지"를 정하고, 시댄스가 "어떻게 움직이는지"를 정해요. 두 도구를 분리해서 쓰면 각자 잘하는 걸 하게 되니까 결과가 훨씬 좋아져요. scenic.sh에서 위 프롬프트들을 바로 복사해서 실험해보세요.

더 많은 프롬프트를 찾고 계신가요?

scenic.sh에서 수백 개의 시댄스 2.0 프롬프트와 결과 영상을 확인하세요. 한국어 해석도 있어요.

프롬프트 둘러보기