🤖 AI/ML

Sora

OpenAI Sora

OpenAI의 텍스트-비디오 생성 AI 모델. 최대 20초 1080p 비디오 생성. Sora 2는 동기화된 오디오와 사실적 물리 시뮬레이션 지원.

📖 상세 설명

Sora는 OpenAI가 개발한 텍스트-비디오 생성 AI 모델입니다. 텍스트 프롬프트만으로 최대 20초 길이의 고화질 비디오를 생성하며, 이미지 애니메이션, 비디오 확장, 스타일 변환 등 다양한 기능을 제공합니다. 2024년 2월 처음 공개되었고, 2024년 12월 Sora 2가 정식 출시되었습니다.

기술적으로 Sora는 Diffusion Transformer 아키텍처를 사용합니다. 비디오를 시공간 패치(spacetime patches)로 분해하여 처리하며, DALL-E 3의 이미지 생성 기술과 GPT의 언어 이해 능력을 결합했습니다. 물리 법칙을 학습하여 중력, 충돌, 유체 역학 등을 사실적으로 표현합니다.

Sora 2의 핵심 개선점은 동기화된 대화와 사운드 효과입니다. 캐릭터의 입 모양이 음성과 일치하고, 발걸음 소리나 환경 사운드가 자동 생성됩니다. 또한 물리적 정확성이 크게 향상되어 손가락 개수, 물체 영속성, 반사 등의 문제가 대폭 개선되었습니다.

영화 예고편, 광고, 소셜 미디어 콘텐츠, 교육 자료 등 다양한 분야에서 활용됩니다. 다만 딥페이크 우려로 C2PA 표준 워터마크가 기본 적용되며, 폭력/성인 콘텐츠 생성은 차단됩니다. API로도 제공되어 앱에 비디오 생성 기능을 통합할 수 있습니다.

💻 코드 예제

# OpenAI Sora 2 API 사용 예제 (2025년 1월 기준)
from openai import OpenAI

client = OpenAI()

# 1. 텍스트로 비디오 생성
response = client.videos.create(
    model="sora-2",
    prompt="""
    A golden retriever puppy running through a sunlit meadow,
    wildflowers blooming, slow motion, cinematic lighting,
    shallow depth of field, 4K quality
    """,
    duration=10,        # 최대 10초 (API), 20초 (웹 인터페이스)
    resolution="720p",  # 720p 또는 1080p
    aspect_ratio="16:9" # 16:9, 9:16, 1:1 지원
)

video_url = response.video_url
print(f"생성된 비디오: {video_url}")

# 2. 이미지를 비디오로 애니메이션화
response = client.videos.create(
    model="sora-2",
    image="https://example.com/landscape.jpg",
    prompt="Camera slowly pans across the landscape, clouds moving",
    duration=5
)

# 3. 비디오 연장 (Extend)
response = client.videos.extend(
    model="sora-2",
    video_id="vid_abc123",
    prompt="The character walks toward the sunset",
    extend_seconds=5
)

# 4. 스토리보드 모드 (여러 장면 연결)
scenes = [
    {"prompt": "A rocket launches from a desert launchpad", "duration": 3},
    {"prompt": "The rocket breaks through clouds", "duration": 2},
    {"prompt": "Earth visible from space", "duration": 5}
]

response = client.videos.create(
    model="sora-2-pro",
    storyboard=scenes,
    resolution="1080p"
)

# 비용 계산 예시
# sora-2: $0.10/초 (720p) → 10초 영상 = $1.00
# sora-2-pro: $0.30/초 (720p), $0.50/초 (1080p)

📊 성능 & 비용

2025년 1월 기준 OpenAI Sora 구독 및 API 가격입니다.

플랜 가격 크레딧 기능
ChatGPT Plus $20/월 1,000 크레딧 5초 720p, 워터마크
ChatGPT Pro $200/월 10,000 크레딧 16초 1080p, 워터마크 없음

API 가격 (초당)

모델 720p 1080p 특징
sora-2 $0.10/초 - 기본 품질, 테스트용
sora-2-pro $0.30/초 $0.50/초 고품질, 상업용

비용 예시: 10초 720p 영상 = sora-2 $1.00, sora-2-pro $3.00. 서드파티 API(비공식)는 60% 저렴하지만 안정성이 낮습니다.

🗣️ 실무에서 이렇게 말하세요

💬 마케팅팀 회의에서
"SNS 광고 영상을 Sora로 만들면 촬영비 없이 다양한 버전을 테스트할 수 있어요. 10초 영상이 $1 정도니까 A/B 테스트 10개 해도 $10입니다. 최종 선택된 콘셉트만 실제 촬영하면 비용이 확 줄어요."
💬 면접에서
"Sora는 Diffusion Transformer 아키텍처로, 비디오를 시공간 패치로 처리합니다. 기존 GAN 기반 비디오 생성보다 일관성이 뛰어나고, 물리 법칙을 학습해서 중력이나 반사가 자연스럽습니다. DALL-E 3와 GPT 기술이 결합된 거죠."
💬 콘텐츠 제작 논의에서
"Sora 2 Pro로 16초 1080p 영상 만들면 약 $8 정도예요. 스토리보드 모드로 여러 장면 연결하면 1분짜리 시퀀스도 가능하고요. 다만 C2PA 워터마크가 들어가니 공식 콘텐츠로 쓰려면 Pro 플랜 필요합니다."

⚠️ 흔한 실수 & 주의사항

실존 인물/브랜드를 프롬프트에 포함

"Elon Musk가 춤추는 영상"처럼 실존 인물을 지정하면 생성이 차단됩니다. 저작권/초상권 문제로 유명인, 브랜드 로고는 사용 불가합니다.

너무 복잡한 프롬프트로 일관성 저하

한 프롬프트에 너무 많은 요소를 넣으면 물체가 사라지거나 변형됩니다. 핵심 요소 3-4개로 제한하고, 복잡한 시나리오는 스토리보드 모드로 분할하세요.

올바른 방법

구체적이지만 간결한 프롬프트를 작성하세요. "cinematic lighting, shallow depth of field" 같은 스타일 지시어를 추가하면 품질이 향상됩니다. 먼저 짧은 영상으로 테스트 후 확장하세요.

🔗 관련 용어

📚 더 배우기