본문으로 건너뛰기

플러그인 구성

모델 구성

표준 모델 구성

Create Runtime Viseme Generator 노드는 대부분의 시나리오에 잘 작동하는 기본 설정을 사용합니다. 구성은 애니메이션 블루프린트 블렌딩 노드 속성을 통해 처리됩니다.

애니메이션 블루프린트 구성 옵션에 대해서는 아래 Lip Sync 구성 섹션을 참조하세요.

사실적 모델 구성

Create Realistic MetaHuman Lip Sync Generator 노드는 생성기의 동작을 사용자 정의할 수 있는 선택적 Configuration 매개변수를 허용합니다:

모델 유형

Model Type 설정은 사용할 사실적 모델의 버전을 결정합니다:

모델 유형성능시각적 품질노이즈 처리권장 사용 사례
Highly Optimized (기본값)최고 성능, 최저 CPU 사용량양호한 품질배경 노이즈 또는 비음성 소리에서 눈에 띄는 입 움직임이 나타날 수 있음깨끗한 오디오 환경, 성능이 중요한 시나리오
Semi-Optimized좋은 성능, 중간 정도의 CPU 사용량높은 품질노이즈가 있는 오디오에서 더 나은 안정성균형 잡힌 성능과 품질, 혼합된 오디오 조건
Original최신 CPU에서 실시간 사용에 적합최고 품질배경 노이즈 및 비음성 소리에서 가장 안정적고품질 프로덕션, 노이즈가 있는 오디오 환경, 최대 정확도가 필요할 때

성능 설정

Intra Op Threads: 내부 모델 처리 작업에 사용되는 스레드 수를 제어합니다.

  • 0 (기본값/자동): 자동 감지 사용 (일반적으로 사용 가능한 CPU 코어의 1/4, 최대 4개)
  • 1-16: 수동으로 스레드 수 지정. 값이 높을수록 멀티 코어 시스템에서 성능이 향상될 수 있지만 더 많은 CPU를 사용함

Inter Op Threads: 서로 다른 모델 작업의 병렬 실행에 사용되는 스레드 수를 제어합니다.

  • 0 (기본값/자동): 자동 감지 사용 (일반적으로 사용 가능한 CPU 코어의 1/8, 최대 2개)
  • 1-8: 수동으로 스레드 수 지정. 실시간 처리에는 일반적으로 낮게 유지됨

처리 청크 크기

Processing Chunk Size는 각 추론 단계에서 처리되는 샘플 수를 결정합니다. 기본값은 160 샘플 (16kHz에서 10ms 오디오)입니다:

  • 작은 값은 더 빈번한 업데이트를 제공하지만 CPU 사용량을 증가시킵니다
  • 큰 값은 CPU 부하를 줄이지만 립 싱크 응답성이 감소할 수 있습니다
  • 최적의 정렬을 위해 160의 배수를 사용하는 것이 권장됩니다

처리 청크 크기 설정

무드 지원 모델 구성

Create Realistic MetaHuman Lip Sync With Mood Generator 노드는 기본 사실적 모델을 넘어서는 추가 구성 옵션을 제공합니다:

기본 구성

Lookahead Ms: 향상된 립 싱크 정확도를 위한 룩어헤드 타이밍(밀리초 단위).

  • 기본값: 80ms
  • 범위: 20ms ~ 200ms (20으로 나누어 떨어져야 함)
  • 값이 높을수록 동기화는 더 좋아지지만 지연 시간이 증가합니다.

Output Type: 생성되는 얼굴 컨트롤을 지정합니다.

  • Full Face: 모든 81개의 얼굴 컨트롤(눈썹, 눈, 코, 입, 턱, 혀)
  • Mouth Only: 입, 턱, 혀 관련 컨트롤만

Performance Settings: 일반 리얼리틱 모델과 동일한 Intra Op Threads 및 Inter Op Threads 설정을 사용합니다.

무드 설정

사용 가능한 무드:

  • Neutral, Happy, Sad, Disgust, Anger, Surprise, Fear
  • Confident, Excited, Bored, Playful, Confused

Mood Intensity: 무드가 애니메이션에 영향을 미치는 강도를 조절합니다 (0.0 ~ 1.0)

런타임 무드 제어

런타임 중 다음 함수들을 사용하여 무드 설정을 조정할 수 있습니다:

  • Set Mood: 현재 무드 유형 변경
  • Set Mood Intensity: 무드가 애니메이션에 영향을 미치는 강도 조절 (0.0 ~ 1.0)
  • Set Lookahead Ms: 동기화를 위한 룩어헤드 타이밍 수정
  • Set Output Type: Full Face와 Mouth Only 컨트롤 간 전환

무드 구성

무드 선택 가이드

콘텐츠에 따라 적절한 무드를 선택하세요:

무드최적 사용처일반적인 강도 범위
Neutral일반 대화, 내레이션, 기본 상태0.5 - 1.0
Happy긍정적인 콘텐츠, 유쾌한 대화, 축하 장면0.6 - 1.0
Sad우울한 콘텐츠, 감정적인 장면, 슬픈 순간0.5 - 0.9
Disgust부정적인 반응, 혐오스러운 콘텐츠, 거부 표현0.4 - 0.8
Anger공격적인 대화, 대립 장면, 좌절 표현0.6 - 1.0
Surprise예기치 않은 사건, 폭로, 충격 반응0.7 - 1.0
Fear위협적인 상황, 불안, 긴장된 대화0.5 - 0.9
Confident전문적인 발표, 리더십 대화, 주장적인 발언0.7 - 1.0
Excited활기찬 콘텐츠, 발표, 열정적인 대화0.8 - 1.0
Bored단조로운 콘텐츠, 무관심한 대화, 지친 발화0.3 - 0.7
Playful캐주얼 대화, 유머, 가벼운 상호작용0.6 - 0.9
Confused질문이 많은 대화, 불확실함, 당혹감 표현0.4 - 0.8

애니메이션 블루프린트 구성

립 싱크 구성

Blend Runtime MetaHuman Lip Sync 노드는 속성 패널에 구성 옵션이 있습니다:

속성기본값설명
보간 속도25입술 움직임이 비제임 사이를 전환하는 속도를 제어합니다. 값이 높을수록 더 빠르고 갑작스러운 전환이 일어납니다.
재설정 시간0.2립싱크가 재설정되기까지의 지속 시간(초)입니다. 오디오가 중단된 후에도 립싱크가 계속되는 것을 방지하는 데 유용합니다.

웃음 애니메이션

오디오에서 감지된 웃음에 동적으로 반응하는 웃음 애니메이션도 추가할 수 있습니다:

  1. Blend Runtime MetaHuman Laughter 노드를 추가합니다
  2. RuntimeVisemeGenerator 변수를 Viseme Generator 핀에 연결합니다
  3. 립싱크를 이미 사용 중인 경우:
    • Blend Runtime MetaHuman Lip Sync 노드의 출력을 Blend Runtime MetaHuman Laughter 노드의 Source Pose에 연결합니다
    • Blend Runtime MetaHuman Laughter 노드의 출력을 Output PoseResult 핀에 연결합니다
  4. 립싱크 없이 웃음만 사용하는 경우:
    • 소스 포즈를 직접 Blend Runtime MetaHuman Laughter 노드의 Source Pose에 연결합니다
    • 출력을 Result 핀에 연결합니다

Blend Runtime MetaHuman Laughter

오디오에서 웃음이 감지되면 캐릭터가 그에 따라 동적으로 애니메이션됩니다:

Laughter

웃음 구성

Blend Runtime MetaHuman Laughter 노드에는 자체 구성 옵션이 있습니다:

속성기본값설명
보간 속도25웃음 애니메이션 사이에서 입 움직임이 전환되는 속도를 제어합니다. 값이 높을수록 더 빠르고 갑작스러운 전환이 일어납니다.
재설정 시간0.2웃음이 재설정되기까지의 지속 시간(초)입니다. 오디오가 중단된 후에도 웃음이 계속되는 것을 방지하는 데 유용합니다.
최대 웃음 가중치0.7웃음 애니메이션의 최대 강도를 조절합니다 (0.0 - 1.0).

참고: 웃음 감지는 현재 Standard Model에서만 사용 가능합니다.

기존 애니메이션과 결합

립싱크와 웃음을 기존 바디 애니메이션 및 사용자 정의 얼굴 애니메이션과 함께 적용하면서 이를 덮어쓰지 않으려면:

  1. 바디 애니메이션과 최종 출력 사이에 Layered blend per bone 노드를 추가합니다. Use Attached Parent가 true인지 확인하세요.
  2. 레이어 설정을 구성합니다:
    • Layer Setup 배열에 1개의 항목을 추가합니다
    • 레이어의 Branch Filters3개의 항목을 추가하고, 다음과 같은 Bone Name을 지정합니다:
      • FACIAL_C_FacialRoot
      • FACIAL_C_Neck2Root
      • FACIAL_C_Neck1Root
  3. 사용자 정의 얼굴 애니메이션에 중요: Curve Blend Option에서 "Use Max Value" 를 선택합니다. 이렇게 하면 사용자 정의 얼굴 애니메이션(표정, 감정 등)이 립싱크 위에 제대로 레이어될 수 있습니다.
  4. 연결을 만듭니다:
    • 기존 애니메이션(예: BodyPose) → Base Pose 입력
    • 얼굴 애니메이션 출력(립싱크 및/또는 웃음 노드에서) → Blend Poses 0 입력
    • Layered blend 노드 → 최종 Result 포즈

Layered Blend Per Bone

립싱크 동작 미세 조정

혀 내밀기 제어

표준 립싱크 모델에서는 특정 포네임(phoneme) 동안 지나친 혀의 전방 이동이 관찰될 수 있습니다. 혀의 돌출을 제어하려면:

  1. 립싱크 블렌드 노드 뒤에 Modify Curve 노드를 추가하세요
  2. Modify Curve 노드를 우클릭하고 Add Curve Pin을 선택하세요
  3. CTRL_expressions_tongueOut이라는 이름의 커브 핀을 추가하세요
  4. 노드의 Apply Mode 속성을 Scale로 설정하세요
  5. Value 매개변수를 조정하여 혀의 확장을 제어하세요 (예: 0.8은 돌출을 20% 감소시킵니다)

턱 벌림 제어

리얼리스틱 립싱크는 오디오 콘텐츠와 시각적 요구사항에 따라 지나치게 반응적인 턱 움직임을 생성할 수 있습니다. 턱 벌림 강도를 조정하려면:

  1. 립싱크 블렌드 노드 뒤에 Modify Curve 노드를 추가하세요
  2. Modify Curve 노드를 우클릭하고 Add Curve Pin을 선택하세요
  3. CTRL_expressions_jawOpen이라는 이름의 커브 핀을 추가하세요
  4. 노드의 Apply Mode 속성을 Scale로 설정하세요
  5. Value 매개변수를 조정하여 턱 벌림 범위를 제어하세요 (예: 0.9는 턱 움직임을 10% 감소시킵니다)

기분별 미세 조정

기능(mood)이 활성화된 모델의 경우 특정 감정 표현을 미세 조정할 수 있습니다:

눈썹 제어:

  • CTRL_expressions_browRaiseInL / CTRL_expressions_browRaiseInR - 안쪽 눈썹 올리기
  • CTRL_expressions_browRaiseOuterL / CTRL_expressions_browRaiseOuterR - 바깥쪽 눈썹 올리기
  • CTRL_expressions_browDownL / CTRL_expressions_browDownR - 눈썹 내리기

눈 표현 제어:

  • CTRL_expressions_eyeSquintInnerL / CTRL_expressions_eyeSquintInnerR - 눈 가늘게 뜨기
  • CTRL_expressions_eyeCheekRaiseL / CTRL_expressions_eyeCheekRaiseR - 볼 올리기

모델 비교 및 선택

모델 선택 방법

프로젝트에 사용할 립싱크 모델을 결정할 때 다음 요소들을 고려하세요:

고려 사항표준 모델리얼리스틱 모델기분 활성화 리얼리스틱 모델
캐릭터 호환성MetaHumans 및 모든 커스텀 캐릭터 유형MetaHumans 전용MetaHumans 전용
시각적 품질효율적인 성능의 좋은 립싱크더 자연스러운 입 움직임으로 향상된 현실감감정 표현이 포함된 향상된 현실감
성능모바일/VR을 포함한 모든 플랫폼에 최적화더 높은 리소스 요구사항더 높은 리소스 요구사항
기능14개의 비제임(viseme), 웃음 감지81개의 얼굴 제어, 3가지 최적화 수준81개의 얼굴 제어, 12가지 기분, 구성 가능한 출력
플랫폼 지원Windows, Android, QuestWindows, Mac, iOS, LinuxWindows, Mac, iOS, Linux
사용 사례일반 애플리케이션, 게임, VR/AR, 모바일시네마틱 경험, 클로즈업 상호작용감정적 스토리텔링, 고급 캐릭터 상호작용

엔진 버전 호환성

UE 5.2 호환성 문제

Unreal Engine 5.2를 사용하는 경우, UE의 리샘플링 라이브러리 버그로 인해 Realistic Model이 올바르게 작동하지 않을 수 있습니다. UE 5.2 사용자 중 신뢰할 수 있는 립싱크 기능이 필요한 경우, Standard Model을 대신 사용해 주세요.

이 문제는 UE 5.2에 특화된 것이며 다른 엔진 버전에는 영향을 미치지 않습니다.

성능 권장사항

  • 대부분의 프로젝트에서 Standard Model은 품질과 성능의 훌륭한 균형을 제공합니다
  • MetaHuman 캐릭터에 최고의 시각적 충실도가 필요할 때 Realistic Model을 사용하세요
  • 애플리케이션에서 감정 표현 제어가 중요할 때 Mood-Enabled Realistic Model을 사용하세요
  • 모델 선택 시 대상 플랫폼의 성능 능력을 고려하세요
  • 특정 사용 사례에 가장 적합한 균형을 찾기 위해 다양한 최적화 수준을 테스트하세요

TTS 호환성

모델 유형로컬 TTS 지원 (Runtime Text To Speech 통해)외부 TTS 지원참고
Standard Model✅ 전체 지원✅ 전체 지원모든 TTS 옵션과 호환
Realistic Model❌ 제한적 지원✅ 전체 지원ONNX 런타임이 로컬 TTS와 충돌
Mood-Enabled Realistic Model✅ 전체 지원✅ 전체 지원모든 TTS 옵션과 호환

문제 해결

일반적인 문제

Realistic Model용 생성기 재생성: Realistic Model을 사용할 때 신뢰할 수 있고 일관된 작동을 위해, 비활성 기간 후 새로운 오디오 데이터를 입력하려고 할 때마다 생성기를 재생성하는 것이 권장됩니다. 이는 침묵 기간 후 생성기를 재사용할 때 립싱크 작동이 중단될 수 있는 ONNX 런타임 동작 때문입니다.

로컬 TTS 호환성: Runtime Text To Speech 플러그인에서 제공하는 로컬 TTS는 ONNX 런타임 충돌로 인해 일반 Realistic model과 현재 호환되지 않습니다. 그러나 Standard model과 Mood-Enabled Realistic model 모두와 완전히 호환됩니다. TTS 기능이 있는 일반 Realistic model이 특별히 필요한 경우 외부 TTS 서비스를 사용하세요.

립싱크 반응성 저하: Streaming Sound Wave 또는 Capturable Sound Wave 사용 시 시간이 지남에 따라 립싱크 반응성이 떨어지는 경우, 이는 메모리 누적 때문일 수 있습니다. 기본적으로 새로운 오디오가 추가될 때마다 메모리가 재할당됩니다. 이 문제를 방지하려면 누적된 메모리를 해제하기 위해 ReleaseMemory 함수를 주기적으로(예: 약 30초마다) 호출하세요.

성능 최적화:

  • 성능 요구사항에 따라 Realistic model의 Processing Chunk Size를 조정하세요
  • 대상 하드웨어에 적합한 스레드 수를 사용하세요
  • 전체 얼굴 애니메이션이 필요하지 않을 때 mood-enabled model에는 Mouth Only 출력 유형 사용을 고려하세요