AI 이미지/AI Video

LTX 비디오

하늘이푸른오늘 2025. 1. 16. 01:49

LTX Studio, Facetune, Videoleap 등의 앱을 개발한 Lightricks가 최초의 비디오 생성 모델인 LTX Video 0.9를 공개했습니다. 이 모델은 오픈소스이며, 5초짜리 AI 비디오를 단 4초만에 생성할 수 있다고 주장하고 있습니다.

LTX는  5초짜리 768x512 해상도 (24 fps)의 비디오를 단 4초만에 생성할 수 있는 "실시간 비디오 생성기"라고 주장합니다. 여기에 사용된 하드웨어는 Nvidia H100 GPU를 사용했는데,  RTX4090의 경우엔 4초짜리 비디오를 10초 이내에 생성할 수 있습니다. RTX 3070의 경우에는 약 50초 정도 소요되고요.

LTX  모델은 이 디퓨전 트랜스포머(DiT) 아키텍처를 사용하며, 모델의 크기가 20 억개로 작아서, 6 GB VRAM에서도 돌릴 수 있고,  무엇보다 용량을 생각했을 때 생성되는 비디오의 품질이 놀라울 정도로 우수합니다.

이 글에서는 ComfyUI에서 LXT 비디오를 설치하고 text-to-video, image-to-video 모드로 실행시키는 방법을 설명합니다.

소프트웨어

이 글에서는 스테이블 디퓨전용 GUI중에서도 제가 제일 좋아하는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법초보가이드를 확인하시기 바랍니다.

LTX Video란?

LTX 비디오는 Lightricks에서 개발해 공개한 AI 생성모델입니다. LTX Video 0.9는 오픈소스이며, Lightricks에서는 수초만에 AI 비디오를 생성할 수 있다고 주장합니다. LTX Video는 프롬프트(컨셉)를 하나 입력하면, 이를 바탕으로 여러 장면으로 구성된 비디오 클립을 생성하는 플랫폼인 LTX Studio의 사용자 피드백을 기반으로 구축된 "실시간 비디오 생성기"입니다.

LTX Video 는 단 4초만에 768x512 해상도, 24 fps, 5초 분량의 비디오를 생성할 수 있습니다(Nvidia RTX 4090 GPU 기준). 다음은 Lightricks 에서 주장하는 LTXV의 장점입니다.

  • 5초 길이의 121개의 이미지 생성
  • 일반적으로 많이 발생하는 객체 모핑 문제 없음
  • 움직임의 일관성이 뛰어남

LTX Text-to-Video

LTX Text-to-Video  워크플로는 텍스트 프롬프트를 입력받아 mp4 비디오를 생성합니다. 기본 비디오 크기는 768x512입니다.

1 단계: ComfyUI 워크플로 불러오기

아래의 파일을 다운로드 받은 후, ComfyUI 화면에 Drag&Drop합니다. 또는 메뉴에서 Workflow->Open을 선택해도 됩니다.

LTX-txt2vid.json
0.01MB

2 단계: 모델 다운로드

체크포인트 모델

LTX 체크포인트 모델을 다운로드 받은 후, ComfyUI\models\checkpoints 폴더에 넣어줍니다.

T5XXL text encoder를 다운로드 받은 후, ComfyUI\models\clips 폴더에 넣어줍니다. 

모두 다운로드 받은 후, 새로고침(F5)하고 [Load Checkpoint] 노드와 [Load Clip] 노드에서 선택해 줍니다.

3 단계: 프롬프트 검토

원하는 비디오가 나올 수 있도록 프롬프트의 내용을 검토합니다.

4 단계: 비디오 생성

[Queue] 버튼을 누르면 비디오가 생성됩니다. RTX 3070에서 단 50초만에 생성되네요. 대단합니다!

아래는 다른 비디오입니다.

LTX Image-to-Video

Image-to-video 워크플로는 이미지와 텍스트 프롬프트를 입력받아 비디오를 생성합니다.

하지만, ComfyUI 에서 제공하는 기본 워크플로를 사용하면, 움직임이 별로 없는 비디오가 생성됩니다. Reddit Discussion에 따르면 LTX 모델이 움직임이 있는 비디오를 학습했기 때문에, 약간 흐린 이미지가 더 잘 작동한다고 합니다. 이 글에서는 (1)이미지를 압축하여 품질을 낮추는 방법과 (2)이미지를 약간 흐릿하게 처리하는 방법을 테스트했는데, 첫번째 방법이 더 효과적이었습니다. 

1 단계: 모델 다운로드

위에서 사용한 모델을 다운로드 받습니다.

2 단계: 워크플로 불러오기

아래의 워크플로를 불러옵니다. 화면에 드롭하거나 Workflow->Open 메뉴를 사용하면 됩니다.

LTX-img2vid-1.json
0.02MB

3 단계: 이미지 입력

입력 이미지를 [Load Image] 노드에 선택합니다. 아래의 이미지를 사용하셔도 됩니다.

4 단계: 프롬프트 검토

입력 이미지와 어울리고 약간의 움직임을 설명하는 프롬프트가 필요합니다.

5 단계: 이미지 생성

[Queue] 단추를 누르면 비디오가 생성됩니다.

참고사항

  • LTX Video의 경우 프롬프트가 길 수록 잘 작동하는 경향이 있습니다. 장면과 카메라 움직임을 좀 더 자세하게 기술하세요.
  • 비디오가 마음에 안들면 Seed 를 바꾸어 시도해보세요.

===============

아래는 제가 수정한 워크플로입니다. 아래 이미지를 사용한 워크플로이고, 주로 파일의 크기를 지정하지 않고 자동으로 설정되도록 하였습니다.

LTX-img2vid2-PinkBike.json
0.03MB

가운데에 아래처럼 된 부분이 있는데 여기에서 씨드번호를 바꿔가며 좋은 비디오를 찾으면 됩니다. 시험제작할 때에는 Enable Upscale을 끄고 돌리면 되고요.

아래는 이 워크플로로 생성한 비디오입니다.  예전엔 애니메이션 캐릭터로 생성하려다보니 정말 결과물이 마음에 안들었는데, 실사 이미지로 바꾸는 괜찮은 결과물을 얻을 수 있었네요. 다만, 속도감이 필요한 비디오는 아직 힘든 게 아닌가... 하는 느낌이 드네요.

이상입니다.

이 글은 stable-diffusion-art.com의 글stablediffusion.blog의 글을 참조하여 작성했습니다.

민, 푸른하늘