txt2vid 12

알리바바, Wan 2.1 공개

2025년 2월 25일, 알리바바에서 고급 비디오 생성 작업을 위해 설계된 오픈 소스 AI 모델인 Wan 2.1을 공개했습니다. 2025년 2월의 공식적으로 공개되었으며, 현재 Apache 2.0 라이선스하에 자유롭게 사용할 수 있어, 전세계의 개발자들이나 기업들이 거의 아무런 제한없이 사용할 수 있습니다.Wan 2.1 이란?중요 기능 및 벤치마크 성능Wan 2.1을 Latenode의 자동 워크플로에 통합하기Wan 2.1 이란?Wan 2.1은 텍스트 프롬프트 또는 이미지 프롬프트를 입력받아 비디오를 생성할 수 있는 대규모언어모델(LLM, large language model)입니다. VBench에서 행해진 독립적인 평가에 따르면 Wan 2.1은 약 84.7%에 달하는 점수를 획득하여, 최고 성능의 AI ..

Mochi GGUF 무비 비디오

Mochi는 짧은 비디오 움짤을 생성할 수 있는 최신의 로컬 비디오 모델입니다. 비디오를 몇개 이어서 스토리를 만들고 싶다면 어떻게 해야 할까요? Mochi 무비 비디오 워크플로를 이용하면 4개의 비디오 클립을 생성하고 이를 결합해 긴 비디오를 만들 수 있습니다. 이 무비 비디오는 ComfyUI에서 텍스트 프롬프트를 이용해 생성합니다.소프트웨어따라하기개인적인 느낌소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Mochi GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.따라하기1 단계: Mochi  GGUF 모델 다..

Mochi GGUF txt2vid (ComfyUI)

Mochi는 PC에서 돌릴 수 있는 최고의 비디오 AI 모델중 하나입니다. Mochi를 사용하면 텍스트 프롬프트를 480p 비디오로 바꿀 수 있습니다.이 글에서는 ComfyUI에서 Mochi GGUF를 설치하고 돌릴 수 있는 방법을 알려드립니다.소프트웨어Mochi AI 모델따라하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Mochi GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.Mochi AI 모델Mochi란?Mochi는 Genmo AI에서 개발한 개방형 비디오 AI 모델입니다. 아래에서 보시는 것처럼 비디..

TeaCache: 생성속도를 두배로

AI 이미지 생성속도를 올리고 싶으신가요? TeaCache를 사용하면 품질에는 거의 영향을 미치지 않으면서도 디퓨전 모델의 속도를 올릴 수 있습니다. 구현하기도 쉽고, 무엇보다 Flux와 Hunyuan Video와 같은 최신 이미지/비디오 생성모델에 적용할 수 있다는 장점이 있습니다.이 글에서는 TeaCache의 작동원리와 함께, Flux 및 HunyuanVideo에 적용하는 워크플로를 소개시켜드립니다.소프트웨어TeaCache 란?TeaCache의 작동 원리Flux에서 TeaCache 사용하기Hunyuan에서 TeaCache 사용하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제일 강력한 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기..

Flux-LTX img2vid 워크플로-ComfyUI

LTX 비디오는 고품질 비디오를 아주 빠르게 생성할 수 있는, 자신의 PC에서 돌릴 수 있는 비디오 모델입니다. LTX 는 img2vid 모드가 있어서, 이미지를 비디오로 바꿔줄 수 있습니다.Flux 모델은 현재 고품질의 이미지를 생성할 수 있는 가장 좋은 선택지중 하나입니다. 이 글에서는 Flux의 이미지 품질과 LTX의 빠른 비디오 생성을 통합한 워크플로를 선보입니다.소프트웨어Flux 모델과 Flux Fill 모델을 사용한 인페인트 비교따라하기워크플로 설명개인적인 느낌소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 제가 제일 좋아하는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.따라하기1 단계: 모델 다운로드여기에는 간단하..

Flux-CogVideo 워크플로(ComfyUI)

이 워크플로는 Flux AI 모델을 사용하여 고품질 이미지를 생성하고 이를 CogVideo를 사용해 비디오로 전환하는 워크플로입니다. 이렇게 하면 텍스트 프롬프트만으로도 비디오를 생성할 수 있을 뿐 아니라, 원래의 CogVideo txt2vid 모델보다 품질이 좋은 비디오를 생성할 수 있습니다.소프트웨어따라하기소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 요즘 가장 널리 사용되고 있는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.따라하기1 단계: Flux1 dev GGUF 모델 다운로드여기에는 간단하게만 정리했습니다. 더 자세한 내용은 이 글을 참고하세요.GGUF unet 모델아래 사이트에서 파일을 다운로드 받아, Comfy..

ComfyUI에서 CogvideoX GGUF 사용하기

CogVideo는 자신의 PC에서 돌릴 수 있는 최신 AI 비디오 생성기 입니다. 이 글에서는 ComfyUI에서 Cogvideo를 사용하는 방법을 설명합니다.소프트웨어CogvideoX 란?Txt2Vid따라하기Img2Vid따라하기참고소프트웨어이 글에서는 스테이블 디퓨전용 GUI중에서도 요즘 가장 널리 사용되고 있는 ComfyUI를 사용합니다. ComfyUI가 처음이시라면, 설치 및 기본 사용방법 및 초보가이드를 확인하시기 바랍니다.참고 :이 글에서는 Flux Dev GGUF 포맷을 사용합니다. GGUF에 대한 좀 더 자세한 사항은 이 글을 참고하세요.CogvideoX 란?현재 여러가지 text-to-video / img-to-video모델 및 서비스가 나와 있습니다. 그중에서도 CogVideoX는 텍스트-..

Hailuo AI를 사용한 AI 비디오 생성

중국 MiniMax AI라는 기업에서 새로운 Hailou 라는 text-to-video / image-to-video 도구를 공개했습니다. 문장을 입력하면 짧은 고품질 비디오로 변환해 주는 도구입니다. 현재 6초짜리 비디오를 제공하지만, 향후엔 10초짜리 비디오까지 제공할 예정이라고 합니다. 생성되는 비디오는 해상도가 1280x720 이며, 초당 프레임 수는 25인 HD 급 비디오입니다.현재Hailou 은 MiniMax 웹사이트에서 무료로 시험해 볼 수 있습니다. MiniMax는 최근 알리바바와 텐센트로부터 6억 달러에 달하는 투자를 받았으며, AI 비디오 시장에서 강력한 경쟁자가 될 것으로 생각됩니다.참고로 MiniMax의 공식 트레일러를 보시면, 길이가 길면서도 일관성이 유지되고 사실적인 영화급 비디..

AnimateDiff Wiki

요즘 Stable Diffusion 커뮤니티의 핫한 주제는 Video-to-Video입니다. 그 가운데에는 AnimateDiff 가 있죠. 저도 몇번 생성해봤지만, 아직도 잘 모르는 게 많아, 천천히 알아보려는 중입니다. 이 글은 AnimateDiff for AUTOMATIC1111에 이어 네번째 글로, https://wikiwiki.jp/sd_toshiaki/AnimateDiff 를 번역한 글입니다. AnimateDiff 개요 모션 모듈이란? a1111 사용방법 매개변수 체크포인트 및 LoRA 특성 프롬프트 작성방법 콘트롤넷 AI 확대기(UpScaler) ComfyUI에서 사용방법 프롬프트 트래블 없는 워크플로 프롬프트 트래블을 사용하는 워크플로 AnimateDiff 개요 GIF 등의 짧은 동영상(표준..

AnimateDiff Official Repo

요즘 Stable Diffusion 커뮤니티의 핫한 주제는 Video-to-Video입니다. 그 가운데에는 AnimateDiff 가 있죠. 저도 몇번 생성해봤지만, 아직도 잘 모르는 게 많아, 천천히 알아보려는 중입니다. 이 글은 그중에서 세번째 시도로, https://github.com/guoyww/AnimateDiff/ 을 번역한 글입니다. === 이 저장소는 Yuwei Guo 등의 논문, AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning 의 공식 구현입니다. AnimateDiff는 추가적인 학습이 없이도, 거의 모든 커뮤니티 모델을 애니메이션 생성기로 바꿔주는 plug&play 모듈..