전체 글 1740

ComfyUI 설치 및 사용법 기초

이 글을 처음 쓸 때부터 약 6개월 정도 경과된 것 같습니다. 이제는 왠만하면 AUTOMATIC1111 보다 ComfyUI를 사용하는 게 편해졌을 정도로 익숙해졌습니다. ComfyUI가 약간 어렵기는 하지만, 상당한 장점이 있어서 사용자들이 엄청나게 빨리 증가하고 있는 편인데, 저도 그중의 한명이 된 것입니다. ComfyUI는 무엇보다 프로그램이 가볍고 빠릅니다. AUTOMATIC1111과 비교했을 때 동일한 작업이라면 30% 정도는 빨리 수행되는 것 같고, 특히 이미지 크기가 커지면 속도차가 몇배씩 차이난다는 느낌을 받을 정도입니다. 또한 ComfyUI에서 생성한 워크플로를 공유하기가 아주 쉽습니다. AUTOMATIC1111이라면 모든 매개변수를 하나씩 보면서 설정해야 하고, 그렇게 설정을 해도 동일한..

멋진 이미지를 생성하는 SDXL 프롬프트 15개

SDXL은 최신 Stable Diffusion 기술입니다. SD 1.5/2.1에 비해 생성되는 이미지의 품질이 매우 높아졌습니다. SDXL은 언어모델이 다르기 때문에 스테이블 디퓨전 v1에서 사용되는 프롬프트와는 약간 다릅니다. 이 글에서는 여러가지 스타일의 SDXL 프롬프트와, 그 결과로 생성된 이미지를 보여드립니다. 이를 기본으로 해서 여러가지 테스트를 해보시거나, 필요하신 새로운 프롬프트를 개발하실 수 있을 것입니다. 소프트웨어 설치 SDXL은 Stable Diffusion을 설치한 후 여기에 SDXL 모델을 탑재하여 사용하는 방법과, Stable Diffusion를 개발한 Stability AI에서 제공한 테스트 사이트인 Clipdrop에서 사용하는 방법이 있습니다. 물론 검색해 보시면 여기에서 ..

Stable Diffusion XL(SDXL) 1.0 모델 사용법

Stable Diffusion XL (SDXL)는 사실적 인물, 영어문장, 다양한 예술 스타일을 아주 훌륭한 구도로 생성할 수 있는 최신 AI 이미지 모델입니다. SDXL은 현재 널리 사용중인 스테이블 디퓨전 v1.5 모델에 비해 훨씬 크고 성능이 뛰어난 버전이라는 의미로 SDXL 이라는 이름을 붙였습니다. (eXtra Large를 줄인 말이 아닐까 싶어요) Podell 등이 공개한 "SDXL : 고해상도 이미지 합성을 위한 디퓨전 모델 개선(SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis"라는 논문에서 설명한 것처럼, SDXL 은 아래와 같은 여러가지 면에서 v1.5모델보다 훨씬 성능이 뛰어납니다. 이미지 품질 향상..

AI 이미지 수정기 - Clipdrop

얼마전 SDXL 0.9를 테스트할 수 있는 사이트인 Clipdrop을 소개해 시켜 드렸습니다(소개 글). Clipdrop은 스테이블 디퓨전을 개발한 Stability AI에서 개발한, 공식 테스트 사이트라고 할 수 있습니다. 이 사이트에는 SDXL 0.9를 테스트할 수 있는 것 이외에 아래와 같이 다양한 기능이 들어 있습니다. 한마디로 인공지능으로 이미지를 편집할 수 있는 여러가지 도구가 모두 모여있다고 보시면 됩니다. 맨 좌측위가 SDXL 0.9를 테스트할 수 있는 사이트이고, 그 다음부터 이미지 바깥쪽 채우기(Uncrop), 비슷한 이미지 생성(Reimagine), 스케치에서 생성하기(Stable Doodle), 물체 지우기(Cleanup), 배경 지우기(Remove Background), 조명 바꾸..

스테이블 디퓨전: VAE를 사용해 얼굴 잘 그리기

VAE는 눈을 좀더 잘 생성하기 위한 스테이블 디퓨전 1.4/1.5에 대한 부분적 업그레이드입니다. 이 글에서는 VAE가 무엇인지, VAE를 설치하면 무엇이 좋은지, 어떻게 설치하고 사용하는지 등에 대해 기술합니다. VAE란 무엇인가? VAE(variational autoencoder)는 신경망 모델중 일부로, 상대적으로 작은 잠재 공간(latent space)에서 이미지를 인코딩 혹은 디코딩하여 계산속도를 빠르게 하는 기능을 합니다. VAE가 필요한가? VAE 파일이 없더라도 Stable Diffusion은 잘 작동됩니다. 어떠한 v1, v2 혹은 맞춤형 모델을 사용할 경우에도 내부적으로 기본 VAE가 포함되어 있으며 이것을 자동으로 사용합니다. 그러므로, VAE를 다운로드 받는다 혹은 사용한다고 하는..

After Detailer(adetailer): 얼굴 자동 수정

After Detailer(adetailer)는 인페인트를 자동화시켜주는 스테이블 디퓨전 AUTOMATIC1111 확장입니다. 이 확장을 사용하면 얼굴이 일그러지는 것 같은 일반적인 문제를 빠르게 수정할 수 있습니다. After Detailer 확장 설치 After Detailer 확장을 설치하는 방법은 아래와 같습니다. 1. Extension 페이지로 들어가서 "Install from URL" 탭으로 들어간 뒤, 아래의 내용을 [URL]에 입력합니다. https://github.com/Bing-su/adetailer 2. Install 버튼을 누르고 잠시 기다립니다. 설치가 완료되면 아래와 같이 Installed 탭으로 들어가 adetailer가 추가되었는지 확인하고 [Apply and restart ..

SDXL : 고해상도 이미지 합성을 위한 디퓨전 모델 개선

스테이블 디퓨전의 후속모델인 SDXL 이 공개되었습니다. 베타버전에 이어 0.9 버전이 공개되었으며, 조만간 정식으로 공개될 예정으로 있습니다. 이 글은 0.9에서 어떤 부분을 개선했는지에 대한 stability.ai 사의 개발진이 작성한 논문입니다. 이 논문은 SDXL의 기술적인 측면을 다루고 있기 때문에 사용법만 알고싶은 분들은 그냥 읽지 않으셔도 무방합니다. 그냥 SDXL이 스테이블 디퓨전 1.5/2.1 보다 매우 성능이 뛰어나다고만 아시면 충분합니다. SDXL은 스테이블 디퓨전 1.5 및 2.1에 비해 매우 높은 수준의 이미지를 생성할 수 있습니다. 스테이블 디퓨전 1.5에서는 프롬프트외에도 LoRA나 ControlNet과 같은 보조적인 기법을 동원하고, 잘못된 이미지는 인페인트로 수정하는 등 여..

SDXL 0.9로 AI 이미지 생성 - Clipdrop

한달전, 스테이블 디퓨전을 개발해서 오픈 소스로 공개한 stability.ai에서 그 후속 모델인 SDXL 을 공개했습니다. 현재 사용가능한 버전은 0.9이며, 7월 중순에 1.0을 공개할 예정이라고 합니다(오늘 18일이니 약속시간이 좀 지난듯) 자세한 내용은 보도자료 글을 읽어보시면 됩니다. 스테이블 디퓨전 UNET의 매개변수는 8억 6천만개 정도인데, SDXL 0.9는 매개변수가 100억개 정도로 늘어나서 더 세밀하고 구도가 뛰어난 이미지를 생성할 수 있다고 합니다. 기본 생성 이미지의 해상도도 1024x1024로 커졌고요. 그래서... 이걸 사용해보고 싶기는 하지만, 현재는 AUTOMATIC1111에서 기본으로 지원하지 않고 확장으로 겨우겨우 시험해 볼 수 있는 상태에서 테스트가 만만하지는 않습니다..

SDXL 0.9: AI 이미지 생성의 혁신

한달전, Stable Diffusion을 개발한 stability.ai에서 Stable Diffusion의 후속 모델인 SDXL (Stable Diffusion XL) 베타 버전에 이어 0.9 버전을 발표했습니다. 얼마 후에는(원래 발표에 따르면 7월 중순이니까 이미 발표되었어야 하지만) 1.0이 정식 공개될 예정으로 있고요. 제가 아직 전체적으로 돌아보지는 못했지만, 아래와 같이 여러가지 도구들을 따로따로 분리해서 사용할 수 있어, 일반인들이 사용하기는 편리해질 듯 싶습니다. https://clipdrop.co/stable-diffusion 에 들어가면 직접 테스트 가능합니다. 또한 사용하는 파라미터 수가 대폭 늘어나서 훨씬 디테일이 살아있고 구도가 안정적인 이미지가 생성된다고 하네요. 아래는 위 사이..

Numpy 유저가이드

NumPy 란? numpy 는 파이썬에서 과학계산을 위한 가장 기본적인 패키지 입니다. 다차원 배열(array) 객체, 여러가지 파생 객체(마스크 배열이나 행렬(matrix) 등), 수학/논리/변형/정렬/선택/IO/이산 푸리에 연산, 기본 선형대수, 기본 통계 연산, 무작위 시뮬레이션 등의 배열에 관한 연산을 위한 다양한 루틴 제공하는 파이썬 라이브러리입니다. NumPy 패키지의 핵심은 ndarray 객체입니다. ndarray는 동일한 데이터 유형의 n 차원 배열을, 빠른 성능을 위해 미리 컴파일된 코드로 수행되는 많은 연산과 함께 캡슐화되어 있습니다. NumPy 배열과 표준적인 파이썬 시퀀스(sequence, list/dictionary 등)는 다음과 같은 중요한 차이가 존재합니다. Numpy 배열은 ..

카테고리 없음 2023.07.13

Instruct Pix2Pix - 명령문으로 스타일 바꾸기

Instruct Pix2Pix는 사용자의 문장 명령만으로 이미지를 편집할 수 있는 Stable Diffusion 모델입니다. 이 글에서는 사용방법과 원리 등을 알아보겠습니다. 아래는 목차입니다. Insturct Pix2Pix로 가능한 것 Insturct Pix2Pix의 작동원리 Insturct Pix2Pix로 가능한 것 Instruct Pix2Pix는 문장으로 원하는 바를 지시하기만 하면 이미지를 편집할 수 있는 혁신적인 방법입니다. 예를 들어 아래와 같이 말을 타고 있는 여성을 드래곤을 타고 있는 여성으로 바꾸고 싶다고 해보겠습니다. 이 이미지와 "Turn the horse into a dragon"라는 명령을 주면, 아래와 같이 말을 드래곤으로 바꿔줍니다. 다른 부분은 건드리지 않고요. Instruc..

DreamBooth 사용법 - Colab

며칠전에 DreamBooth 에 대한 소개 글을 올렸습니다. 간단히 요약하면, 나만의 피사체(우리 가족이나 우리집 멍뭉이, 내가 좋아하는 피규어, 내가 이번에 산 책등)의 사진을 4-5장 정도만 학습시켜 인공지능 이미지 생성에 사용할 수 있다는 내용입니다. 이미지 생성형 인공지능으로 자기 자신이던 누구던 아무나 끼워넣을 수 있고, 어떤 배경으로도 이미지를 생성할 수 있다는 겁니다. 그러고 보면 Dream(꿈) Booth(칸막이 공간), 즉 꿈의 사진관이라고 할까요... 드림부스를 설치하고 사용하는 방법에 대한 글 그리고 영상이 여기저기 올라와 있습니다만, 저도 나름대로 정리해보고자 합니다. 그런데.... 원래는 AUTOMATIC1111 에 Dreambooth 확장을 붙여서 학습하는 방법을 생각했었습니다...

Stable Diffusion - AUTOMATIC1111 최적화

Stable Diffusion이 느리다고 생각되나요? 속도를 올릴 수 있는 옵션이 여러가지 있습니다. 이 글에서는 Stable Diffusion 실행 속도를 올릴 수 있는 다음과 같은 방법에 대해 설명합니다. 교차 인지(cross-attention) 최적화 토큰 병합(token merging) 부정적 가이드(negative guidance) 최소 시그마(minimum sigma) 이 글의 목차는 아래와 같습니다. 소프트웨어 교차인지 최적화 옵션 메모리 관리 옵션 토큰 병합(Token merging) Negative guidance minimum sigma 스피드 및 메모리 사용량 벤치마크 테스트 소프트웨어 이 글에서는 Stable Diffusion의 GUI중의 하나인 AUTOMATIC1111을 사용합니다..

Stable Diffusion - 콘트롤넷(ControlNet) 1.1 사용방법(2)

(이 글은 ControlNet 1.1의 변경 내용을 포함하여 많은 내용을 수정하여 재발행한 글입니다) ControlNet이란 인물이나 배경 등의 배치, 형상, 자세 등을 잡아내어, 이를 바탕으로 이미지를 생성해주는 Stable Diffusion 모델의 일부입니다. 이 글에서는 지난 글에 이어 ControlNet에 대한 좀더 자세한 정보를 알아보겠습니다. 이 글의 목차는 다음과 같습니다. ControlNet 모델 요약 ControlNet 모델의 종류 전처리기(Preprocessor)와 모델 개요 Canny 모델 Depth 모델 ControlNet Inpainting IP-Adapter IP2P LineArt MLSD Normal Map OpenPose Reference Scribble Segmentatio..

Stable Diffusion - 콘트롤넷(ControlNet) 1.1 사용방법(1)

콘트롤넷(ControlNet)은 구도와 피사체의 자세를 복제할 수 있는 신경망입니다. 콘트롤넷에 관한 자세한 이론은 Lvmin Zhang 등이 저술한 Adding Conditional Control to Text-to-Image Diffusion Models를 참고하시기 바랍니다. 스테이블 디퓨전을 조금이라도 써보신 분은 아시겠지만, 생성되는 이미지가 원하는 자세를 갖도록 하는 것은 거의 불가능합니다. 자세 뿐만 아니라 배경이나 인물까지도 모두 무작위로 생성되기 때문입니다. 해결 방법은 그저 이미지를 많이 생성하는 것 뿐이었습니다. ControlNet을 사용하면 이런 문제를 어느 정도 해결할 수 있습니다. ControlNet을 사용하면 파사체를 어디에 둘지, 어떤 모습을 가지게 할지 등을 정확하게 제어할..