
error: could not find a version that satisfies the requirement mkl-ft==1.3.0 (from versions: none) error: no matching distribution found for mkl-fft==1.3.0 요 라이브러리인가본데... pip install -r requirements.txt 패키지 파일을 설치해주는 중 오류 발생 certifi==2020.12.5 cffi==1.14.0 cycler==0.10.0 kiwisolver==1.3.1 matplotlib==3.1.3 mkl-fft==1.3.0 mkl-random==1.1.1 mkl-service==2.3.0 nbconvert==5.6.1 numpy @ file:///tmp/b..

torchvision.transforms.functional.adjust_contrast(img: Tensor, contrast_factor: float) → Tensor Adjust contrast of an image. 이미지의 대비를 조정해줍니다. 안에 들어가는 매개변수는 img와 contrst factor입니다. 조정할 이미지와 얼마나 조정할지를 조절하는 요소가 contrast factor입니다. 따라서 return 되는 값이 contrast adjusted image가 됩니다. 타입은 PIL, Tensor 둘 다 가능합니다. 픽셀 값에 직접 곱셈 연산을 통해 계산한다고 합니다. 여긴 파이토치 프레임워크를 사용하진 않지만 이미지 대비 조정의 전후 결과를 보여주고 있습니다. torchvision에서..

학습을 돌리다 보면 이런 warnings 문구가 많이 뜬다. 귀찮아서 보기도 하고, 익숙해지면 저게 안 나오면 불안할 때도 있다. 근데 또 지우니 지운 게 깔끔해서 요즘은 지운다. (어쩌라구..) import warnings warnings.filterwarnings(action='ignore') 이렇게하면 경고 메시지를 무시할 수 있다. warnings.filterwarnings(action='default') 디폴트 값으로 설정하면 경고 메시지가 다시 출력된다. 지우면 되는게 아닌가 싶은데, 이런 기능이 있는 것 보면 어딘가 쓸모가 있겠지 싶다...

모델과 데이터를 준비하면, 데이터에 매개변수를 최적화하여 모델을 학습해야 한다. 그 후 검증과 테스트를 거친다. 모델 학습 과정은 반복적인 과정이며, 각 반복 단계에서 모델은 출력을 추측하고, Ground Truth 사이의 손실을 계산하여 매개변수를 최적화하는 과정을 거친다. 이는 손실함수의 도함수를 계산하여 경사하강법을 통한 방법이다. (역전파) optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate) 최적화는 각 학습 단계에서 모델의 오류를 줄이기 위해 모델 매개변수를 조정하는 과정이다. 모든 최적화 과정은 optimizer 객체에 캡슐화된다. 여기서 optimizer를 손볼 수있는 하이퍼파라미터가 epoch과 batch size, lear..

torchvision의 vutils.save_image을 통해 tensor 형태의 이미지를 저장할 수 있다. import torch import torchvision.utils as vutils vutils.save_image(out_img, output_path, nrow=1, normalize=True) tensor: 저장할 이미지 텐서(shape은 batch_size, channels, height, width) 이어야 함 filename: 저장할 파일의 경로와 이름 nrow: 저장할 이미지를 몇 줄에 보여줄 것인지 normalize: 이미지의 값을 [0, 1]로 졍규화할 것인지 결정하는 인자. True

출처 https://tutorials.pytorch.kr/recipes/recipes/what_is_state_dict.html https://tutorials.pytorch.kr/recipes/recipes/saving_and_loading_a_general_checkpoint.html PyTorch에서 torch.nn.Module 모델의 학습 가능한 매개변수(예. 가중치와 편향)들은 모델의 매개변수에 포함되어 있습니다. (model.parameters()로 접근합니다) state_dict는 간단히 말해 각 계층을 매개변수 텐서로 매핑되는 Python 사전(dict) 객체입니다. state_dict 는 PyTorch에서 모델을 저장하거나 불러오는 데 관심이 있다면 필수적인 항목입니다. state_dic..

컨테이너를 실행할 때 nvidia gpu를 사용할 수 있도록 --gpus 옵션을 사용하여 지정할 수 있다. --gpus '"device={...}"' 이런 형식으로 설정할 수 있고, 개인 서버를 할당 받아서 하나씩 사용하다보니 항상 device 번호 지정된 것 하나만 불러왔었는데 여러 개 지정해도 된다는 사실을 알았다. 그리고 내가 만든 컨테이너 내부에서 gpu 정보를 확인하고 싶어졌다. 도커 생성한 컨테이너에 연결된 gpu 확인 docker exec -it {컨테이너 이름} nvidia-smi 위 명령을 사용하면 컨테이너 내부에서 사용 가능한 gpu에 대한 상세한 정보가 출력되고, gpu 번호, 이름, 드라이버 정보, 메모리 사용 등을 확인할 수 있다.

Controlnet - Human Pose Code ControlNet은 조건을 추가하여 Diffusion model을 제어하는 신경망 구조입니다. zero convolution이 핵심 개념이라고는 하는데, 논문에 대한 내용은 ‘Adding Conditional Control to Text-to-Image Diffusion Models’ 해당 논문을 참고하시면 좋을듯 합니다. Huggingface에서 Stable Diffision과 함께 ControlNet을 결합한 모델을 사용하도록 했습니다. 모델 타입: Diffusion-based text-to-image generation model ControlNet은 end-to-end 방식으로 작업별 조건을 학습하며 훈련 데이터셋이 작은 경우에도 robust하..
- Total
- Today
- Yesterday
- 도커 컨테이너
- 딥러닝
- clip
- 파이썬 딕셔너리
- prompt learning
- 구글드라이브연동
- 서버구글드라이브연동
- 프롬프트
- 리눅스
- few-shot learning
- linux nano
- 리눅스 nano
- NLP
- stylegan
- style transfer
- 도커
- 파이썬 클래스 다형성
- 도커 작업
- 파이썬
- Unsupervised learning
- 퓨샷러닝
- CNN
- cs231n
- python
- 리눅스 나노 사용
- 파이썬 클래스 계층 구조
- support set
- docker
- Prompt
- 리눅스 나노
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |