import torch torch.cuda.is_available() 했을 때 False가 뜨는 경우는 pytorch에서 cuda가 제대로 사용할 수있는 상태라고 볼 수 있습니다. pytorch 또는 cuda 설치를 다시 살펴봐야 하고, GPU 모델 번호, 그래픽 드라이버 버전, cuda 버전 및 pytorch 버전이 모두 일치해야 합니다. Ubuntu 18.04 환경에서는 sudo apt-get install -y datacenter-gpu-manager sudo systemctl --now enable nvidia-dcgm sudo systemctl status nvidia-dcgm sudo apt-get install cuda-drivers-fabricmanager sudo systemctl sta..
torchvision.transforms.functional.adjust_contrast(img: Tensor, contrast_factor: float) → Tensor Adjust contrast of an image. 이미지의 대비를 조정해줍니다. 안에 들어가는 매개변수는 img와 contrst factor입니다. 조정할 이미지와 얼마나 조정할지를 조절하는 요소가 contrast factor입니다. 따라서 return 되는 값이 contrast adjusted image가 됩니다. 타입은 PIL, Tensor 둘 다 가능합니다. 픽셀 값에 직접 곱셈 연산을 통해 계산한다고 합니다. 여긴 파이토치 프레임워크를 사용하진 않지만 이미지 대비 조정의 전후 결과를 보여주고 있습니다. torchvision에서..
모델과 데이터를 준비하면, 데이터에 매개변수를 최적화하여 모델을 학습해야 한다. 그 후 검증과 테스트를 거친다. 모델 학습 과정은 반복적인 과정이며, 각 반복 단계에서 모델은 출력을 추측하고, Ground Truth 사이의 손실을 계산하여 매개변수를 최적화하는 과정을 거친다. 이는 손실함수의 도함수를 계산하여 경사하강법을 통한 방법이다. (역전파) optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate) 최적화는 각 학습 단계에서 모델의 오류를 줄이기 위해 모델 매개변수를 조정하는 과정이다. 모든 최적화 과정은 optimizer 객체에 캡슐화된다. 여기서 optimizer를 손볼 수있는 하이퍼파라미터가 epoch과 batch size, lear..
torchvision의 vutils.save_image을 통해 tensor 형태의 이미지를 저장할 수 있다. import torch import torchvision.utils as vutils vutils.save_image(out_img, output_path, nrow=1, normalize=True) tensor: 저장할 이미지 텐서(shape은 batch_size, channels, height, width) 이어야 함 filename: 저장할 파일의 경로와 이름 nrow: 저장할 이미지를 몇 줄에 보여줄 것인지 normalize: 이미지의 값을 [0, 1]로 졍규화할 것인지 결정하는 인자. True
출처 https://tutorials.pytorch.kr/recipes/recipes/what_is_state_dict.html https://tutorials.pytorch.kr/recipes/recipes/saving_and_loading_a_general_checkpoint.html PyTorch에서 torch.nn.Module 모델의 학습 가능한 매개변수(예. 가중치와 편향)들은 모델의 매개변수에 포함되어 있습니다. (model.parameters()로 접근합니다) state_dict는 간단히 말해 각 계층을 매개변수 텐서로 매핑되는 Python 사전(dict) 객체입니다. state_dict 는 PyTorch에서 모델을 저장하거나 불러오는 데 관심이 있다면 필수적인 항목입니다. state_dic..
nn.Variable()은 이제 더 이상 사용하지 않는다고 한다. Tensor를 사용하기 위해서는 nn.parameters의 매개변수를 사용해야 하며, nn.Module의 매개변수로 표시된 특정 Tensor일 때, 모듈을 호출하면 반환된다 . class MyModel(nn.Module): def __init__(self): super().__init__() self.param = nn.Parameter(torch.randn(1, 1)) def forward(self, x): x = x * self.param return x model = MyModel() print(dict(model.named_parameters())) # {'param': Parameter containing: # tensor([[0..
출처: https://github.com/pytorch/pytorch/blob/v1.0.1/torch/optim/lr_scheduler.py#L126 class StepLR(_LRScheduler): """Sets the learning rate of each parameter group to the initial lr decayed by gamma every step_size epochs. When last_epoch=-1, sets initial lr as lr. Args: optimizer (Optimizer): Wrapped optimizer. step_size (int): Period of learning rate decay. gamma (float): Multiplicative factor o..
- Total
- Today
- Yesterday
- 도커 컨테이너
- 구글드라이브다운
- vscode 자동 저장
- 구글드라이브서버다운
- 파이썬 클래스 계층 구조
- 구글드라이브연동
- cs231n
- CNN
- Prompt
- 프롬프트
- 구글드라이브서버연동
- prompt learning
- 데이터셋다운로드
- 파이썬 딕셔너리
- python
- stylegan
- NLP
- 서버에다운
- clip
- docker
- support set
- 파이썬 클래스 다형성
- 파이썬
- 딥러닝
- 퓨샷러닝
- 도커
- style transfer
- few-shot learning
- 서버구글드라이브연동
- Unsupervised learning
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |