RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.cuda. HalfTensor [64, 512]], which is output 0 of DivBackward0, is at version 1; expected version 0 instead. Hint: the backtrace further above shows the operation that failed to compute its gradient. The variable in question was changed in there or anywhere later. Good luck! 이 오류의..
RuntimeError: element 0 of variables does not require grad and does not have a grad_fn Autograd에서 미분(differentiation)하는 경우 grad_fn은 기울기를 계산하는 것을 도와주는 함수이다. 기울기를 계산해서 학습을 해야하는데, 설정된 텐서값이 그게 되지 않는다는 것이다. 손실함수를 계산할 때, 필요한 값들이 no_grad 처리가 되어 있진 않은지 보고 `required_grad_(True)'로 설정해두면 해결됨 a = torch.tensor([2., 3.], requires_grad=True) b = torch.tensor([6., 4.]) b.requires_grad_(True)
nn.Variable()은 이제 더 이상 사용하지 않는다고 한다. Tensor를 사용하기 위해서는 nn.parameters의 매개변수를 사용해야 하며, nn.Module의 매개변수로 표시된 특정 Tensor일 때, 모듈을 호출하면 반환된다 . class MyModel(nn.Module): def __init__(self): super().__init__() self.param = nn.Parameter(torch.randn(1, 1)) def forward(self, x): x = x * self.param return x model = MyModel() print(dict(model.named_parameters())) # {'param': Parameter containing: # tensor([[0..
1 2557 Hello World 2 1000 A+B 3 1001 A-B 4 10998 A×B 5 1008 A/B 6 10869 사칙연산 7 10926 ??! 8 18108 1998년생인 내가 태국에서는 2541년생?! 9 10430 나머지 10 2588 곱셈 11 11382 꼬마 정민 12 10171 고양이 13 10172 개 1. Hello World print('Hello World!') 2. A+B A, B = map(int, input().split()) print(A+B) 3. A-B A, B = map(int, input().split()) print(A-B) 4. AxB A, B = map(int, input().split()) print(A*B) 5. A/B A, B = map(int, ..
1. 디스크별 용량 확인하는 법 df -h 2. 특정 디렉토리와 용량을 확인하는 방법 du -hs {folder name} 3. 현재 폴더에 있는 폴더 및 파일 용량 출력하는 방법 du -hs * 이렇게 하면 현재 경로에 있는 폴더와 파일 용량을 출력해줍니다. 4. 현재 폴더에서 파일 용량이 큰 순서대로 보는 방법 # 파일 용량이 큰 순서대로 출력 du -h --max-depth=1 | sort -hr # 상위 n개 폴더의 용량 확인 sudo du -hsx * | sort -rh | head -n {(typt:int)n}
대부분의 출처는 스택오버프롤우 1. opencv 사용 위한 세팅 ImportError: libgthread-2.0.so.0: cannot open shared object file: No such file or directory docker환경에서 opencv-python 사용 시 발생하는 오류이다. sudo apt-get install libgl1-mesa-glx sudo apt-get install libglib2.0-0 >>> apt-get install libglib2.0-0 2. sklearn 다운로드 ModuleNotFoundError: No module named 'sklearn' ModuleNotFoundError: No module named '...' 이 뜰 경우엔 pip install..
참고용으로 정리 UNet 전체 네트워크를 학습하는 것과 디코더만 업데이트하는 것의 차이 1. 전체 네트워크를 학습하는 경우: - 인코더와 디코더의 모든 가중치가 업데이트 - 입력 이미지와 대상 출력(레이블) 간의 손실을 최소화하도록 모델이 최적화됨 - 전체 네트워크는 입력 이미지에 대한 픽셀 수준의 예측을 수행하며, 입력 이미지의 특징을 인코딩하고 디코딩하여 출력을 생성 2. 디코더만 업데이트하는 경우: - 인코더의 가중치는 고정되어 있고, 디코더만 업데이트 - 보통 사전 훈련된 인코더를 사용하여 디코더를 초기화하고, 디코더만 새로운 작업에 맞게 조정됨 - 일반적으로 스타일 변환 작업과 같은 고수준의 시각적 특징을 학습하는 데 효과적 - 인코더는 이미 일반적인 시각적 특징을 학습한 모델을 사용하기 때문에..
출처: https://github.com/pytorch/pytorch/blob/v1.0.1/torch/optim/lr_scheduler.py#L126 class StepLR(_LRScheduler): """Sets the learning rate of each parameter group to the initial lr decayed by gamma every step_size epochs. When last_epoch=-1, sets initial lr as lr. Args: optimizer (Optimizer): Wrapped optimizer. step_size (int): Period of learning rate decay. gamma (float): Multiplicative factor o..
- Total
- Today
- Yesterday
- 퓨샷러닝
- Unsupervised learning
- NLP
- 구글드라이브연동
- clip
- Prompt
- 구글드라이브다운
- prompt learning
- 도커
- style transfer
- python
- 파이썬 클래스 계층 구조
- 파이썬 딕셔너리
- 구글드라이브서버다운
- cs231n
- CNN
- 딥러닝
- docker
- 파이썬 클래스 다형성
- few-shot learning
- 서버에다운
- 도커 컨테이너
- 데이터셋다운로드
- support set
- vscode 자동 저장
- stylegan
- 파이썬
- 서버구글드라이브연동
- 프롬프트
- 구글드라이브서버연동
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |