
TensorBoard를 로드하기 위해선 해당 버전 이상이 필요하다는 오류 메시지이다. pip install tb-nightly 해당 패키지를 설치했는데도 동일한 에러가 뜬다면 conda install -c anaconda protobuf conda install future 설치를 해주면 해결이 됩니다 :) 감사합니다.

에러명: Python gprc AttributeError: 'NoneType' object has no attribute 'message_types_by_name' 최신 grpcio버전은 호환되지 않는 pb21.44.0 파일을 생성하므로 동일한 질문을 보고 다운그레이드 하고 작동했습니다.grpcio 1.30.0 pip install -Iv grpcio-tools==1.48.1 임시 해결 방법은 grpcio-tools버전을 1.48.1로 다운그레이드하는 것입니다.

해당 에러의 발생 원인은 'cuda:0' device 타입의 tensor를 직접 numpy로 변환할 수 없어서 생기는 오류입니다. 이미 tensor는 gpu에 올려져서 계산되다가, numpy 연산을 하려면 cpu에서 가능하니 이런 에러가 발생하는 것입니다. 따라서 'Tensor.cpu()' 등의 메서드를 사용해야합니다. 해결 방법은 tensor를 cpu에 재할당 해주면 됩니다. 보통 방법은 변수 뒤에 .cpu().numpy() .detach().numpy() 붙여주면 되는데 안 돼서 이번엔 이렇게 했더니 됐습니다. .detach().cpu().numpy() - detach(): 텐서를 다른 센터로부터 분리(detach)하여 연산 그래프에서 해당 텐서와 연결을 끊는 역할을 합니다. gradient 계산에서..

ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all() 해당 에러는 넘파이 배열을 통해 연산을 비교 할 때, True/False로 결과를 말하기 애매할 때 나타나는 오류이다. 뒤에 설명 그대로 .any() 나 all()을 사용하면 명확해진다. - 모든 값이 같은지 알고 싶다면: all() - 1개라도 같은지 알고 싶다면: any() numpy.logical_and(a, b) 대신 이런 코드를 사용해도 된다.

AttributeError: 'Namespace' object has no attribute 'learning_rate' 처음 보는 에러 유형. 구글링을 해서 찾아보니 비슷한 에러가 많았고, 해석해보면 args 객체에 learning_rate 속성이 설정되지 않았을 때 발생할 수 있는 에러 같다. 네임스페이스(namespace, 이름공간)란 프로그래밍 언어에서 특정한 객체(Object)를 이름(Name)에 따라 구분할 수 있는 범위를 의미한다. 파이썬 내부의 모든것은 객체로 구성되며 이들 각각은 특정 이름과의 매핑 관계를 갖게 되는데 이 매핑을 포함하고 있는 공간을 네임스페이스라고 한다. 네임스페이스가 필요한 이유는 다음과 같다. 프로그래밍을 수행하다보면 모든 변수 이름과 함수 이름을 정하는 것이 중요한..

1. 도커 컨테이너 별 용량 확인 docker system df --v 2. 서버에 할당된 용량 확인 df -h 3. 파일 디렉토리 별 용량 확인 sudo du -sm * | sort -nr 용량 정리를 위한 삭제 관련 (*조심해서 사용하세요) 1. 컨테이너 삭제 docker container prune 2. 이미지 삭제 docker image prune 3. 볼륨 삭제 docker volume prune 4. 사용하지 않는 네트워크 삭제 docekr network prune 5. 사용하지 않는 모든 오브젝트 삭제 docker system prune -a 삭제 할 때 --force filter 를 통해 조건을 줄 수 있음

cuda가 인식이 안 돼서 발생하는 문제이다. 이를 확인해보기 위해서 터미널에서 python을 입력하고 들어가서 아래로 잘 확인해보기 import torch print(torch.__version__) print(torch.cuda.current_device()) print(torch.cuda.device(0)) print(torch.cuda.device_count()) print(torch.cuda.get_device_name(0)) print(torch.cuda.is_available()) print(torch.cuda.current_device()) 차례대로 토치 버전과 디바이스에서 사용하는 번호, 사용 가능한지 등을 확인할 수 있다. 난 모두 정상이었는데 코드 상에서 gpu 번호를 9번으로 def..

import torch torch.cuda.is_available() 했을 때 False가 뜨는 경우는 pytorch에서 cuda가 제대로 사용할 수있는 상태라고 볼 수 있습니다. pytorch 또는 cuda 설치를 다시 살펴봐야 하고, GPU 모델 번호, 그래픽 드라이버 버전, cuda 버전 및 pytorch 버전이 모두 일치해야 합니다. Ubuntu 18.04 환경에서는 sudo apt-get install -y datacenter-gpu-manager sudo systemctl --now enable nvidia-dcgm sudo systemctl status nvidia-dcgm sudo apt-get install cuda-drivers-fabricmanager sudo systemctl sta..
- Total
- Today
- Yesterday
- 파이썬 딕셔너리
- 리눅스 나노 사용
- 도커 작업
- 리눅스 나노
- 리눅스 nano
- 파이썬
- clip
- 퓨샷러닝
- docker
- python
- few-shot learning
- style transfer
- 서버구글드라이브연동
- NLP
- 파이썬 클래스 계층 구조
- 딥러닝
- 도커 컨테이너
- Prompt
- 도커
- prompt learning
- CNN
- 프롬프트
- support set
- linux nano
- stylegan
- 구글드라이브연동
- cs231n
- 리눅스
- 파이썬 클래스 다형성
- Unsupervised learning
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |