normal과 randn이 헷갈려서 정리 넘파이의 랜덤 샘플링하는 함수이고, 원하는 분포를 만들 수 있습니다. 1. np.random.normal - 정규분포 - Draw random samples from a normal (Gaussian) distribution. - Returns: ndarray or scalar 2. np.random.randn - 표준정규준포 - Return a sample (or samples) from the “standard normal” distribution. - Returns: ndarray or float 따라서 평균이 0이고 표준편차가 1인 표준정규분포를 만들어 주기 위해선 import numpy as np # numpy.random.normal np.random...
이번 포스팅은 cs231n 강의의 Lecture 12 Video Understanding, EECS Lecture 24 Videos 자료를 참고하였습니다. 또한, Videos 관련 강의로는 해당 영상을 참고하였습니다. (Lecture 18: Videos (UMich EECS 498-007) Video = 2D + Tensor 비디오는 이미지 4D 텐서의 시퀀스입니다. (T x 3 x H x W) T: the time or temporal dimension 3: the channel dimension which is three colors RGB channels for the raw input video H and W: two spatial dimensions 비디오에는 motivating task가 있습..
이번 포스팅은 cs231n 강의의 Lecture 11 Attention and Transformers, EECS Lecture 17 Attention 자료를 참고하였습니다. 또한, Transformer 관련 내용으론 해당 블로그의 번역 글을 참고하였습니다. (The Illustrated Transformer) Sequence to Sequence with RNNs Problem: Input sequence bottlenecked through fixedsized vector. What if T=1000? Idea: use new context vector at each step of decoder! Sequence to Sequnece의 아이디어로는 컨텍스트 벡터를 인코더와 디코더 사이에 연결하는 것입니..
이번 포스팅은 cs231n 강의의 Lecture 10 Recurrent Neural Networks, EECS 498.008 / 598.008 강의의 Lecture 16 Recurrent Neural Network을 참고하여 정리하였습니다. 이번 강의는 cs231n의 자료가 더 좋습니다. 이번 강의에서 다루는 내용은 RNN, LSTM, GRU Language modeling Sequence-to-sequence Image captioning 입니다. RNN의 Process Sequence를 보면 이렇습니다. 1) One to one Image classification: Image → Label 2)One to many Image Captioning: Image → Sequence of words 3) ..
이번 포스팅은 standford university의 cs231 lecture 9와 EECS 498.008 / 598.008 강의의 Lecture 13 Object Detection, Lecture 14 Object Detectors, Lecture 15 Image Segmentation을 참고했습니다. cs231n 강의를 몇 개월째 공부하고 있지만(언제 끝낼거니^^), 개인적으로 후반부터는 EECS의 강의와 강의 자료가 더 상세히 설명되어 있고, 좋다고 느껴졌습니다. cs231n의 기원과 원천은 결국 Justin의 영혼에서 비롯된 것이 아닌가? 하는 생각. 아무튼 위 4개의 슬라이드를 바탕으로 정리한 글이며, 특히 이 글에서 첨부된 이미지는 강의 자료를 바탕으로 직접 제작한 PPT 이미지라서 이미지 사..
이번에 읽은 논문은 'Attention Is All You Need'입니다. (링크를 누르면 논문 아카이브 페이지로 이동합니다.) Transformer 논문을 읽고 공부하는데 도움이 된 자료 (유튜브 논문 리뷰 영상) [Paper Review] Attention is All You Need (Transformer) (유튜브 강의 영상) 08-2: Transformer (번역본 정리 글) The Illustrated Transformer 참고 코드 https://github.com/jadore801120/attention-is-all-you-need-pytorch https://github.com/hyunwoongko/transformer
참고 출처 [Paper Review] Neural Machine Translation by Jointly Learning to Align and Translate 15. 어텐션 메커니즘 (Attention Mechanism) [NLP | 논문리뷰] NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 딥러닝 논문 리뷰 >> NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 리뷰 해당 논문을 읽고, 위의 유튜브 리뷰 영상과 블로그 정리 글을 통해 필요한 부분만 정리했음을 밝힙니다. 또한, 아키텍처의 구조는 김탁영님의 자료를 첨부하였음을 밝힙니다. 감사합니다. 해..
문제 정수가 담긴 배열 numbers와 문자열 direction가 매개변수로 주어집니다. 배열 numbers의 원소를 direction방향으로 한 칸씩 회전시킨 배열을 return하도록 solution 함수를 완성해주세요. 제한사항 3 ≤ numbers의 길이 ≤ 20 direction은 "left" 와 "right" 둘 중 하나입니다. 입출력 예 해당 문제 풀이 방법 - 단순하게 리스트의 배열 위치만 바꾸면 되는 문제라 생각하였음. left일 경우와 right일 경우, 배열의 제일 첫 번째 또는 마지막 원소를 뽑아내고, 나머지 원소들과 재배열 하면 된다고 생각했음 def solution(numbers, direction): array = [] n = len(numbers) if direction == ..
- Total
- Today
- Yesterday
- 딥러닝
- style transfer
- 구글드라이브연동
- cs231n
- Prompt
- 프롬프트
- prompt learning
- 파이썬 딕셔너리
- 파이썬 클래스 다형성
- 파이썬 클래스 계층 구조
- 구글드라이브서버다운
- few-shot learning
- 데이터셋다운로드
- 서버구글드라이브연동
- NLP
- vscode 자동 저장
- docker
- 도커 컨테이너
- clip
- python
- support set
- 구글드라이브다운
- Unsupervised learning
- 구글드라이브서버연동
- CNN
- 도커
- stylegan
- 서버에다운
- 파이썬
- 퓨샷러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |