썸네일 cs231n 13강 정리 - Generative models 이번 포스팅은 cs231n 강의의 Lecture 13 Generative models를 참고하여 공부하였습니다. 2022년에 공부하고 정리한 건데, 개념이 어려웠는지 귀찮았는지 또 정리를 저 이후로 포기했나보네요. 아무쪼록 다시 정리 해보겠습니다. Supervised vs Unsupervised Learning 컴퓨터 비전에서 이미지 분류 같은 작업 등을 통하여 많은 발전을 이루었습니다. 크게 data와 label 사이의 관계를 학습한 Supervised와 데이터 자체로서 갖고 있는 특징을 이해하기 위한 시도는 Unsupervised로 연구되어 왔습니다. 그 이후 데이터 갖는 True distribution을 학습하여 데이터에 대한 모든 것을 학습하고 싶은 Densitiy model의 관점으로 접근해 본..
썸네일 cs231n 12강 정리 - Video Understanding 이번 포스팅은 cs231n 강의의 Lecture 12 Video Understanding, EECS Lecture 24 Videos 자료를 참고하였습니다. 또한, Videos 관련 강의로는 해당 영상을 참고하였습니다. (Lecture 18: Videos (UMich EECS 498-007) Video = 2D + Tensor 비디오는 이미지 4D 텐서의 시퀀스입니다. (T x 3 x H x W) T: the time or temporal dimension 3: the channel dimension which is three colors RGB channels for the raw input video H and W: two spatial dimensions 비디오에는 motivating task가 있습..
썸네일 cs231n 11강 정리 - Attention and Transformers 이번 포스팅은 cs231n 강의의 Lecture 11 Attention and Transformers, EECS Lecture 17 Attention 자료를 참고하였습니다. 또한, Transformer 관련 내용으론 해당 블로그의 번역 글을 참고하였습니다. (The Illustrated Transformer) Sequence to Sequence with RNNs Problem: Input sequence bottlenecked through fixedsized vector. What if T=1000? Idea: use new context vector at each step of decoder! Sequence to Sequnece의 아이디어로는 컨텍스트 벡터를 인코더와 디코더 사이에 연결하는 것입니..
썸네일 cs231n 10강 정리 - Reccurrent Neural Network 이번 포스팅은 cs231n 강의의 Lecture 10 Recurrent Neural Networks, EECS 498.008 / 598.008 강의의 Lecture 16 Recurrent Neural Network을 참고하여 정리하였습니다. 이번 강의는 cs231n의 자료가 더 좋습니다. 이번 강의에서 다루는 내용은 RNN, LSTM, GRU Language modeling Sequence-to-sequence Image captioning 입니다. RNN의 Process Sequence를 보면 이렇습니다. 1) One to one Image classification: Image → Label 2)One to many Image Captioning: Image → Sequence of words 3) ..
썸네일 cs231n 9강 정리 - Object Detection and Image Segmentation 이번 포스팅은 standford university의 cs231 lecture 9와 EECS 498.008 / 598.008 강의의 Lecture 13 Object Detection, Lecture 14 Object Detectors, Lecture 15 Image Segmentation을 참고했습니다. cs231n 강의를 몇 개월째 공부하고 있지만(언제 끝낼거니^^), 개인적으로 후반부터는 EECS의 강의와 강의 자료가 더 상세히 설명되어 있고, 좋다고 느껴졌습니다. cs231n의 기원과 원천은 결국 Justin의 영혼에서 비롯된 것이 아닌가? 하는 생각. 아무튼 위 4개의 슬라이드를 바탕으로 정리한 글이며, 특히 이 글에서 첨부된 이미지는 강의 자료를 바탕으로 직접 제작한 PPT 이미지라서 이미지 사..
썸네일 cs231n 8강 정리 - Visualizing and Understanding 이번 포스팅은 standford university의 cs231 lecture 8를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. What's going on inside ConvNets? 이전 lecture에서 CNN Architecture를 살펴보고, 지금까지는 어떻게 CNN을 학습시킬 것인지를 배웠고, 다양한 문제를 풀기 위해서 CNN Architecture를 어떻게 설계하고 조합해야 하는지를 배웠습니다. 그렇다면 Convolution Neural Networks 안에서는 무슨 일이 일어나고 있을까요? CNN의 내부는 어떻게 생겼을까요? CNN이 어떤 종류의 feature를 찾고 있는 것일까요? 이번 Lec8의 내용은 Visualizing and Understanding입니다. 컨볼..
썸네일 cs231n 7강 정리 - Training Neural Networks 이번 포스팅은 standford university의 cs231 lecture 7를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. 강의 슬라이드는 [Index of slides in 2022] 에서 다운 받을 수 있습니다. 이때까지 배운 것을 살짝 정리해보면, Neural network를 배웠고, Forward/Backword propagation, Update parameters, Convolution layer, CNN architectures 등을 배웠습니다. 이번 강의의 개요는 학습 전 설정, 학습 후 설정, 평가할 때 쓸 수 있는 기법 등이 있습니다. 1. Activation Function activation function은 활성화함수라고 부릅니다. 이는 neural netw..
썸네일 cs231n 5강 정리 - Convolutional Neural Networks 이번 포스팅은 standford university의 cs231 lecture 5를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. Reference 💻 유튜브 강의: Lecture 5 | Convolutional Neural Networks 💻 한글 강의: cs231n 7강 CNN 📑 slide: PDF 📔 1. CNN 개요 📔 2. Why CNN? 📔 3. CNN의 구조 📗 Intuitively Understanding Convolutions for Deep Learning 📕 06. 합성곱 신경망 - Convolutional Neural Networks Contents Reference Contents Outline Multi-layered Neural Network 문제점 Why C..
썸네일 cs231n 4강 정리 - Introduction to Neural Networks 이번 포스팅은 standford university의 cs231 lecture 4를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. 제가 직접 필기한 이미지 자료는 별도의 허락 없이 복사해서 다른 곳에 게시하는 행위를 금지합니다. 필요하신 경우 댓글로 알려주세요! Reference 💻 유튜브 강의: Introduction to Neural Networks 💻 한글 강의: cs231n 4강 Backpropagation and NN part 1 📑 slide: PDF Contents Reference Contents Review Backpropagation: a simple example chain rule이 무엇인가? Another example sigmoid gate Patterns in ..
썸네일 CS231n 3강 정리 - Loss Functions and Optimization 이번 포스팅은 standford university의 cs231 lecture 3를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. Reference 💻 유튜브 강의: Loss Functions and Optimization 📑 slide: PDF Contents Outline Multiclass Support Vector Machine Loss(Multiclass SVM loss) Questions 1~6 Regularization Weight Decay Softmax Questions 1~3 Softmax vs. SVM 중간 Summary Optimization 1-1. Random Search 1-2. Random Local Search 2-1. Gradeint 따라가기(Follow ..
썸네일 CS231n 2강 정리 - Image Classification | 0. 강의 자료 CS231n: Convolutional Neural Networks for Visual Recognition CS231n 전체 강의자료: 강의 자료 링크 CS231n 2강: Youtube 링크 CS231n_2강 강의자료: slide.pdf | 1. 강의 목표 K-Nearest Neighbor Linear classifiers: SVM, Softmax Two-layer neural network Image features | 2. Image Classification The Problem: Semantic Gap An image is just a big grid of numbers between [0, 245]: 컴퓨터는 이미지를 0부터 245까지 픽셀로 본다. 따라서, 컴퓨터가 이미지..