Cute Bunny 3 'AI/CS231n' 카테고리의 글 목록
본문 바로가기 메뉴 바로가기

이빨 빠진 미남이

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

이빨 빠진 미남이

검색하기 폼
  • 분류 전체보기 (212)
    • AI (76)
      • Machine Learning (5)
      • Deep Learning (26)
      • Reinforcement Learing (2)
      • CS231n (11)
      • Computer Vision (19)
      • Linear Algebra (1)
      • NLP (9)
    • Review (19)
      • Paper (19)
    • Skills (116)
      • PyTorch (7)
      • Docker (14)
      • Pythons (20)
      • Git & Github (3)
      • DS & Algorithms (4)
      • Error (48)
      • etc (20)
    • Mine (1)
  • 방명록

AI/CS231n (11)
cs231n 13강 정리 - Generative models

이번 포스팅은 cs231n 강의의 Lecture 13 Generative models를 참고하여 공부하였습니다. 2022년에 공부하고 정리한 건데, 개념이 어려웠는지 귀찮았는지 또 정리를 저 이후로 포기했나보네요. 아무쪼록 다시 정리 해보겠습니다. Supervised vs Unsupervised Learning 컴퓨터 비전에서 이미지 분류 같은 작업 등을 통하여 많은 발전을 이루었습니다. 크게 data와 label 사이의 관계를 학습한 Supervised와 데이터 자체로서 갖고 있는 특징을 이해하기 위한 시도는 Unsupervised로 연구되어 왔습니다. 그 이후 데이터 갖는 True distribution을 학습하여 데이터에 대한 모든 것을 학습하고 싶은 Densitiy model의 관점으로 접근해 본..

AI/CS231n 2023. 12. 21. 11:50
cs231n 12강 정리 - Video Understanding

이번 포스팅은 cs231n 강의의 Lecture 12 Video Understanding, EECS Lecture 24 Videos 자료를 참고하였습니다. 또한, Videos 관련 강의로는 해당 영상을 참고하였습니다. (Lecture 18: Videos (UMich EECS 498-007) Video = 2D + Tensor 비디오는 이미지 4D 텐서의 시퀀스입니다. (T x 3 x H x W) T: the time or temporal dimension 3: the channel dimension which is three colors RGB channels for the raw input video H and W: two spatial dimensions 비디오에는 motivating task가 있습..

AI/CS231n 2023. 1. 26. 16:14
cs231n 11강 정리 - Attention and Transformers

이번 포스팅은 cs231n 강의의 Lecture 11 Attention and Transformers, EECS Lecture 17 Attention 자료를 참고하였습니다. 또한, Transformer 관련 내용으론 해당 블로그의 번역 글을 참고하였습니다. (The Illustrated Transformer) Sequence to Sequence with RNNs Problem: Input sequence bottlenecked through fixedsized vector. What if T=1000? Idea: use new context vector at each step of decoder! Sequence to Sequnece의 아이디어로는 컨텍스트 벡터를 인코더와 디코더 사이에 연결하는 것입니..

AI/CS231n 2023. 1. 23. 16:44
cs231n 10강 정리 - Reccurrent Neural Network

이번 포스팅은 cs231n 강의의 Lecture 10 Recurrent Neural Networks, EECS 498.008 / 598.008 강의의 Lecture 16 Recurrent Neural Network을 참고하여 정리하였습니다. 이번 강의는 cs231n의 자료가 더 좋습니다. 이번 강의에서 다루는 내용은 RNN, LSTM, GRU Language modeling Sequence-to-sequence Image captioning 입니다. RNN의 Process Sequence를 보면 이렇습니다. 1) One to one Image classification: Image → Label 2)One to many Image Captioning: Image → Sequence of words 3) ..

AI/CS231n 2023. 1. 18. 18:51
cs231n 9강 정리 - Object Detection and Image Segmentation

이번 포스팅은 standford university의 cs231 lecture 9와 EECS 498.008 / 598.008 강의의 Lecture 13 Object Detection, Lecture 14 Object Detectors, Lecture 15 Image Segmentation을 참고했습니다. cs231n 강의를 몇 개월째 공부하고 있지만(언제 끝낼거니^^), 개인적으로 후반부터는 EECS의 강의와 강의 자료가 더 상세히 설명되어 있고, 좋다고 느껴졌습니다. cs231n의 기원과 원천은 결국 Justin의 영혼에서 비롯된 것이 아닌가? 하는 생각. 아무튼 위 4개의 슬라이드를 바탕으로 정리한 글이며, 특히 이 글에서 첨부된 이미지는 강의 자료를 바탕으로 직접 제작한 PPT 이미지라서 이미지 사..

AI/CS231n 2023. 1. 17. 21:21
cs231n 8강 정리 - Visualizing and Understanding

이번 포스팅은 standford university의 cs231 lecture 8를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. What's going on inside ConvNets? 이전 lecture에서 CNN Architecture를 살펴보고, 지금까지는 어떻게 CNN을 학습시킬 것인지를 배웠고, 다양한 문제를 풀기 위해서 CNN Architecture를 어떻게 설계하고 조합해야 하는지를 배웠습니다. 그렇다면 Convolution Neural Networks 안에서는 무슨 일이 일어나고 있을까요? CNN의 내부는 어떻게 생겼을까요? CNN이 어떤 종류의 feature를 찾고 있는 것일까요? 이번 Lec8의 내용은 Visualizing and Understanding입니다. 컨볼..

AI/CS231n 2022. 12. 5. 14:57
cs231n 7강 정리 - Training Neural Networks

이번 포스팅은 standford university의 cs231 lecture 7를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. 강의 슬라이드는 [Index of slides in 2022] 에서 다운 받을 수 있습니다. 이때까지 배운 것을 살짝 정리해보면, Neural network를 배웠고, Forward/Backword propagation, Update parameters, Convolution layer, CNN architectures 등을 배웠습니다. 이번 강의의 개요는 학습 전 설정, 학습 후 설정, 평가할 때 쓸 수 있는 기법 등이 있습니다. 1. Activation Function activation function은 활성화함수라고 부릅니다. 이는 neural netw..

AI/CS231n 2022. 11. 13. 21:55
cs231n 5강 정리 - Convolutional Neural Networks

이번 포스팅은 standford university의 cs231 lecture 5를 공부하고, 강의와 슬라이드를 바탕으로 정리한 글임을 밝힙니다. Reference 💻 유튜브 강의: Lecture 5 | Convolutional Neural Networks 💻 한글 강의: cs231n 7강 CNN 📑 slide: PDF 📔 1. CNN 개요 📔 2. Why CNN? 📔 3. CNN의 구조 📗 Intuitively Understanding Convolutions for Deep Learning 📕 06. 합성곱 신경망 - Convolutional Neural Networks Contents Reference Contents Outline Multi-layered Neural Network 문제점 Why C..

AI/CS231n 2022. 8. 15. 15:37
이전 1 2 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 파이썬 클래스 다형성
  • few-shot learning
  • 서버구글드라이브연동
  • stylegan
  • linux nano
  • 리눅스 나노
  • 리눅스 나노 사용
  • 도커 컨테이너
  • docker
  • support set
  • 파이썬 클래스 계층 구조
  • NLP
  • cs231n
  • 리눅스
  • python
  • prompt learning
  • 퓨샷러닝
  • CNN
  • 프롬프트
  • 리눅스 nano
  • clip
  • 도커
  • Prompt
  • style transfer
  • Unsupervised learning
  • 파이썬
  • 도커 작업
  • 딥러닝
  • 파이썬 딕셔너리
  • 구글드라이브연동
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함
250x250

Blog is powered by Tistory / Designed by Tistory

티스토리툴바