
제 인생 첫 강화학습, 솔직히 그냥 안 하고 싶은데 그래도 일단 꾸역꾸역 시작해봅니다. 저는 Fundamental of Reinforcement Learning 페이지를 참고하여 공부하고 정리했습니다. 글 가장 아래에 Reference를 다시 남기도록 하겠습니다. 강화학습을 공부하면 나오는 기본 단어들 에이전트(Agent), 상태(State), 행동(Action), 포상(Reward), 정책(Policy) 강화학습의 시작은 Trial and error Optimal control 이 두 가지라고 합니다. 첫 번째는 시행 착오를 통해 변화한다는 특징, 두 번째는 어떤 비용함수의 비용을 최소화하도록 controler를 디자인하는 것을 의미합니다. 두 번째 문제는 Bellman equation(벨만 방정식)을..

자료 출처: CS5670 Structure from motion Structure from motion 해당 개념은 2차원 영상으로부터 3차원 정보를 추출하는 것을 의미합니다. 순차적인 이미지 세트로부터 Structure의 3D reconstruction을 진행합니다. ― Multi-view stereo는 camera가 calibrated 되었다고 가정합니다. ― 이 말의 의미는 모든 view에 대해서 Extrinsics와 intrinsics를 알고 있다는 의미입니다. 그 내/외부 파라미터를 구하는 과정을 calibration이라고 합니다. ― 만약 그것을 모를 때 어떻게 calibration을 연산할 수 있을까요? 일반적으로 이것을 strucrture from motion이라 부릅니다. Large-sc..

multiview stere는 임의의 움직임에서 카메라가 획득한 이미지에서 scene depth를 재구성하는 것을 목표로 합니다. 최근 방법은 딥러닝을 통해 이 문제를 해결하며, semantic한 단서를 활용하여 textureless region과 reflective region 같은 문제를 처리합니다. DPSNET: END-TO-END DEEP PLANE SWEEP STEREO의 논문은 DPSNet이란 conv net을 제시합니다. 해당 컨볼루션 네트워크는 dense depth map의 reconstruction을 위한 기존 기하학 기반 접근 방식의 사례들에서 영감을 받아 설계되었습니다. 이전의 많은 deep learning의 방법에서는 image paris에서 depth 및 optical flow를 ..

자료 출처: CS5670 Multi-view stereo 이번 강의는 Multi-view stereo에 관한 내용입니다. 이어지는 내용은 13강의 stereo이며, 18강의 two-view geometry와도 이어집니다. 왼쪽과 오른쪽에서 바라봤을 때의 stereo pair이며, disparity를 계산한 map입니다. 이는 로봇과 네비게이션, 비디오 효과에 유용하게 쓰입니다. Multi-view Stereo 똑같은 object와 scene이 있는 여러장의 이미지가 주어진다면 이것들의 3D shape은 연산해서 표현할 수 있습니다. Input: 몇몇의 viewpoints들로부터 교정된 이미지(known intrinsics, extrinsics, projection matrices) Output: 3D o..

Justin Johnson의 Deep Learning for Computer Vision 강의로 Lecture 12: Recurrent Neural Networks 입니다. 이번 강의에서 다루는 내용은 RNN, LSTM, GRU Language modeling Sequence-to-sequence Image captioning Visual question answering 입니다. 이중 RNN, LSTM, GRU 관련된 내용 위주로 다룰 것 같습니다. Recurrent Neural Networks RNN은 sequence를 진행하며 업데이트 해 줄 'internal state'를 갖고 있다는 것이 핵심 아이디어입니다. 모든 스텝마다 vector $x$의 sequence마다 recurrence formul..

이번 포스팅은 RNN과 LSTM에 대해 공부하고 정리하려고 합니다.🚀 이전에 RNN과 LSTM에 대해 따로 정리한 자료가 있습니다. 해당 자료는 일러스트를 이용해서 정리한 자료이니 필요하신 분은 참고하세요. 🔗 Recurrent Neural Networks (순환 신경망) 🔗 Long Short-Term Memory(LSTM) and GRU Recurrent Neural Networks Recurrent Neural Networks은 이전의 inputs을 memory에 기억하는 최초의 algorithms입니다. RNN 아이디어의 시작은 sequential information의 이용이었습니다. 전통적 신경망에서는 모든 inputs과 outputs이 서로 독립적이라 가정합니다. 그러나 많은 task에서 이..

이번 포스팅은 LSTM의 아주 기초적인 부분에 대해 공부해보려고 합니다.🚀 기본기를 탄탄하게 쌓는 포스팅이 되면 좋겠군요! *해당 포스팅은 Reference에 있는 일러스트로 설명하는 LSTM 포스팅을 바탕으로 번역하여 정리했음을 밝힙니다. * 이전 RNN의 내용을 보고 싶으시다면 두 번째 링크를 참고 부탁드립니다. Reference 🔗 Illustrated Guide to LSTM’s and GRU’s: A step by step explanation 🔗 RNN(Recurrent Neural Networks, 순환 신경망) 그림으로 이해하기 Short-term Memory의 문제 Recurrent Neural Networks는 Short-term Memory 문제를 갖습니다. sequence가 매우 길..

이번 포스팅은 RNN의 아주 기초적인 부분에 대해 공부해보려고 합니다.🚀 앞으로 NLP 분야를 공부할 예정이니 기본기를 탄탄하게 쌓는 포스팅이 되면 좋겠군요! 해당 포스팅은 Reference에 있는 일러스트로 설명하는 RNN 포스팅을 바탕으로 번역하여 정리했음을 밝힙니다. Reference 📄 Illustrated Guide to Recurrent Neural Networks What are RNN’s? RNN 아이디어의 시작은 sequential information의 이용이었습니다. 전통적 신경망에서는 모든 inputs과 outputs이 서로 독립적이라 가정합니다. 그러나 많은 task에서 이 가정이 좋지는 못했습니다. 예를 들어, 문장에서 단어를 예측하려면 그 앞에 어떤 단어가 왔는지를 알아야 더 ..
- Total
- Today
- Yesterday
- 파이썬 딕셔너리
- python
- docker
- Hugging Face
- stylegan
- 도커 작업
- hugging face trending paper
- clip
- 리눅스 나노 사용
- CNN
- 딥러닝
- 페이퍼윗코드
- cs231n
- Prompt
- 퓨샷러닝
- 리눅스
- prompt learning
- 파이썬
- 도커 컨테이너
- 프롬프트
- 페위코
- 도커
- support set
- Unsupervised learning
- 허깅페이스 트렌딩 페이퍼
- Paperwithcode
- NLP
- few-shot learning
- 허깅페이스
- style transfer
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |