본문 바로가기

Deep Learning for Computer Vision

(19)
EECS 498-007 / 598-005 Lecture 7 : Convolutional Networks 강의 링크 https://www.youtube.com/watch?v=ANyxBVxmdZ0&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=7 강의 슬라이드 https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture07.pdf 지금까지는 다차원 배열로 구성된 이미지를 벡터로 만들어서 처리했는데, 이 과정에서 spatial structure는 사라지게 되었다. 그래서 이번 시간에는 spatial structure를 처리할 수 있는 Convolutional Network에 대해 배워볼 것이다. Convolutional Network는 기존에 배웠던 Fully-Connected Layers와 Activation..
EECS 498-007 / 598-005 한국어 강의 https://sites.google.com/view/statml-smwu-2020s 통계적기계학습 (숙명여대 통계학과 2020-1) 딥러닝은 인공지능(시각처리, 청해, 언어이해)의 필수적인 개념이면서, 고성능의 기계학습기 건설을 위한 유용한 방법론이기도 합니다. 본 강좌에서는 통계학/수학 전공지식에 기반하여 딥러닝 sites.google.com EECS 498-007 / 598-00 페이지 보다가 한국어 강의가 있는 걸 발견했다. Other Information 한국어 강의 링크가 있었는데 매번 과제받을 때마다 왜 못 봤지 싶다 ㅋ 어쨌든 숙명여대 통계학과에서 강의 슬라이드 가지고 강의를 진행했는데 통계학과 강의이다 보니 강의에서 빠진 내용이 있는거 같은데 참고용으로 나쁘진 않은 것 같다. 그리고 교수..
EECS 498-007 / 598-005 Assignment #2-2 Two Layer Neural Network 부분은 먼저 forward pass 부분을 구현하는 것으로 시작된다. 더보기 def nn_forward_pass(params, X): """ The first stage of our neural network implementation: Run the forward pass of the network to compute the hidden layer features and classification scores. The network architecture should be: FC layer -> ReLU (hidden) -> FC layer (scores) As a practice, we will NOT allow to use torch.relu and to..
EECS 498-007 / 598-005 Assignment #2-1 ==================================================================== Backpropagation 강의 보고 왔는데, 확실히 강의 보고 했으면 훨씬 쉽게 했을거 같다. 20.01.19 ==================================================================== 과제는 Linear Classifier와 Two Layer Neural Network로 구성되어 있는데, 먼저 Linear Classifier에서는 SVM Loss와 Soft Max 방식의 Loss Function을 navie 한 방식과 vectorization을 적용한 방식으로 구현하고, SGD 방식에서 batch를 가져오는 것을 구현한다. 그리고..
EECS 498-007 / 598-005 Lecture 5 : Neural Networks 강의 링크 https://www.youtube.com/watch?v=g6InpdhUblE&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=5 강의 슬라이드 https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture05.pdf Linear Classifier는 간단한만큼, Geometric Viewpoint나 Visual Viewpoint에서 확인할 수 있듯이, 한계가 많다. 이러한 한계는 Feature Transform으로 어느 정도 극복이 가능하지만, 현실적으로 고차원의 데이터를 적절히 Feature Transform 하기 위해서는 고려해야 할 것이 한 둘이 아니다. 그래도 Feature Transfo..
EECS 498-007 / 598-005 Lecture 4 : Optimization 강의 링크 https://www.youtube.com/watch?v=YnQJTfbwBM8&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=4 강의 슬라이드 https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture04.pdf Optimization은 Loss를 최소화하는 W를 찾는 것으로 것으로 이 과정은 사람이 고지대에서 저지대로 가는 길을 찾는 것과 유사하다. Linear regression 등의 간단한 모델에서는 간단한 미분을 통해 최소 Loss를 가지는 W를 찾을 수 있지만, 복잡한 모델에서는 Linear regression이 가지는 것과 같은 명료한 공식을 통해 최적의 W를 찾기란 매우 어려운 ..
EECS 498-007 / 598-005 Lecture 3 : Linear Classifier 강의 링크 https://www.youtube.com/watch?v=qcSEP17uKKY&list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r&index=3 강의 슬라이드 https://web.eecs.umich.edu/~justincj/slides/eecs498/498_FA2019_lecture03.pdf 이번에 배울 Linear Classifier는 단순한 구조이지만 Neural Network의 기초를 이루는 매우 중요한 요소이다. Linear Classifier는 Parametric Approach의 한 갈래로 이전의 K-Nearest Neighbor에서는 input Image만 분류 과정에서 활용하였다면, Linear Classifier에서는 Input Image 'x'와 함께 ..
EECS 498-007 / 598-005 Assignment #1 Pytorch 과제의 파이토치 튜토리얼 부분은 튜토리얼 답게 딱히 설명할 부분은 없어서 코드만 첨부하겠다. 더보기 import torch def hello(): """ This is a sample function that we will try to import and run to ensure that our environment is correctly set up on Google Colab. """ print('Hello from pytorch101.py!') def create_sample_tensor(): """ Return a torch Tensor of shape (3, 2) which is filled with zeros, except for element (0, 1) which is set..

728x90