TIL/Coursera(Google ML Bootcamp)13 [Sequence Models] Recurrent Neural Networks :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Sequence Models 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Recurrent Neural Networks 1. Why Sequence Models? 2. Notation 이전과 동일하게 i번째 example에 대해 (i)로 표현하고 x_(i)에서 시퀀스를 나타내기 위한 방법으로 를 사용 10K개의 단어가 있는 사전이 있다고 할 때, 각 단어의 위치를 1만 차원 shape의 원핫 벡터로 표현 3. Recurrent Neural Network Model 문장을 일반 신경망으로 학습하지 못하는 이유는 인풋과 아웃풋의 크기가 일정하지 않고, 한 단어의 중요도가 문장마다 다르기 때문에 특징을.. 2021. 9. 27. [Convolutional Neural Networks] Special applications: Face recognition & Neural style transfer :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Face Recognition What is Face Recognition? Face recognition 문제는 verification과 구별된다. Face verification은 1:1 비교라면 Face Recognition은 1:N 비교라는 점이 가장 큰 차이점이다. One Shot Learning One shot learning이란 한 사진(example)만 보고 분류를 하는 것을 말한다. Face recognition에서 one-shot learning은 해결해야할 문제 중에 하나이다. 아래의.. 2021. 9. 27. [Convolutional Neural Networks] Object Detection :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Detection Algorithms Object Localization 위와 같은 예시에서 target label y를 살펴보면 [P_c, b_x, b_y, b_h, b_w, c1, c2, c3] 로 구성이 되어있다. P_c는 이미지에 객체가 있으면 1, 없으면 0이고 b_로 시작하는 것들은 바운딩박스에 관련된 것, c로 시작되는 것들은 각 클래스에 해당하는 객체가 이미지 안에 있는지 나타내는 것이다. 만약 P_c(=y_1)가 1이라면 predict와 target간의 각각의 위치에 해당하는 인자끼리 l.. 2021. 9. 20. [Convolutional Neural Networks] Deep Convolutional Models - Case studies :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI 1. Case Studies Why look at case studies? I learned about the basic building blocks, such as convolutional layers, pooling layers, and fully connected layers. 지난 시간에 conv layer, pooling layer, fc layer 에 대해 배웠는데, 어떻게 이것들을 쌓아야 효과적인 네트워크 아키텍쳐를 만들 수 있을까? 한 task에서 잘 작동하는 네트워크는 대부분 다른 ta.. 2021. 9. 20. [Convolutional Neural Networks] Foundations of Convolutional Neural Networks :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Computer Vision Image Classification, Object Detection, Neural Style Transfer 등이 Computer Vision에 포함된다. Edge Detection Example convolution filter를 통해 아래와 같이 featrue를 뽑아낼 수 있다. 초기 layer에서는 큰 특징, 후반 layer에서는 detail한 특징이 추출된다. conv filter(=kernel)이 어떻게 작용 방법은 input 이미지에 대해 conv filter가 .. 2021. 9. 13. [Structuring Machine Learning Projects] ML Strategy 2 :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Structuring Machine Learning Projects 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Error Anaylsis 1. Carrying out Error Anaylsis 고양이 분류 데이터셋에 강아지 사진, great cat(치타, 표범, 호랑이 등) 사진, 흐릿한 사진등이 섞여있다고 하면 학습 성능을 끌어올리는데 방해가 될 것이다. 그렇다고 모든 데이터의 에러를 수정하는 건 쉽지 않다. 따라서 100개 정도의 데이터셋을 뽑고 아래와 같은 표에 정리를 해서 몇 퍼센트가 오류가 있는 데이터셋인지 확인한다. 2. Cleaning up Incorrectly Labeled Dat.. 2021. 9. 13. [Structuring Machine Learning Projects] Why ML Strategy :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Structuring Machine Learning Projects 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Introduction to ML Strategy There are some strategy for improving your system(model). These strategy can make your system work effectively and quickly. 머신러닝을 효율적으로 하는 사람들은 어떤 효과를 위해 어떤 하이퍼파라미터를 튜닝해야하는지 뚜렷한 안목을 가지고 있다. 이런 하이퍼파라미터를 튜닝하는 과정을 Orthogonalization(직교화)라고 부른다. 전체적인 .. 2021. 9. 12. [Improving Deep Neural Network] Week 2. Optimization algorithms :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Optimization Algorithm 1. Mini-batch Gradient Descent Having fast optimization algorithms, having good optimization algorithms can really speed up the efficiency of you and your team. Vectorization allows you to efficiently c.. 2021. 9. 5. [Improving Deep Neural Networks] Practical Aspects of Deep Learning :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 강의를 공부하고 정리한 내용입니다. * 영어 공부를 하려고 부분적으로 영어로 강의를 정리하고 있습니다. 혹시 틀린 부분이나 어색한 부분이 있다면 댓글로 알려주시거나 넘어가주시면 감사하겠습니다 Setting Up your Machine Learning Application 1. Train/dev/test ratio of each part (Small dataset) Trainng : Validation : Testing = 60 : 20 : 20 (Large dataset) Traini.. 2021. 8. 25. 이전 1 2 다음