본문 바로가기

coursera8

[Sequence Models] Recurrent Neural Networks :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Sequence Models 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Recurrent Neural Networks 1. Why Sequence Models? 2. Notation 이전과 동일하게 i번째 example에 대해 (i)로 표현하고 x_(i)에서 시퀀스를 나타내기 위한 방법으로 를 사용 10K개의 단어가 있는 사전이 있다고 할 때, 각 단어의 위치를 1만 차원 shape의 원핫 벡터로 표현 3. Recurrent Neural Network Model 문장을 일반 신경망으로 학습하지 못하는 이유는 인풋과 아웃풋의 크기가 일정하지 않고, 한 단어의 중요도가 문장마다 다르기 때문에 특징을.. 2021. 9. 27.
[Convolutional Neural Networks] Special applications: Face recognition & Neural style transfer :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Face Recognition What is Face Recognition? Face recognition 문제는 verification과 구별된다. Face verification은 1:1 비교라면 Face Recognition은 1:N 비교라는 점이 가장 큰 차이점이다. One Shot Learning One shot learning이란 한 사진(example)만 보고 분류를 하는 것을 말한다. Face recognition에서 one-shot learning은 해결해야할 문제 중에 하나이다. 아래의.. 2021. 9. 27.
[Convolutional Neural Networks] Deep Convolutional Models - Case studies :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI 1. Case Studies Why look at case studies? I learned about the basic building blocks, such as convolutional layers, pooling layers, and fully connected layers. 지난 시간에 conv layer, pooling layer, fc layer 에 대해 배웠는데, 어떻게 이것들을 쌓아야 효과적인 네트워크 아키텍쳐를 만들 수 있을까? 한 task에서 잘 작동하는 네트워크는 대부분 다른 ta.. 2021. 9. 20.
[Structuring Machine Learning Projects] ML Strategy 2 :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Structuring Machine Learning Projects 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Error Anaylsis 1. Carrying out Error Anaylsis 고양이 분류 데이터셋에 강아지 사진, great cat(치타, 표범, 호랑이 등) 사진, 흐릿한 사진등이 섞여있다고 하면 학습 성능을 끌어올리는데 방해가 될 것이다. 그렇다고 모든 데이터의 에러를 수정하는 건 쉽지 않다. 따라서 100개 정도의 데이터셋을 뽑고 아래와 같은 표에 정리를 해서 몇 퍼센트가 오류가 있는 데이터셋인지 확인한다. 2. Cleaning up Incorrectly Labeled Dat.. 2021. 9. 13.
[Structuring Machine Learning Projects] Why ML Strategy :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Structuring Machine Learning Projects 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Introduction to ML Strategy There are some strategy for improving your system(model). These strategy can make your system work effectively and quickly. 머신러닝을 효율적으로 하는 사람들은 어떤 효과를 위해 어떤 하이퍼파라미터를 튜닝해야하는지 뚜렷한 안목을 가지고 있다. 이런 하이퍼파라미터를 튜닝하는 과정을 Orthogonalization(직교화)라고 부른다. 전체적인 .. 2021. 9. 12.
[Improving Deep Neural Network] Week 2. Optimization algorithms :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Optimization Algorithm 1. Mini-batch Gradient Descent Having fast optimization algorithms, having good optimization algorithms can really speed up the efficiency of you and your team. Vectorization allows you to efficiently c.. 2021. 9. 5.
[Deep Learning Specialization] Deep Neural Networks - week4:: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Deep Learning Specialization 강의를 공부하고 정리한 내용입니다. * 영어 공부를 하려고 영어로 강의를 정리하고 있습니다. 혹시 틀린 부분이나 어색한 부분이 있다면 댓글로 알려주시거나 넘어가주시면 감사하겠습니다 Deep Neural Networks 1. Forward propagation in a Deep Network We can represent each layer as follow Z[l] = W[l]@A[l-1] + b[l] A[l] = g[l](Z[l]) (l = layer) In vectorizing process, we have no choice but to use explicit for loop to.. 2021. 8. 22.
[Deep Learning Specialization] Neural Networks and Deep Learning - week 1:: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Deep Learning Specialization 강의를 공부하고 정리한 내용입니다. * 영어 공부를 하려고 영어로 강의를 정리하고 있습니다. 혹시 틀린 부분이나 어색한 부분이 있다면 댓글로 알려주시거나 넘어가주시면 감사하겠습니다 What you'll learn Neural Networks and Deep Learning Improving Deep Neural Networks : Hyperparameter tuning, Regularization and Optimization Structuring your Machine Learning project Convolutional Neural Networks Natural Language P.. 2021. 8. 8.