본문 바로가기

deeplearning5

[Sequence Models] Recurrent Neural Networks :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Sequence Models 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Recurrent Neural Networks 1. Why Sequence Models? 2. Notation 이전과 동일하게 i번째 example에 대해 (i)로 표현하고 x_(i)에서 시퀀스를 나타내기 위한 방법으로 를 사용 10K개의 단어가 있는 사전이 있다고 할 때, 각 단어의 위치를 1만 차원 shape의 원핫 벡터로 표현 3. Recurrent Neural Network Model 문장을 일반 신경망으로 학습하지 못하는 이유는 인풋과 아웃풋의 크기가 일정하지 않고, 한 단어의 중요도가 문장마다 다르기 때문에 특징을.. 2021. 9. 27.
[Convolutional Neural Networks] Deep Convolutional Models - Case studies :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI 1. Case Studies Why look at case studies? I learned about the basic building blocks, such as convolutional layers, pooling layers, and fully connected layers. 지난 시간에 conv layer, pooling layer, fc layer 에 대해 배웠는데, 어떻게 이것들을 쌓아야 효과적인 네트워크 아키텍쳐를 만들 수 있을까? 한 task에서 잘 작동하는 네트워크는 대부분 다른 ta.. 2021. 9. 20.
[Convolutional Neural Networks] Foundations of Convolutional Neural Networks :: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Convolutional Neural Network 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Computer Vision Image Classification, Object Detection, Neural Style Transfer 등이 Computer Vision에 포함된다. Edge Detection Example convolution filter를 통해 아래와 같이 featrue를 뽑아낼 수 있다. 초기 layer에서는 큰 특징, 후반 layer에서는 detail한 특징이 추출된다. conv filter(=kernel)이 어떻게 작용 방법은 input 이미지에 대해 conv filter가 .. 2021. 9. 13.
[Structuring Machine Learning Projects] ML Strategy 2 :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Structuring Machine Learning Projects 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Error Anaylsis 1. Carrying out Error Anaylsis 고양이 분류 데이터셋에 강아지 사진, great cat(치타, 표범, 호랑이 등) 사진, 흐릿한 사진등이 섞여있다고 하면 학습 성능을 끌어올리는데 방해가 될 것이다. 그렇다고 모든 데이터의 에러를 수정하는 건 쉽지 않다. 따라서 100개 정도의 데이터셋을 뽑고 아래와 같은 표에 정리를 해서 몇 퍼센트가 오류가 있는 데이터셋인지 확인한다. 2. Cleaning up Incorrectly Labeled Dat.. 2021. 9. 13.
[Improving Deep Neural Network] Week 2. Optimization algorithms :: seoftware 📜 강의 정리 * Coursera 강의 중 Andrew Ng 교수님의 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 강의를 공부하고 정리한 내용입니다. * 이미지 출처 : Deeplearning.AI Optimization Algorithm 1. Mini-batch Gradient Descent Having fast optimization algorithms, having good optimization algorithms can really speed up the efficiency of you and your team. Vectorization allows you to efficiently c.. 2021. 9. 5.