분류 전체보기171 [Boostcamp] Week2-Day7. 최적화 Optimization :: seoftware 목차 1. 강의정리 1-1. DL Basic - chap3. 최적화 1-2. (과제) Optimization 실습 2. 도메인 특강 - CV & NLP 3. 피어세션 4. 데일리 회고 📜 강의 정리 * 부스트캠프 DL_Basic 강의를 맡아주신 최성준 교수님의 강의를 정리한 것 입니다. [DL Basic] Chapter3. 최적화 Gradient Descent 미분 가능한 함수에서 local minimum을 찾는 반복적인 최적화 알고리즘 최적화(Optimization) 관련 용어 정리 Generalization 학습에 사용하지 않은 데이터(unseen data)와 학습 데이터 간의 에러의 차이를 의미 만약, 학습 데이터 자체의 성능이 좋지 않으면 Generalization이 좋다고 성능이 좋다고 할 수 .. 2021. 8. 10. [Boostcamp] Data Visualization 기본적인 차트 요소 :: seoftware 목차 1. 강의정리 1-1. Data Viz - chap1. Welcome to Viz (OT) 1-2. Data Viz - chap2. 시각화의 요소 1-3. Data Viz - chap3. Python과 Matplotlib 1-4. Data Viz - chap4. Bar Plot 사용하기 1-5. Data Viz - chap5. Line Plot 사용하기 1-6. Data Viz - chap6. Scatter Plot 사용하기 📜 강의 정리 * 부스트캠프 Data visualization 강의를 맡아주신 안수빈 강사님의 강의를 정리한 것 입니다. [Data Viz] Chapter1. Welcome to Viz (OT) 데이터 시각화란 데이터의 그래픽 요소로 매핑하여 시각적으로 표현하는 것 시각화는 다.. 2021. 8. 9. [Boostcamp] Week2 - Day6. Neural network :: seoftware 목차 1. 강의정리 1-1. DL Basic - chap1. 딥러닝 기본 용어 설명 - Historical Review 1-2. DL Basic - chap2. 뉴럴 네트워크 - MLP(Multi-Layer Perceptron) 1-3. (과제) MLP Assignment - MNIST 2. 피어세션 정리 3. 데일리 회고 📜 강의 정리 * 부스트캠프 DL_Basic 강의를 맡아주신 최성준 교수님의 강의를 정리한 것 입니다. [DL Basic] Chapter1. 딥러닝 기본 용어 설명 - Historical Review What make you a good deep learner? Implementation Skills - TF, PyTorch Math Skills - Linear Algebra, Pro.. 2021. 8. 9. [Deep Learning Specialization] Neural Networks and Deep Learning - week 1:: seoftware 📜 강의 정리 * Cousera 강의 중 Andrew Ng 교수님의 Deep Learning Specialization 강의를 공부하고 정리한 내용입니다. * 영어 공부를 하려고 영어로 강의를 정리하고 있습니다. 혹시 틀린 부분이나 어색한 부분이 있다면 댓글로 알려주시거나 넘어가주시면 감사하겠습니다 What you'll learn Neural Networks and Deep Learning Improving Deep Neural Networks : Hyperparameter tuning, Regularization and Optimization Structuring your Machine Learning project Convolutional Neural Networks Natural Language P.. 2021. 8. 8. [Boostcamp] Week1 - Day5. 하루 정리 :: seoftware 목차 1. 강의정리 1-1. AI Math - chap8. 베이즈 통계학 맛보기 2. 피어세션 정리 3. 데일리 회고 📜 강의 정리 [AI Math] Chapter8. 베이즈 통계학 맛보기 조건부확률 P(A|B) : 사건 B가 일어난 확률에서 사건 A가 발생할 확률 베이즈 정리 용어 정리 D : 관찰하는 데이터 / θ : 모수(계산하고자 하는 파라미터) / 사후확률은 데이터 관찰 후에 측정한 확률이고, 사전확률은 데이터가 주어지지 않은 상황에서 사전에 주어진 확률 / likelihood : 현재 데이터에서 어떤 모수가 관찰될 확률 / evidence : 데이터 자체의 분포 예제 : COVID-19의 발병률이 10%. COVID-19에 실제로 걸렸을 때 검진될 확률 99%. 실제로 걸리지 않았을 때 오검진.. 2021. 8. 6. [Boostcamp] Week1 - Day4. 하루 정리 :: seoftware 목차 1. 강의 정리 1-1. AI Math - chap9. CNN 첫걸음 1-2. AI Math - chap10. RNN 첫걸음 2. 과제 2-1. Backpropagation 3. 피어세션 정리 4. 데일리 회고 📜 강의 정리 * 부스트캠프 AI_Math 강의를 맡아주신 임성빈 교수님의 강의를 정리한 것 입니다. [AI Math] Chapter9. CNN 첫걸음 Convolution 연산 이해하기 지금까지 배운 다층신경망(MLP)은 각 뉴런들이 선형모델과 활성함수로 모두 연결된(fully connceted) 구조 Convolution 연산은 이와 달리 커널(kernel)을 입력벡터 상에서 움직여가면서 선형모델과 합성함수 적용 정리하면, i 번째 위치의 가중치 행렬(W(i))이 따로 존재하지 않고 공통.. 2021. 8. 5. [Boostcamp] Week1 - Day3. 하루정리 :: seoftware 목차 1. 강의정리 1-1. AI Math - chap7. 통계학 맛보기 1-2. AI Math - chap8. 베이즈 통계학 맛보기 2. 과제 2-1. GradientDescent 3. 피어세션 (+피어세션이 피었습니다) 정리 4. 데일리 회고 📜 강의 정리 [AI Math] Chapter7. 통계학 맛보기 통계적 모델링은 적절한 가장 위에서 확률분포를 추정하는 것이 목표인데, 유한한 개수의 데이터만 관찰해서 모집단의 분포를 정확하게 알아내는 것은 불가능하므로 근사적으로 확률분포를 추정할 수 밖에 없다. 예측모형의 목적은 분포를 정확하게 맞추는 것보다는 데이터와 추정 방법의 불확실성을 고려해서 위험을 최소화 모수 정의 : 특정 모집단 특성(예: 평균)에 대한 정보를 확인하려는 경우, 일반적으로 전체 모.. 2021. 8. 5. [Boostcamp] Week1 - Day2. 하루 정리 :: seoftware 목차 1. 강의정리 1-1. AI Math - chap5. 딥러닝 학습방법 이해하기 1-2. AI Math - chap6. 확률론 맛보기 2. 과제 2-1. Baseball 2-2. Morsecode 3. 피어세션 정리 4. 데일리 회고 📜 강의 정리 [AI Math] Chapter5. 딥러닝 학습방법 이해하기 ⦁ 지난시간에는 데이터를 선형모델로 해석하는 방법을 배웠다면 이제부터는 비선형모델인 신경망(neural network)를 배울 예정 ⦁ 신경망을 수식으로 분해 - O = Wx + b - 소프트맥스 : 모델의 출력을 확률로 해석할 수 있게 변환해주는 연산 분류 문제를 풀 때 선형모델과 소프트맥스 함수를 결합하여 예측 학습을 하는 경우에는 softmax 사용하지만 추론의 경우에는 원핫벡터로 최대값을 .. 2021. 8. 5. [Boostcamp] Week 1 - Day 1. 하루 정리 :: seoftware 목차 1. 강의정리 1-1. AI Math - chap1. 벡터 1-2. AI Math - chap2. 행렬 1-3. AI Math - chap3. 경사하강법(순한맛) 1-4. AI Math - chap4. 경사하강법(매운맛) 2. 과제 2-1. Basic Math 2-2. Text Processing Ⅰ 2-3. Text Processing Ⅱ 3. 피어세션 정리 4. 데일리 회고 📜 강의 정리 [AI Math] Chapter1. 벡터가 뭐예요? 벡터란 숫자를 원소로 가지는 리스트 또는 배열이다 코드 import numpy as np x = [1, 2, 3] y = np.array([1, 4, 2]) 공간에서의 한 점을 나타내고, 원점으로부터의 상대적 위치를 표현한다 벡터에 숫자를 곱해주면 길이만 변한.. 2021. 8. 3. 이전 1 ··· 3 4 5 6 7 8 9 ··· 19 다음