목차
1. 강의정리
1-1. CV - chap9-1. Multi-modal Learning
1-2. CV - chap9-2. Image Captioning
2. 과제
2-1. Conditional GAN
3. 피어세션 정리
📜 강의 정리
[CV] Chapter 9-1. Muti-modal Learning
Multi-modal learning이란 한 타입의 데이터가 아니라 다른 특성을 갖는 데이터 타입을 같이 활용하는 학습법. 예를 들면, 텍스트와 사운드 함께 학습하는 예시가 있다.
1. Overview of Multi-Modal learning
✔ multi-modal의 어려운 점(Challenge)
- Different representations between modalities : 데이터 간의 표현 방법이 다르다. 오디오는 1-d signal의 wave form. 이미지는 2d, 3d array. 텍스트는 워드에 해당하는 embedding data.
- Unbalance between heterogeneous feature spaces : 한 이미지에 해당하는 텍스트가 한 개가 아니다(1:N 매칭). 예를 들면 "아보카도 모양의 암체어를 찾아줘"라는 텍스트에 대해 해당하는 이미지가 여러가지가 있고 반대의 경우도 여러가지로 표현이 가능하다.
- May a model be biased on a specific modality : 오히려 많은 정보가 학습에 방해가 될 수 있다. 대부분의 이미지로 로 예측이 가능하기 때문에 한 데이터 타입으로 모델이 biased되는 경향이 있다.
✔ Despite the challenges, multi-modal learning is fruitful and important
2. Multi-Modal Task (1) - Visual data & Text
✔ Text data에 대한 기초
Text Embedding
- Embedding Dense vector로 표현(verb, plural 등의 특징을 벡터로 표현)
- Text embedding vector간의 관계특성이 들어가고 일반화가 가능하다. 위의 이미지를 보면 cat과 kitten이 가깝고 cat에는 dog가 house보다 가깝게 위치한다. 남자와 여자의 관계가 king과 queen의 관계와 같은 걸로 볼 수 있다.
word2vec - skip gram model
text embedding을 사용하는 방법
- W와 W'을 학습한다
- W의 행벡터는 각 word의 embedding vector이다.
- 각 워드의 앞, 뒤 등의 문장 패턴을 학습하는 모델
- 주변 N개의 word를 예측하고, 그 단어 주변의 단어들과의 관계성을 이해한다.
✔ Joint Embedding
매칭을 하기 위한 Embedding vector를 학습하는 방법
- 1. Image Tagging : 이미지를 보고 태그를 추천해주거나, 태그를 보고 이미지를 생성한다
- 두 pretrained uni-modal models를 combine
- Metric learning : 같은 embedding space에 mapping을 해주고, 두 distance간의 거리를 push(멀게) 해야할지 pull(가깝게) 해야할지 학습한다.
- 2. Cross Modal Translation
- Image Captioning : Image to Sentence 이미지를 설명하는 텍스트로 변환
- 이미지는 CNN & 텍스트는 RNN : show and tell
- Show: Encoder, Tell : Decoder
- Show, attention(attend), tell : 어떤 feature가 어떤 text로 변환되는지 집중
- Text를 Image로 주어지는 경우에는 아래와 같이 여러 이미지가 나오므로 generative model을 사용해야 한다.
- 가우시안 랜덤코드(z~N(0,1))는 똑같은 랜덤코드가 들어갔을 때, 항상 다른 이미지가 나올 수 있도록 해준다.
- 3. Cross Modal Reasoning(Referencing)
- Visual question answering : 이미지를 보고 질문에 대답을 하는 것. end-to-end training
- Visual question answering : 이미지를 보고 질문에 대답을 하는 것. end-to-end training
3. Multi-Modal Task (2) - Visual data & Audio
✔ Sound Representation
Waveform을 Spectrogram으로 변환하여 사용한다. 변환방법으로 푸리에변환(Fourier transform)을 사용하는데, 시간적인 정보를 담기 위해 Short-time Fourier transform (STFT)를 사용한다.
Short-time Fourier transform (STFT)이란 특정 사이즈의 윈도우를 waveform 위에서 이동시키며 푸리에 변환을 적용하는 방법이다.
푸리에 변환을 하게 되면 정규분포 모양의 결과물이 나오는데, 그걸 윈도우 단위별로 적용하여 시간에 따른 푸리에 변환을 확인할 수 있게 된다. 또한 Hamming window를 window와 element wise 곱을 해서 가운데 영역의 feature를 더 두드러지게 표현하도록 한다.
Fourier transform을 하는 이유는 주파수 특징을 파악할 수 있도록 하기 위해서이다. 아래 사진을 보면 Frequency Domain의 특징이 다른 것을 확인할 수 있다.
결과적으로 타임축에 따른 spectrum의 stacking을 통해 아래와 같은 spectogram이 만들어져서 nueral network의 인풋이미지로 사용된다. MFCC, melspectogram등의 표현 방식이 있다.
✔ Joint Embedding
- 1. Matching : scene recognition by sound, soundNet
- Translating : Speech2Face, Image to sound
- Reasoning : Sound source localization, cocktail party
👩💻 과제 수행 과정
💥 과제내용 : cGan 구현
❓ ipynb 에서 argparse error 발생.
딕셔너리 사용 버전
parser = easydict.EasyDict({"n_epochs": 40, "batch_size":1, "lr":0.0002, "b1":0.5, "b2":0.999, "n_cpu":8, "latent_dim":100, "n_classes":len(class_list), "img_size":64, "channels":3, "sample_interval":1})
argparse 사용 버전
# argparser
import argparse
parser = argparse.ArgumentParser()
# Data and model checkpoints directories
parser.add_argument('--n_epochs', type=int, default=40)
parser.add_argument('--batch_size', type=int, default=1)
parser.add_argument('--lr', type=float, default=0.0002)
parser.add_argument('--b1', type=float, default=0.5)
parser.add_argument("--b2", type=float, default=0.999)
parser.add_argument('--n_cpu', type=int, default=8)
parser.add_argument('--latent_dim', type=int, default=100)
parser.add_argument('--n_classes', type=int, default=len(class_list))
parser.add_argument('--img_size', type=int, default=64)
parser.add_argument('--channels', type=int, default=3)
parser.add_argument('--sample_interval', type=int, default=1)
# args = parser.parse_args()
parser = parser.parse_args(args=[])
print(parser)
✅ parser.parse_arg()로 사용하면 에러가 나서, parser.parse_args(args=[])로 하면 에러가 나지 않는다.
🙋♀️피어세션
강의 자료를 보며 강의 리뷰를 진행했습니다.
김준영 캠퍼님께서 전반적인 흐름을 잡아주셨고 박상현 캠퍼님과 배민환 캠퍼님께서 퓨리에 변환에 대해 자세하게 설명해주셨습니다.
'TIL > Boostcamp AI tech' 카테고리의 다른 글
[Boostcamp Lv2] Week8-Day35. 특강 Ⅰ :: seoftware (0) | 2021.09.23 |
---|---|
[Booscamp Lv2]Week7-Day33. 3D understanding :: seoftware (0) | 2021.09.17 |
[Boostcamp Lv2] Week7-Day30. CNN Visualization :: seoftware (0) | 2021.09.16 |
[Boostcamp Lv2] Week6-Day25. Image classification | VGG11 구현 :: seoftware (0) | 2021.09.07 |
[Image Classification] Week5 Daily Report :: seoftware (0) | 2021.09.03 |
댓글