인공지능(AI) 맛보기 : 딥러닝 기본 용어 설명 - Historical Review 강의 요약 및 복습을 위한 참고자료 입니다.
전문용어에 대해 보기 쉬운 설명을 보강하였습니다.
모든 내용은 [부스트캠프 AI Tech 3기] Pre-Course 의 내용입니다.
딥러닝 ⊂ 머신러닝 ⊂ AI ( = 딥러닝은 머신러닝, 머신러닝은 AI에 속한다)
- AI는 사람의 지능을 모방한다
- 머신러닝은 데이터를 통해 학습한다
좋은 딥러너(Good deep learner)의 조건
- 좋은 구현실력
- 수학실력 (선형대수,확률론)
- 연구 알기
딥러닝에 중요한 4가지 (아래를 중심으로 연구를 이해)
1) 데이터 : 모델이 배울 수 있다.
2) 모델 : 데이터를 변환한다. (ex 이미지를 라벨로 바꾸어주는 모델 필요)
3) 손실함수(Loss Function) : 가중치 값이 최적인지를 보기 위한 함수 (평균제곱오차, 교차 엔트로피 오차 등)
4) 알고리즘 : 로스를 최소화
1) Data
Data depend on the type of the problem to solve
Ex) 이미지 분류 / 이미지 라벨링하기 / 이미지 안에 어떤 바운딩박스가 있는가 / 이미지의 색깔 무엇인가?
2) Model
같은 데이터/테스크여도 모델에 따라 결과의 질이 다르다
3) Loss function : 어떻게 모델을 학습할건가?
The loss function is a proxy of what we want to achieve. : 이루고자 하는 것의 근사치
(1) 회귀문제 : 출력값과 타겟 점 사이의 제곱을 최소화 시키는 목적
(2) 분류 문제 : 출력값과 내 라벨 데이터 사이의 값 축소
(3) 확률 문제 : 출력값의 평균 분산 등을 모델링 할 때 사용
4) Optimization Algorithm
bad work (loss function의 결과값) 최소화 하는 모델의 인자를 찾는다.
학습하지 않은 데이터에서 잘 작동하는가를 체크하고자, 학습이 잘 안되게 하는 요건도 추가할 수 있다
(ex. 실제 환경 작동여부 체크)
Historical Review
Deep learning’s most important ideas – A Brief Historical Review 참조
2012 – AlexNet : 이미지가 들어갔을 때 분류하는 것이 목적. 딥러닝의 성능을 보여줌
2013 – DQN : 딥마인드, 알파고 등의 기반
2014 – Encoder/Decoder : 단어가 주어졌을 때 시퀀스를 만들 때 활용
2014 – Adam Optimizer : 실험결과가 웬만하면 잘나온다
2015 – Generative Adversarial Network : 네트워크가 생성자(Generator) / 구분자 (Discriminator) 를 만들어서 학습
2015 – Residual Networks : Network를 깊게 쌓을 수 있게 만들어줌
2017 – Transformer
2018 – BERT : 방대한 단어들을 활용하여 Pre-training 한 후, 풀고자 하는 문제의 소스 데이터에 이 네트워크를 Fine – Tuning 해 좋은 성능을 낸다.
2019 – Big Language Models(GPT-X) : 약간의 파인 튜닝으로 다양한 표/시퀀스 모델 등을 만들 수 있으며, 많은 파라미터로 이루어진 모델.
2020 – Self Supervised Learning : SimCLR, 한정된 학습데이터 외에 라벨을 모르는 데이터를 활용한다.
'Experience > Naver booster camp' 카테고리의 다른 글
핵심만 담은 AI를 위한 수학 지식 : 행렬이 뭐에요? (0) | 2021.12.10 |
---|