일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 문자열 조작
- leetcode 49
- leetcode 344
- Python
- MapReduce 실습
- 블로그 이전했어요
- ctf-d
- leetcode 234
- airflow docker
- Hortonworks Sandbox
- leetcode 238
- wargame.kr
- leetcode125
- 빅데이터를 지탱하는 기술
- docker로 airflow 설치하기
- 올바른 변수명 짓기
- leetcode 937
- 배열
- 데이터레이크와 데이터웨어하우스
- leetcode 561
- leetcode 5
- Hadoop
- 스파크 완벽 가이드
- leetcode 121
- 컴퓨터구조
- leetcode 15
- leetcode
- webcrawler
- leetcode 819
- 머신러닝
- Today
- Total
HyeM
딥러닝 용어 정리 본문
딥러닝 전체 구조 및 학습 과정
Data -> Model -> logit -> result
Loss, Optm
▶ Data : 학습 시킬 데이터. Model에 들어가기 전에 데이터 전처리 필요. Batch로 만들어서 Model에 넣ㅇㅁ
▶ Model : 다양한 Layer층들로 구성됨.
- 모델 종류 : LeNet, AlexNet, VGG, ResNet등
- Layer : Convolution, Poolint 등 다양한 layer
▶ Logit (Prediction) : 각 class 별로 예측한 값. 가장 높은 값이 정답.
▶ Lost (Cost) : 예측한 값과 정답을 비교해서 얼마나 틀렸는지 확인. 결과값을 Loss(Cost, Cost Value)라고 부름.
Loss를 최소화 하는 것이 학습과정
▶ Optimization : Loss 값을 최소화하기 위해 weight(기울기) 값을 변경하여 최적화 된 Variable 값을 반환
▶ Result : 평가할 때는 예측된 값에서 가장 높은 값이 예측한 class라고 한다.
딥러닝 용어
Model : 모델을 학습시킴.
Layer : layer를 여러층 쌓아 model 구성. layer를 어떻게 쌓느냐, 어느정도 깊게 쌓느냐에 따라 달라짐
Convolution : 합성곱. 특징 추출.
Weight /Filter / Kernel / Variable / Bias : Convolution 안에서 데이터 마다 다른 weight를 학습 시킨다.
Pooling Layer : 앞에서 뽑은 feature를 입축하여 줄임. ( Convolutiond은 특징 뽑고, poolint은 압축함.)
Optimization : loss를 최소화 하는 방법
Activation Function : 예를 들면 음수값, 양수값 등이 있을 때, 필요없는 음수값을 제거하는 용도. (다양한 function존재)
Softmax : 앞에서 받은 값을 확률로 나타내준다. 예를 들면 ,모든 값을 더했을 때 1로 만들어서 확률로 표현함.
Cost / Loss / Loss Function : 얼마나 틀렸는지 확인(그래프로확인하면, 얼마나 틀렸는지 거리 확인 가능)
Learning Rate : 하이퍼 파라미터 중 하나. (하이퍼 파라미터 : 머신러닝 할 때 사람이 직접 조절하는 인자 중 하나)
learning Rate는 너무 낮거나 높으면 안되고, 적당해야 된다.
Batch Size : Model에 data를 나눠서 넣어줄때, 나눠서 넣는 사이즈.
Epoch / Step : Epoch 수만큼 전체 데이터 학습 횟수를 나타냄. 2 epoch은 전체 데이터 셋에 대해 2번의 학습이 완료됐음을 나타낸다.
Train / Validation / Test : Data Set을 학습 시킬 Train Set와 학습된 모델을 테스트하기 위한 Test Set이 있다.
Label / Ground Truth : 데이터의 정답. data를 줄 때 label도 같이 주어야 한다.
Class :
CNN 모델 구조
CNN 은 크게 Feature Extraction과 Classification 으로 나뉜다.
Feature Extraciton은 특징을 추출하는 것으로 Convoluiob, Relu, Max pooling으로 구성된다. CNN은 Layer들이 겹겹이 쌓여서 존재한다.
Classification은 예측 결정을 내리는 것이다.
Feature Extraction
1. Convolution Layer :
합성곱. fileter 를 통해 특징들을 합성해서, 특징을 표현한다.
2. Pooling Layer
앞에서 뽑은 feature를 입축하여 줄이는 단계로, Max Pooling은 가장 큰 특징을 골라 줄이는 방법이다.
3. Activation Function
필요없는 값을 없애는 것으로, ReLU의 경우엔 음수값을 0으로 하여 없앤다.
Classification
1. Fully Connected
input layer와 output layer를 연결하는데 y=wx + b처럼, 결과값이 y가 될 수 있도록 w와 b를 조절하여, 결과를 예측한다.
'Study > AI&DeepLearning' 카테고리의 다른 글
Numpy 기초 (0) | 2021.01.11 |
---|---|
Numpy로 Tensor 이해하기 (0) | 2021.01.11 |
6부_6장 마르코프 체인과 LSTM으로 문장 생성하기 (0) | 2020.08.14 |
6부_5장 N-gram으로 문장유사도 분석하기 (0) | 2020.08.04 |
6부_4장 MLP 텍스트 분류하기 (2) | 2020.08.01 |