HyeM

딥러닝 용어 정리 본문

Study/AI&DeepLearning

딥러닝 용어 정리

Hailey_HyeM207 2021. 1. 11. 17:06

딥러닝 전체 구조 및 학습 과정 

Data -> Model -> logit -> result 

Loss, Optm

 

▶ Data : 학습 시킬 데이터. Model에 들어가기 전에 데이터 전처리 필요. Batch로 만들어서 Model에 넣ㅇㅁ

 

 Model : 다양한 Layer층들로 구성됨. 

             - 모델 종류 : LeNet, AlexNet, VGG, ResNet등 

             - Layer : Convolution, Poolint 등 다양한 layer 

 

 

 Logit (Prediction) : 각 class 별로 예측한 값. 가장 높은 값이 정답. 

 

 Lost (Cost) : 예측한 값과 정답을 비교해서 얼마나 틀렸는지 확인. 결과값을 Loss(Cost, Cost Value)라고 부름.

                 Loss를 최소화 하는 것이 학습과정

 

 Optimization : Loss 값을 최소화하기 위해 weight(기울기) 값을 변경하여 최적화 된 Variable 값을 반환  

 

 Result : 평가할 때는 예측된 값에서 가장 높은 값이 예측한 class라고 한다.

               

 

 

딥러닝 용어 

Model : 모델을 학습시킴.

Layer :  layer를 여러층 쌓아 model 구성. layer를 어떻게 쌓느냐, 어느정도 깊게 쌓느냐에 따라 달라짐

Convolution : 합성곱. 특징 추출.

Weight /Filter / Kernel / Variable / Bias : Convolution 안에서 데이터 마다 다른 weight를 학습 시킨다. 

Pooling Layer : 앞에서 뽑은 feature를 입축하여 줄임. ( Convolutiond은 특징 뽑고, poolint은 압축함.)

Optimization : loss를 최소화 하는 방법 

Activation Function : 예를 들면 음수값, 양수값 등이 있을 때, 필요없는 음수값을 제거하는 용도. (다양한 function존재)

Softmax : 앞에서 받은 값을 확률로 나타내준다. 예를 들면 ,모든 값을 더했을 때 1로 만들어서 확률로 표현함.

 

Cost / Loss / Loss Function : 얼마나 틀렸는지 확인(그래프로확인하면, 얼마나 틀렸는지 거리 확인 가능)

Learning Rate : 하이퍼 파라미터 중 하나. (하이퍼 파라미터 : 머신러닝 할 때 사람이 직접 조절하는 인자 중 하나) 

                    learning Rate는 너무 낮거나 높으면 안되고, 적당해야 된다.

 

Batch Size : Model에  data를 나눠서 넣어줄때, 나눠서 넣는 사이즈.

Epoch / Step : Epoch 수만큼 전체 데이터 학습 횟수를 나타냄. 2 epoch은 전체 데이터 셋에 대해 2번의 학습이 완료됐음을 나타낸다. 

Train / Validation / Test : Data Set을 학습 시킬 Train Set와 학습된 모델을 테스트하기 위한 Test Set이 있다.

Label / Ground Truth : 데이터의 정답. data를 줄 때 label도 같이 주어야 한다. 

Class :  

 

 

CNN 모델 구조 

CNN 은 크게 Feature Extraction과 Classification 으로 나뉜다. 

Feature Extraciton은 특징을 추출하는 것으로 Convoluiob, Relu, Max pooling으로 구성된다. CNN은 Layer들이 겹겹이 쌓여서 존재한다. 

Classification은 예측 결정을 내리는 것이다. 

 

Feature Extraction

1. Convolution Layer : 

 합성곱. fileter 를 통해 특징들을 합성해서, 특징을 표현한다. 

2. Pooling Layer

 앞에서 뽑은 feature를 입축하여 줄이는 단계로,  Max Pooling은  가장 큰 특징을 골라 줄이는 방법이다. 

3. Activation Function

 필요없는 값을 없애는 것으로, ReLU의 경우엔 음수값을 0으로 하여 없앤다. 

 

Classification

1. Fully Connected 

 input layer와 output layer를 연결하는데 y=wx + b처럼, 결과값이 y가 될 수 있도록 w와 b를 조절하여, 결과를 예측한다.

 

Comments