머신러닝 || 딥러닝

[DL] deep neural net의 문제점 : over fitting & gradient vanishing

써니(>_<) 2022. 8. 13. 12:24

복잡한 모델을 예측하기위해서는 parameter의 수를 증가 시켜야한다. => getting deeper 

 

parameter가 많아질수록 training dataset에서만 잘 작동하는 overfitting문제가 생긴다.

=> 이에 대한 solution으로는 regulararization (L1, L2)와 Drop out 이 있다

 

네트워크의 레이어의 개수가 증가할수록 backpropagation과정에서 gradient가 점점 0에 가까워지는 경우가 생긴다. 

=> activation function으로 시그모이드 대신 ReLU, leaky ReLU, ELU를 사용한다 

 

모델성능을 향상 시킬수있는 다른 테크닉들 : 

Weight initialization : Xavier initialization 

 

Batch normalization