AI공부/딥러닝 (1) 썸네일형 리스트형 딥러닝의 기본 | 활성화 함수와 Stochastic Gradient Descent 딥러닝의 기본이 되는 활성화 함수와 경사하강법 이론에 대해 알아보겠습니다.(feat. GPT와 공부하기 !) 📌 활성화 함수 (Activation Function)- 인공 뉴런이 출력 신호를 만들 때 사용하는 비선형 함수.- 딥러닝은 선형 조합만으로는 복잡한 패턴을 표현할 수 없기 때문에, 활성화 함수가 있어야 비선형 경계나 복잡한 함수 근사가 가능.Sigmoid0~1 범위, 확률 해석에 적합Tanh-1~1 범위, 중심화됨ReLU0 이상만 전달, 간단하고 빠름Leaky ReLUReLU에서 0 이하도 약간 통과Softmax분류 확률 출력용 (출력층에서 사용)- 주로 Sigmoid는 binary 분류문제에, Softmax는 multinomial 분류 문제의 출력층에 사용되며, 은닉층에는 ReLU함수가.. 이전 1 다음