ReLu1 대표적인 Activation Function (Sigmoid, tanh, ReLU, Leaky ReLU, ELU, PReLU, Softplus, Swish) 목차 활성화 함수(Activation Function) 정의 활성화 함수(Activation Function)는 신경망에서 입력 신호의 결과에 비선형성을 추가해 변환하는 함수입니다. 활성화 함수는 신경망에 필수적인 비선형성을 추가해 주어서 신경망이 더 복잡한 문제를 풀 수 있게 해 줍니다. 활성화 함수가 비선형 함수여야 하는 이유 : https://comdon-ai.tistory.com/48 활성화 함수(Activation Function)이라고 말하는 이유는 특정 임계값을 넘어서는 신호를 받았을 때 활성화되어 신호를 전달하는 뇌의 뉴런처럼 신경망의 각 뉴런이 어떤 입력에 대해 활성화되어야 하는지를 결정하는 중요한 역할을 하기 때문에 활성화 함수라고 부릅니다. 활성화 함수(Activation Functi.. 2023. 11. 21. 이전 1 다음