convex2 손실 함수(Loss Function) 목차 정의 손실 함수는 모델의 예측값과 실제값이 얼마나 잘 일치하는지를 측정하는 함수입니다. 손실 함수의 값이 작을수록 모델의 예측이 정확하다고 볼 수 있습니다. 손실 함수를 최소화하는 모델의 파라미터를 찾는 것이 모델의 학습 과정의 핵심입니다. 선형 회귀나 로지스틱 회귀의 경우는 학습 데이터에 대해 손실함수가 최소화되는 w0, w1, w2, ..., wn 값을 찾는 것이 모델의 학습 과정입니다. 손실 함수를 최소화하는 모델의 파라미터를 찾기 위해 대표적으로 경사 하강법(Gradient Descent)이라는 최적화 (Optimization) 알고리즘을 사용합니다. 경사 하강법의 내용은 아래 내용을 참고해 주시길 바랍니다. https://comdon-ai.tistory.com/25 비용 함수라고도 말하는 .. 2023. 9. 28. 로지스틱 회귀(Logistic Regression) 목차 로지스틱 회귀(Logistic Regression) 예시 로지스틱 회귀는 이진 분류(Binary Classificaiton)를 위한 알고리즘입니다. 이진 분류 예시 스팸 메일 분류 입력 : 이메일의 텍스트, 발신자 등의 정보 출력 : 스팸 또는 정상 메일 신용 카드 사기 탐지 입력 : 거래 정보, 계정 정보 등 출력 : 사기 거래 또는 정상 거래 환자 질병 예측 입력 : 환자의 연령, 혈압, 혈당 등의 의학적 측정치 출력 : 특정 질병의 유 무 고양이 이미지 분류 입력 : 이미지 출력 : 고양이 또는 다른 객체(고양이가 아님) 표기법 선형 회귀에 대해 데이터가 1개일 때와 m개일 때의 표기법을 살펴보도록 하겠습니다. (로지스틱 회귀의 경우 시그모이드 함수만 붙여주면 되기 때문에 표기법에는 별다른 차.. 2023. 9. 28. 이전 1 다음