Example

부스트캠프 AI Tech 2기/Precourse

Logistic Regression

Logistic Regression Logistic Classification과 동일 binary classification으로 결과값이 0과 1중에 한개일거다 P(x=1) = 1-P(x=0) -> X가 1일확률 = 1- X가 0일확률 (이미지 출처: Boostcourse AI Tech Pre Course) H(x) = P(x=1;w) = 1 - P(x=0;w) weight update Gradient Discent (이미지 출처: Boostcourse AI Tech Pre Course) import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim # 항상 같은 결과를 주기위해 seed torch..

부스트캠프 AI Tech 2기/Precourse

Gradient Descent 심화

Hypothesis 인공신경망을 나타냄 EX) Linear Regression W와 b라는 변수를 학습해서 주어진 데이터에 최적화함 (이미지출처: boostcourse ai tech pre course) Simpler Hypothesis Function 이번엔 Bias를 제거한 H(x) = Wx 로 실험해보자 아래와 같은 데이터가 존재할 때 Hour(x) Points(y) 1 1 2 2 3 3 (이미지출처: boostcourse ai tech pre course) CostFunction: 모델의 예측값이 실제값과 얼마나 다른지 나타냄, 좋은모델일수록 낮은값을 가짐 Linear Regression에서 사용되는 Costfunction은 MSE(Mean Squared Error)를 사용 CostFunction..

부스트캠프 AI Tech 2기/Precourse

Linear Regression

예제 공부시간에 따른 점수데이터가 아래와 같이 존재할 때 4시간 공부했을 경우 점수를 예측해보자 시간 점수 1 2 2 4 3 6 4 ??? Hypothesis(가설) y = Wx + b x_train = torch.FloatTensor([[1],[2],[3]]) y_train = torch.FloatTensor([[4],[5],[6]]) W = torch.zeros(1, requires_grad=True) b = torch.zeros(1, requires_grad=True) hypothesis = x_train * W + b weight와 bias를 0으로 초기화 항상 출력 0을 예측 requires_grad = True 학습할 것이라고 명시 Compute Loss MSE를 사용 (이미지출처: boost..

모플로
'Example' 태그의 글 목록