pytorch

부스트캠프 AI Tech 2기/Precourse

Gradient Descent 심화

Hypothesis 인공신경망을 나타냄 EX) Linear Regression W와 b라는 변수를 학습해서 주어진 데이터에 최적화함 (이미지출처: boostcourse ai tech pre course) Simpler Hypothesis Function 이번엔 Bias를 제거한 H(x) = Wx 로 실험해보자 아래와 같은 데이터가 존재할 때 Hour(x) Points(y) 1 1 2 2 3 3 (이미지출처: boostcourse ai tech pre course) CostFunction: 모델의 예측값이 실제값과 얼마나 다른지 나타냄, 좋은모델일수록 낮은값을 가짐 Linear Regression에서 사용되는 Costfunction은 MSE(Mean Squared Error)를 사용 CostFunction..

부스트캠프 AI Tech 2기/Precourse

Linear Regression

예제 공부시간에 따른 점수데이터가 아래와 같이 존재할 때 4시간 공부했을 경우 점수를 예측해보자 시간 점수 1 2 2 4 3 6 4 ??? Hypothesis(가설) y = Wx + b x_train = torch.FloatTensor([[1],[2],[3]]) y_train = torch.FloatTensor([[4],[5],[6]]) W = torch.zeros(1, requires_grad=True) b = torch.zeros(1, requires_grad=True) hypothesis = x_train * W + b weight와 bias를 0으로 초기화 항상 출력 0을 예측 requires_grad = True 학습할 것이라고 명시 Compute Loss MSE를 사용 (이미지출처: boost..

부스트캠프 AI Tech 2기/Precourse

Tensor Manipulation 2

Pytorch View numpy의 reshape와 동일 t = np.array([[[0,1,2],[3,4,5]], [[6,7,8],[9,10,11]]] ft = torch.FloatTensor(t) ft -> tensor([[[ 0., 1., 2.], [ 3., 4., 5.]], [[ 6., 7., 8.], [ 9., 10., 11.]]]) ft.shape -> torch.Size([2, 2, 3]) ft.view([-1,3]).shape -> torch.Size([4, 3]) ft.view([4,1,3]).shape -> torch.Size([4, 1, 3]) Squeeze 차원이 1인 경우에는 해당 차원을 제거함 ft = torch.FloatTensor([[0],[1],[2]]) ft.shape -..

부스트캠프 AI Tech 2기/Precourse

Tensor Manipulation 1

Vector, Matrix, Tensor 1차원: 벡터 2차원: 행렬 3차원: 텐서 (이미지출처: boostcourse ai-tech pre-course) 3차원 텐서의 구성: (이미지출처: boostcourse ai-tech pre-course) computer vision |t| = (batch_size, width, height) 첫번째 값이 세로, 두번째값이 가로, 세번째값이 깊이 nlp |t| = (batchsize,length,dim) 첫번째 값이 세로, 두번째값이 가로, 세번째값이 깊이 PyTorch Tensor 1D Array t = torch.FloatTensor([0.,1.,2.,3.,4.,5.,6.]) t.dim() -> 1 t.shape -> torch.Size([7]) t.size..

모플로
'pytorch' 태그의 글 목록 (2 Page)