Activities 썸네일형 리스트형 [Time Series] 메타코드 강의 후기_챕터 3: Time Series Model - part 2 #Input Tensor 선언 input = torch.ones(5, 3) # seq_size, input_dim # input = torch.ones(11, 5, 3) # batch_size, seq-size, input_dim RNN Layer 정의 # RNN Layer 선언rnn_layer = nn.RNN (input_size=3, hidden_size=10) Output shape # output 출력output, hidden = rnn_layer(input0print(output.shape) print(hidden.shape) 웹 크롤링 code = '005930' # 삼성전자 종목코드 url = ' 어쩌고 'header ' = { 'User-agent ' : 'Mozilla/5.0' }r.. 더보기 [Time Series] 메타코드 강의 후기_챕터 3: Time Series Model - part 1 What is Time Series?• Sequence Data / Time Series Data ?- Sequence Data : 순서가 의미가 있으며 순서가 달라질 경우의 미가 손상되는데이터,시간적인의미가 있다면 temporal data라고도 함- Time Series (시계열 데이터) : 일정 시간 간격으로 기록된 데이터- 과거패턴을 기반으로 미래를 예측하거나(Forecasting) 과거 특징적인 부분들을 분석 What is Time Series?• 통계적 분석 방법론(딥러닝도 입전 기존 시계열 모델)- 원본시계열 에서 Trend, Seasonality를 제거하고 남은 Residual 을 모델링- Residual은 Stationarity 라는 특징을 기반으로 모델링(AR, MA, ARIMA, SA.. 더보기 [CNN] 메타코드 강의 후기_챕터 3: Convolutional Neural Network(CNN) - part 2 Pooling Layer- Dimension의 크기를 줄이고 싶을 때 사용하는 down sampling 방식- 주로 CNN은 Pooling을 이용하여 점점 feature map size는 작아지고,Depth는 깊어지는 구조로 구성되어있음 Convolutional Neural Networks- CNN, ConvNet, 합성곱 신경망- Convolutional Layer + Pooling Layer로 이미지에서 정보를 추출한 뒤(feature extractor)추출된 feature (=representation) 을 FC layer로 분류 (=Classifer) #Define the input tensorinput = torch.randn(10, 3, 7, 7) #Batch_size, Kernel_si.. 더보기 [Classification] 메타코드 강의 후기_챕터 3: Pytorch Exercises - Linear Regression 실습, Classification Task Regression with Neural Network• 2-Depth FC layers Input• Linear Regression 모델과의 비교 • 모델학습과정- Torch.utils.data.datasets 이용하여 데이터셋 구성- 모델선언- Optimizer 선언 (Adam)- Trainset으로 학습(data sample 1개씩 처리 vs Batch 처리) 1. What is Classification?2. Logistic Regression3. Classification with Neural Network 분류가 무엇인지에 대해서 배우고, 논리 회귀에 대해 배운 후 신경망을 활용한 분류를 배워보자. • Classification 이란?- Input 변수(x)로 범주형변수인Label(y)을.. 더보기 [Regression] 메타코드 강의 후기_챕터 3: Pytorch Exercises - Regression이란, Linear Regression Regression 이란?- Input 변수(x)를 통해 연속형변수인 output (y, label, 종속변수)을 예측하는 모델링기법- 연속형변수의예측이기때문에예측값↔ 실제값의차이를통해모델성능평가 Regression Task• 모델링목표- 13개의input 변수들로 MEDV(주택가격)을 예측- 새로운input 이생겼을때, 실제output값과최대한가까운예측 • 모델성능평가- 전체데이터셋(506개)를7:3, 8:2 등의비율로trainset, testset으로 분리 (랜덤)- Trainset 만으로 모델 학습후test set의 input X로 예측값을 계산,test set의 실제 output 과 예측값 과의차이(RMSE등)를측정하여모델평가 Linear Regression• 선형회귀모델은?- Y = 𝛼.. 더보기 [Optimizer] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss 실습하기 저번 시간에 공부했던 Loss function 이랑 Optimization 방식들을 실제 실습으로 적용해보면서 공부하도록 하자. 4. Loss Function MSE Loss : Regression Task에 주로 사용하며, predict값 과 실제 output값의 차이를 제곱합으로 계산한다. import torch.nn as nn #nn.MSELoss() mse_loss = nn.MSELoss()pred = torch.randn(4,10)output = torch.randn(4, 10)mse_loss(pred, output) print(pred, output) nn.NLLLoss() : Negative Log Likelihood Loss 실제결과와 예측 확률을 곱한 것을 더해서 로그를 씌운 것이.. 더보기 [Backpropagation] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss 최적화 - Gradient Descent 이번 시간에는 저번 시간에 이어 뉴럴 네트워크 학습에 대해 공부해봅시다. 저번시간에 Loss 의 정의와 Loss Function들을 배웠는데, 이번 시간에는 그 Loss를 어떻게 줄여나가야 하는지, 그 방식으로 Gradient Descent 와 Backpropagation에 대해 배워봅시다. Loss를 줄이는 것이 목표라면... 어떻게 최적화해야할까요? ex ) 산 정상에서 빨리 내려오려면 모든 곳에 발을 뻗어서 기울기가 가파른 방향으로 가야할 것이다. 이 행동을 매번 반복해서 더 이상 뻗을 곳이 없을 때가 minimum 에 도달해서 도착한 것이다. - Gradient : 기울기 - Descent : 하강 - 주어진 Loss Function의 최소값을 찾아가는 알고리즘이다- 결국 weight ( .. 더보기 [Loss Function] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss Function 이번 시간에는 1. Loss Function : MSE, Cross Entropy 에 대해 배워본 후 다음 시간에는 2. Loss 최적화 : Gradient Descent, Backpropagation에 대해 배워보자. 1. Loss Function : MSE, Cross Entropy Loss 란....- == Error 라고도 불리며, 예측값과 실제값의 차이를 가리킨다. - 이 차이를 계산하는 함수를 loss function이라고 부른다.- 모델 학습의 목적은 궁극적으로 Loss function == Objective Funcion을 최소화하는 가중치 p 를 찾는 것이다. - MSE는 Regression output이 연속형일 때 쓰인다. - Cross Entropy는 Classification .. 더보기 이전 1 2 3 다음