metacodern 썸네일형 리스트형 [Time Series] 메타코드 강의 후기_챕터 3: Time Series Model - part 2 #Input Tensor 선언 input = torch.ones(5, 3) # seq_size, input_dim # input = torch.ones(11, 5, 3) # batch_size, seq-size, input_dim RNN Layer 정의 # RNN Layer 선언rnn_layer = nn.RNN (input_size=3, hidden_size=10) Output shape # output 출력output, hidden = rnn_layer(input0print(output.shape) print(hidden.shape) 웹 크롤링 code = '005930' # 삼성전자 종목코드 url = ' 어쩌고 'header ' = { 'User-agent ' : 'Mozilla/5.0' }r.. 더보기 [Time Series] 메타코드 강의 후기_챕터 3: Time Series Model - part 1 What is Time Series?• Sequence Data / Time Series Data ?- Sequence Data : 순서가 의미가 있으며 순서가 달라질 경우의 미가 손상되는데이터,시간적인의미가 있다면 temporal data라고도 함- Time Series (시계열 데이터) : 일정 시간 간격으로 기록된 데이터- 과거패턴을 기반으로 미래를 예측하거나(Forecasting) 과거 특징적인 부분들을 분석 What is Time Series?• 통계적 분석 방법론(딥러닝도 입전 기존 시계열 모델)- 원본시계열 에서 Trend, Seasonality를 제거하고 남은 Residual 을 모델링- Residual은 Stationarity 라는 특징을 기반으로 모델링(AR, MA, ARIMA, SA.. 더보기 [CNN] 메타코드 강의 후기_챕터 3: Convolutional Neural Network(CNN) - part 2 Pooling Layer- Dimension의 크기를 줄이고 싶을 때 사용하는 down sampling 방식- 주로 CNN은 Pooling을 이용하여 점점 feature map size는 작아지고,Depth는 깊어지는 구조로 구성되어있음 Convolutional Neural Networks- CNN, ConvNet, 합성곱 신경망- Convolutional Layer + Pooling Layer로 이미지에서 정보를 추출한 뒤(feature extractor)추출된 feature (=representation) 을 FC layer로 분류 (=Classifer) #Define the input tensorinput = torch.randn(10, 3, 7, 7) #Batch_size, Kernel_si.. 더보기 [CNN] 메타코드 강의 후기_챕터 3: Convolutional Neural Network(CNN) - part 1 Convolutional Neural Networks- CNN, ConvNet, 합성곱 신경망- Convolutional Layer + Pooling Layer로 이미지에서 정보를 추출한 뒤(feature extractor)추출된feature (=representation) 을 FC layer로 분류 (=Classifer) Image Data- 사람은 이미지를 눈으로 보고 바로 인식할 수 있지만,컴퓨터는 이미지를 각 픽셀에 입력되어 있는 숫자값들의 배열로 인식- 컬러 이미지는 RGB의 3개 채널로 구성, 흑백은 1개 채널로 구성 • FC Layer로 Image Data는 처리할 수 없나?- Image Data를 모두 flatten 시켜서 FC Layer로 학습 시키게 되면 필요한 parameter의 .. 더보기 [Classification] 메타코드 강의 후기_챕터 3: Pytorch Exercises - Vision Classification Vision Classification• Image Data- 대표적인비정형데이터- 사람은이미지를눈으로보고바로인식할수있지만,컴퓨터는이미지를각픽셀에입력되어있는 숫자값들의배열로인식→결국Tensor!- 컬러이미지는RGB의3개채널로구성, 흑백은1개채널로구성 Vision Classification- 인간의시각적인지능력을따라잡기위한연구분야인Computer Vision의대표적인Task- ImageNet Contest 2012(ILSVRC*)에 Alexnet이 최초로Convolutional Neural Network 구조를 사용- 당시2위알고리즘과10%이상의성능차이를보이며우승,이후Vision Transformer 전까지CNN이Vision 분야의가장대표적인모델로등극 Vision Classification• Con.. 더보기 [Classification] 메타코드 강의 후기_챕터 3: Pytorch Exercises - Linear Regression 실습, Classification Task Regression with Neural Network• 2-Depth FC layers Input• Linear Regression 모델과의 비교 • 모델학습과정- Torch.utils.data.datasets 이용하여 데이터셋 구성- 모델선언- Optimizer 선언 (Adam)- Trainset으로 학습(data sample 1개씩 처리 vs Batch 처리) 1. What is Classification?2. Logistic Regression3. Classification with Neural Network 분류가 무엇인지에 대해서 배우고, 논리 회귀에 대해 배운 후 신경망을 활용한 분류를 배워보자. • Classification 이란?- Input 변수(x)로 범주형변수인Label(y)을.. 더보기 [Regression] 메타코드 강의 후기_챕터 3: Pytorch Exercises - Regression이란, Linear Regression Regression 이란?- Input 변수(x)를 통해 연속형변수인 output (y, label, 종속변수)을 예측하는 모델링기법- 연속형변수의예측이기때문에예측값↔ 실제값의차이를통해모델성능평가 Regression Task• 모델링목표- 13개의input 변수들로 MEDV(주택가격)을 예측- 새로운input 이생겼을때, 실제output값과최대한가까운예측 • 모델성능평가- 전체데이터셋(506개)를7:3, 8:2 등의비율로trainset, testset으로 분리 (랜덤)- Trainset 만으로 모델 학습후test set의 input X로 예측값을 계산,test set의 실제 output 과 예측값 과의차이(RMSE등)를측정하여모델평가 Linear Regression• 선형회귀모델은?- Y = 𝛼.. 더보기 [Optimizer] 메타코드 강의 후기_챕터2: Pytorch Fundamentals - Loss 실습하기 저번 시간에 공부했던 Loss function 이랑 Optimization 방식들을 실제 실습으로 적용해보면서 공부하도록 하자. 4. Loss Function MSE Loss : Regression Task에 주로 사용하며, predict값 과 실제 output값의 차이를 제곱합으로 계산한다. import torch.nn as nn #nn.MSELoss() mse_loss = nn.MSELoss()pred = torch.randn(4,10)output = torch.randn(4, 10)mse_loss(pred, output) print(pred, output) nn.NLLLoss() : Negative Log Likelihood Loss 실제결과와 예측 확률을 곱한 것을 더해서 로그를 씌운 것이.. 더보기 이전 1 2 다음