전처리 (2) 썸네일형 리스트형 딥러닝 기초 핵심 개념 2 Dropout Dropout은 학습 중에 설정한 확률값에 따라서 일부 뉴런을 제거하여 과대적합을 방지하는 기법입니다. 특정 뉴런에만 집중해서 학습하지 않도록 과대적합을 방지하도록 사용합니다. 더보기 import torch import torch.nn as nn class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.fc1 = nn.Linear(10, 5) self.dropout = nn.Dropout(0.5) # dropout 비율은 50% self.fc2 = nn.Linear(5, 1) def forward(self, x): x = torch.relu(self.fc1(x)) x = self.dropout(x) x = .. [통계] Day 5-1 시계열 데이터의 정규화 1. 정규화 변환의 필요성 - 데이터 스케일 조정의 중요성: 다양한 변수의 값 범위를 조정하여 모델이 각 변수에 공정하게 영향을 받도록 함. - 정규 분포 가정과 그 효과: 정규 분포를 따르는 데이터로 변환하여 통계적 분석을 용이하게 함. - 이상치 처리와의 관련성: 이상치가 정규화에 영향을 줄 수 있으며, 변환 후 이상치의 영향을 줄이기 위해 사용. - 시계열 패턴 강조와 모델 안정성: 시계열 패턴을 더 잘 드러나게 하며 모델의 안정성과 예측 성능 향상을 도모. 2. 주요 정규화 변환 방법 - 최소-최대 정규화 $($Min-Max Normalization$)$: 데이터 값을 최소값과 최대값 사이의 범위로 변환, 이상치에 민감하지 않은 경우 사용. $X_{\text{new}} = \frac{X - X_{.. 이전 1 다음