'오버피팅방지' 태그의 글 목록 — J Story

오버피팅방지

AI

배치 정규화:Batch Nomalization 이론/특징/알고리즘/한계/장단점

Nomalization, 정규화란 IT분야에 정의된 의미로는 데이터를 일정한 규칙에 따라 변형하여 이용하기 쉽게 만드는 일입니다. 즉 기계에게 학습을 진행하기 전에 데이터 값의 범위(scale)를 0과 1 사이 값으로 간단하게 만들어주어 노이즈가 생기는 걸 막아 오버 피팅을 방지하고 학습 속도를 높이기 위해 그리고 Local optimum 문제에 빠질 확률을 줄이기 위해 진행합니다. 대표적으로 배치 정규화:Batch Nomalization에 대해 알아보겠습니다. StandardScaler 평균과 표준편차를 활용, 평균을 제거하고 데이터를 분산으로 조정 MinMaxScaler 최대/최솟값이 각각 1과 0이 되도록 함 이미지 데이터의 경우 0부터 255까지의 픽셀 값을 가지고 있는데 이것을 255로 나누어서..

AI

Overfitting:오버피팅:과적합 방지, 해결을 위한 다양한 방법들

Overfitting, 과적합 딥러닝 모델을 연구하는 과정에서 피할 수 없는 문제인 과적합(Overfitting) 지난 포스팅에서 자세히 설명했던 과적합을 간단히 설명해보면 모델의 능력이 높아 학습 데이터를 다 외워버려서 실전 데이터를 판단하는 능력이 떨어지는 걸 뜻합니다. 즉 연습경기는 훌륭한데 실전 경기에서 실력을 보여주지 못하는 경우입니다. 사람에게 도움 될만한 인공지능 제품이 나오려면 모델의 높은 성능은 필수입니다. 모델의 성능을 높이는 과정을 과적합을 해결하는 과정과 같다고 표현할 수도 있을 만큼 모델과 많은 연관성을 가집니다. 모델의 능력이 높아질수록(모델의 층수가 늘어날수록) 성능이 떨어질 확률이 높아집니다. 성능이 떨어진 원인은 정말 다양하며 그에 맞게 해결하는 방법도 여러 가지입니다. 이..

인프준
'오버피팅방지' 태그의 글 목록