Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 프로세스 마이닝
- 딥러닝
- auto encoder
- Random Undersampling
- Condensed neares neighbor rule
- Text generation
- Gausian Density Estimation
- multi modal
- 거리 기반 이상탐지
- Digital Pathology
- Data Imbalance
- PM4Py
- Fixed Learning
- Meta heuristic
- Tomek links
- Petri net
- Generative modeling
- Process Mining
- XAI
- GAN
- Inatance segmentation
- SQL 데이터 분석 첫걸음
- Grad-CAM
- 국비지원교육
- One-Sided Selection
- Sequence data
- OCSVM
- 밀도 기반 이상탐지
- Clustering 기반 이상탐지
- 병리 AI
Archives
- Today
- Total
목록인공지능 (9)
Create Opportunities

Batch size ? 입력값 x를 평균 0, 분산 1로 표준화하여 activation function로 전달하여 출력값의 분포를 고르게 한다. x를 표준화 하는 과정에서 batch size 단위로 평균과 분산값을 계산하기 때문에, 어떤 batch size를 선택하는지는 중요하다. 1) batch size를 크게 하는 경우 - training set 분포를 좀 더 정확히 추정한다. 이 말은 즉, noise를 감소시켜 모델 수렴을 향상 시킬 수 있다는 것이다. -> 학습 속도 향상 2) batch size를 작게 하는 경우 - sample의 수가 적어 training set 통계값을 부정확하게 계산한다. noise가 많아져서 모델의 수렴이 불안정해진다. 하지만, regularization의 효과는 강해진다..
인공지능
2022. 9. 5. 16:20