Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Sequence data
- GAN
- Condensed neares neighbor rule
- PM4Py
- Fixed Learning
- 밀도 기반 이상탐지
- 프로세스 마이닝
- Meta heuristic
- Process Mining
- Petri net
- Data Imbalance
- One-Sided Selection
- multi modal
- Text generation
- 거리 기반 이상탐지
- Grad-CAM
- XAI
- Inatance segmentation
- 국비지원교육
- 병리 AI
- Digital Pathology
- 딥러닝
- OCSVM
- Random Undersampling
- SQL 데이터 분석 첫걸음
- Generative modeling
- Tomek links
- Clustering 기반 이상탐지
- Gausian Density Estimation
- auto encoder
Archives
- Today
- Total
목록딥러닝 (2)
Create Opportunities

딥러닝을 위한 수학도 결국 똑같다. 선형대수, 최적화 등의 개념을 꾸준히 상기시키고 설명할 수 있도록 공부하기.
인공지능
2022. 9. 10. 22:37

Batch size ? 입력값 x를 평균 0, 분산 1로 표준화하여 activation function로 전달하여 출력값의 분포를 고르게 한다. x를 표준화 하는 과정에서 batch size 단위로 평균과 분산값을 계산하기 때문에, 어떤 batch size를 선택하는지는 중요하다. 1) batch size를 크게 하는 경우 - training set 분포를 좀 더 정확히 추정한다. 이 말은 즉, noise를 감소시켜 모델 수렴을 향상 시킬 수 있다는 것이다. -> 학습 속도 향상 2) batch size를 작게 하는 경우 - sample의 수가 적어 training set 통계값을 부정확하게 계산한다. noise가 많아져서 모델의 수렴이 불안정해진다. 하지만, regularization의 효과는 강해진다..
인공지능
2022. 9. 5. 16:20