1. 학습률(Learning Rate) : 파라미너 업데이트의 크기를 조절하며 너무 크면 발산하고 너무 작으면 학습이 느려짐.
2. 미니 배치 크기(Mini-batch Size) : 한 번에 학습하는 데이터 샘플 수로 메모리 사용량과 학습 안정성에 영향을 줌.
3. 은닉층 및 뉴런 수 : 네트워크의 깊이(층 수)와 각 층의 뉴런 수는 모델의 표현력을 결정함.
4. 에포크 수(Epochs) : 전체 데이터를 몇 번 반복 학습할지 정하며 과적합 방지와 직결됨.
5. 가중치 초기화(Weight Initialization) : 초기값 설정에 따라 학습 속도와 성능이 크게 달라질 수 있음.
6. 정규화 파라미터(Regularization) : L1, L2, 드롭아웃 등 과적합 방지를 위한 규제 강도 설정.
7. 최적화 알고리즘 및 관련 파라미터 : Adam 옵티마이저의 베타1, 베타2, 입실론 등은 학습 안정성과 속도에 영향을 줌.
8. 손실 함수(Cost/Loss Function) : 모델이 학습 과정에서 최소화하려는 목표 함수로 문제 유형에 따라 선택함.
9. 조기 종료(Early Stopping) : 검증 성능이 더 이상 향상되지 않을 때 학습을 멈추는 기준.

'컴퓨터' 카테고리의 다른 글
| PyTorch에서 텐서란 무엇이고, NumPy의 Array(배열)과 어떤 차이가 있나 (1) | 2025.06.15 |
|---|---|
| 딥러닝 프레임워크인 PyTorch와 TensorFlow를 비교 (1) | 2025.06.15 |
| 딥러닝과 머신러닝 간의 포함관계에 대해 설명 (0) | 2025.06.08 |
| 차원 축소 기법인 주성분 분석과 요인 분석의 차이는 무엇인가 (1) | 2025.05.31 |
| 부스팅은 어떤 특징을 가진 앙상블 기법인가. 토픽에서 배운 AdaBoost 이외의 부스팅 모델에는 무엇이 있는 지 각 부스팅 모델의 특징, 장단점에 대해 정리 (1) | 2025.05.31 |