hyperparameter

Huggingface Transformer
하이퍼파라미터

src: HuggingFace Transformer


딥러닝에서 하이퍼파라미터는 모델의 학습 과정 및 구조를 제어하고 조정하는 매개 변수를 가리킵니다. 학습률(learning rate), 드롭아웃(dropout), 에폭수(epoch)는 모델 학습을 효율적으로 진행하기 위한 하이퍼파라미터로 자주 사용됩니다. 하이퍼파라미터의 설정은 모델의 성능과 학습 속도에 큰 영향을 미칩니다.

참조

  1. [hyperparameter의 의미]. https://chat.openai.com/