14. 在調整模型超參數(Hyperparameters)時,若希望避免因過度調整參數而導致過擬合,下列哪一種做法最有效提升模型的泛化能力?
(A)採用交叉驗證(Cross-Validation)於多組參數組合間反覆評估,選擇在驗證資料上表現最穩定的設定;
(B)使用早期停止機制(Early Stopping)監控訓練誤差並在收斂前 停止訓練,以防模型學習過度;
(C)對輸入特徵進行標準化以減少特徵值差異帶來的過擬合風險;
(D)提高模型複雜度並使用更多超參數搜尋範圍,以確保模型能充分學習資料特徵
答案:登入後查看
統計: A(14), B(1), C(4), D(0), E(0) #3773565
統計: A(14), B(1), C(4), D(0), E(0) #3773565
詳解 (共 1 筆)
#7373142
在調整超參數時,若僅依靠單一的訓練/驗證集分割,很容易為了使驗證集分數最高而對該特定資料集過度擬合(即超參數調得太過客製化,導致泛化能力下降)。
- (A) 交叉驗證(CV):通過將資料分為 \(K\) 個子集,輪流將其中一個作為驗證集,其餘為訓練集,進行 \(K\) 次訓練與評估。這使得超參數的選擇是基於資料的整體表現,而非特定的驗證集,能最有效地提升模型的泛化能力。
- (B) 早期停止(Early Stopping):主要用於防止模型在「訓練過程中」過度學習特徵,是降低過擬合的一種手段,但在「超參數調整」階段,CV 的效果通常更好。
- (C) 特徵標準化:有助於模型收斂,但不是避免超參數調整產生過擬合的主要手段。
- (D) 提高模型複雜度:這反而極易導致過擬合(Overfitting)
0
0