인공지능/이론 정리

[Deep learning book] 5.2.1 The No Free Lunch Theorem

고등어찌짐 2022. 9. 5. 22:58

5.2.1 The No Free Lunch Theorem

  • no free lunch theorem
    -  machine learning algorithm can generalize well from a finite training set of examples

  • number of examples & error
    - the quadratic model, the training error increases as the size of the training set increases
    - larger datasets are harder to fit.
    - the quadratic model does not have enough capacity to solve the task, so its test error asymptotes to a high value
    - The test error at optimal capacity asymptotes to the Bayes error
    - The training error can fall below the Bayes error, due to the ability of the training algorithm to memorize specific instances of the training set

  • number of examples & capacity
    - As the training set size increases, the optimal capacity


5.2.1 The No Free Lunch Theorem

  • no free lunch theorem
    - 특정 문제에만 최적화된 머신 러닝 알고리즘은 다른 문제에서는 좋은 성능을 낼 수 없다. 

  • number of examples & error
    - quadratic model ( 2차 ) 은 데이터 세트가 커질수록 이해하기 어렵기 때문에 오차 증가 
    - quadratic model ( 2차 ) 은 capacity 가 충분하지 않기 때문에 test error 가 Bayes error 점근선보다 높은 값을 가짐 
    - optimal capacity 모델의 test error ( 빨간색 ) 은 Bayes error 값에 가까워짐
    - optimal capacity 모델이 train set 을 학습할 때, 각 데이터들을 암기할 수 있기 때문에 train error 는 Bayes error 보다 낮아질 수 있음 

  • number of examples & capacity
    - 훈련세트 크기가 증가하면 optimal capacity 도 증가