잔잔한 흐름님의 블로그

  • 홈
  • 태그
  • 방명록

l1 규제 1

규제 방법

이 글은 을 참고하여 만들어졌습니다.11.4 규제를 사용해 과대적합 피하기심층 신경망은 전형적으로 수만 개, 때로는 수백만 개의 파라미터를 가지고 있습니다. 이 때문에 네트워크의 자유도가 매우 높습니다. => 즉, 대규모의 복잡한 데이터셋을 학습할 수 있다는 뜻입니다. 하지만 이런 높은 자유도는 네트워크를 훈련 세트에 과대적합되기 쉽게 만듭니다. (즉, 규제가 필요합니다) 10장에서 이미 최상의 규제 방법 중 하나인 조기 종료를 구현했습니다.또한 배치 정규화는 불안정한 그레이디언트 문제를 해결하기 위해 고안되었지만 꽤 괜찮은 규제 방법으로도 사용할 수 있습니다.=> l1과 l2 규제, 드롭아웃(dropout), 맥스-노름(max-norm) 규제 11.4.1 l1과 l2 규제 간단한 선형 모델에 했던 것처..

딥러닝 2025.05.18
이전
1
다음
더보기
프로필사진

잔잔한 흐름님의 블로그

잔잔한 흐름님의 블로그 입니다.

  • 분류 전체보기 (45)
    • Spring Boot (5)
    • 운영체제 (7)
    • 컴파일러 (7)
    • 데이터베이스 (8)
    • 컴퓨터 구성 (3)
    • 공학경제 (4)
    • 딥러닝 (9)
    • 게임서버 (1)
    • Django (1)

Tag

l1 규제, 몬테-카를로 드롭아웃, 네스테로프 가속 경사, 고속 옵티마이저, 다층 퍼셉트론, 모멘텀 최적화, url 프리픽스, mc 드롭아웃, MLP, he 초기화, 페이징 기능, 활성화 함수, rbm, 하이퍼파라미터, 신경망, nadam 최적화, 액세스 시간, 맥스-노름 규제, SQL, 콜백,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바