잔잔한 흐름님의 블로그

  • 홈
  • 태그
  • 방명록

네스테로프 가속 경사 1

고속 옵티마이저

이 글은 을 참고하여 만들어졌습니다.11.3 고속 옵티마이저아주 큰 신경망의 훈련 속도는 심각하게 느릴 수 있습니다.지금까지 훈련 속도를 높이는 네 가지 방법에 대해 살펴봤습니다.좋은 초기화 전략 적용하기좋은 활성화 함수 사용하기배치 정규화 사용하기사전 훈련된 네트워크의 일부 재사용하기훈련 속도를 크게 높일 수 있는 방법은 더 빠른 옵티마이저를 사용하는 것입니다.ex. 모멘텀 최적화(momentum optimization), 네스테로프 가속 경사(Nesterov accelerated gradient), AdaGrad, RMSProp, Adam, Nadam 옵티마이저 11.3.1 모멘텀 최적화공을 굴릴때 처음에는 느리지만 종단속도(저항 때문에 등속도 운동을 하게 될때의 속도)에 도달할 때까지 빠르게 가속..

딥러닝 2025.05.13
이전
1
다음
더보기
프로필사진

잔잔한 흐름님의 블로그

잔잔한 흐름님의 블로그 입니다.

  • 분류 전체보기 (45)
    • Spring Boot (5)
    • 운영체제 (7)
    • 컴파일러 (7)
    • 데이터베이스 (8)
    • 컴퓨터 구성 (3)
    • 공학경제 (4)
    • 딥러닝 (9)
    • 게임서버 (1)
    • Django (1)

Tag

활성화 함수, 맥스-노름 규제, MLP, l1 규제, 하이퍼파라미터, 콜백, rbm, nadam 최적화, 몬테-카를로 드롭아웃, 고속 옵티마이저, he 초기화, 액세스 시간, SQL, 페이징 기능, 신경망, 모멘텀 최적화, 다층 퍼셉트론, mc 드롭아웃, url 프리픽스, 네스테로프 가속 경사,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바