Loading [MathJax]/extensions/TeX/AMSmath.js
본문 바로가기

AI / ML

검색하기
AI / ML
프로필사진 Yunjey Choi

  • All (4)
    • Fundamental (3)
      • Linear Algebra (2)
      • Probability Theory (1)
    • Machine Learning (1)
      • Basics (1)
      • Deep Learning (0)
      • Reinforcement Learning (0)
      • Generative Model (0)
    • Coding (0)
      • PyTorch (0)
      • TensorFlow (0)
    • Daily (0)
      • Motivation (0)
      • Theraphy (0)
Guestbook
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • elimination
  • backpropagation
  • VC dimension
  • neural network
  • vapnik chervonenkis
  • gradient descent
  • machine learning
  • matrix multiplication
  • Linear algebra
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록gradient descent (1)

AI / ML

[ML] BackPropagation 수식 유도

이번 포스팅에서는 Andrew Ng의 Coursera-Machine Learning 강의를 참고하여 Neural Network의 학습 알고리즘인 BackPropagation의 수식을 유도해보겠습니다. BackPropagation Algorithm에서는 cost function이 최소가 되도록 하는 weight값들을 찾는데 이 때 gradient descent가 사용됩니다. 학습하려는 변수는 input layer와 hidden layer 사이에 있는 weight값들과 hidden layer와 output layer 사이에 있는 weight값들 입니다. 1. Weights between hidden layer and output layer 우선 hidden layer와 output layer사이에 있는 we..

Machine Learning/Basics 2016. 2. 19. 13:03
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.