Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- neural network
- gradient descent
- backpropagation
- matrix multiplication
- VC dimension
- elimination
- machine learning
- vapnik chervonenkis
- Linear algebra
Archives
- Today
- Total
목록Machine Learning/Basics (1)
AI / ML
이번 포스팅에서는 Andrew Ng의 Coursera-Machine Learning 강의를 참고하여 Neural Network의 학습 알고리즘인 BackPropagation의 수식을 유도해보겠습니다. BackPropagation Algorithm에서는 cost function이 최소가 되도록 하는 weight값들을 찾는데 이 때 gradient descent가 사용됩니다. 학습하려는 변수는 input layer와 hidden layer 사이에 있는 weight값들과 hidden layer와 output layer 사이에 있는 weight값들 입니다. 1. Weights between hidden layer and output layer 우선 hidden layer와 output layer사이에 있는 we..
Machine Learning/Basics
2016. 2. 19. 13:03