Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 강화학습
- 티스토리 코드올리기
- 소스코드 올리기
- 텐서플로우
- RL
- state value function
- action value function
- TensorFlow
- 인공지능
- ML
- 알고리즘
- value function
- Reinforcement Learning
- multiagent
- classification
- interesting party
- 텐서플로로 시작하는 딥러닝
- atari RL
- seednet
- 탑코더
- cnn
- 2019정처기
- 딥러닝
- 머신러닝
- 2019기사일정
- 큐넷시험일정
- reinforcement
- 멀티에이전트
- DeepLearning
- linearclassification
Archives
- Today
- Total
목록DeepLearning (1)
돌아서면 까먹어서
ML 개념 정리 - Optimization 18.12.01
- minimum loss 값을 찾는 것. gradient를 계산하는 것은 가장 급경사를 찾아내는 것이다.Input 개수 = gradient 개수 gradient를 계산하는 방법은 두가지1. numeric gradient : 느리고 근사값이지만 계산 쉬움.2. analytic gradient : 빠르고 정확하지만 미분 필요. 계산 실수가 있을 수 있음. numeric gradient는 도함수 공식을 사용해서 Weight 요소들과 이동간격인 h를 대입해서 gradient를 전부 구해서 update한다. (너무너무 오래걸림..) analytic gradient를 사용하게 되면, 일반적으로 사용하는 미분을 해서 구한다. (바로 답 나옴. 빠르다) gradient check : numeric으로 구한 gradi..
ML/ETC
2018. 12. 1. 16:14