강화학습 예제를 찾아보면 죄다 게임 투성이인데
꼭 게임이 아니어도, 결국은 적절한 reward만 정의할 수 있다면, state가 바뀌는 상황에 대해서도 기계가 얼마든지 적응하며 좋은 결과를 내는 반복수행을 하게끔 시킬 수 있게 된다는 것이다.
'다이어리 > 다이어리' 카테고리의 다른 글
이렇게 조금만 틀어도 내가 접근하고자 하는 방향과 일치해질 것 같다. (0) | 2016.10.26 |
---|---|
#결론이뭐이러냐 (0) | 2016.10.26 |
아무리 토이 데이터여도 생명의 생과 사가 달린 데이터를 다룰 때는 손이 덜덜 떨린다. (내용 없음) (0) | 2016.10.26 |
생각해보니 이거 어디서 많이 본 모습이다. 어쩌라는건지 모르겠다. (0) | 2016.10.26 |
"설명할수 없는 모형은 모형이 아니다" (0) | 2016.10.26 |
역시 기초가 중요하다. 공감. (0) | 2016.10.26 |
그래도 이런건 안아깝다. (0) | 2016.10.26 |
딥러닝을 포함한 주류 머신러닝의 또 다른 문제는, 통계적 방법론을 갖다 쓴다고 말을 하고 있지만, 정작 에러텀을 붙이지 않고 그냥 대수적인 처리만으로 접근해서 쓴다는 데에 있다. (0) | 2016.10.26 |
강화학습 이제 어느정도 실습 해볼 수 있을만큼 공부가 된 것 같당. (0) | 2016.10.26 |
애초에 entropy를 계산할 때 median을 이용했더라면 어땠을까 하는 생각이 든다. (0) | 2016.10.26 |