[3줄 RL] Back to basic
2021. 8. 10. 23:56ㆍAI Paper Review/Deep RL Papers [EN]
<arxiv> https://arxiv.org/abs/1312.5602
1. 기존 Tabular Q-Learning은 image와 같은 observation에 대응 불가하고 차원의 저주에 빠져 허우적댄다.
2. 그럼 Q함수를 CNN으로 근사하면 어떨까? 거기다 리플레이 메모리 같은것도 붙이면 더더욱 좋아지지 않을까?
3. 우리는 아타리 게임을 성공적으로 플레이할 수 있는 DQN(Deep Q Network)를 창시했다.
'AI Paper Review > Deep RL Papers [EN]' 카테고리의 다른 글
[3줄 RL] COBRA! (0) | 2021.08.15 |
---|---|
[3줄 RL] Curiosity+Contrastive=Sample Efficiency (0) | 2021.08.14 |
[3줄 RL] 에이전트는 궁금해요 (0) | 2021.08.06 |
[3줄 RL] RL + Contrastive = sample efficiency (0) | 2021.08.01 |
[3줄 RL] RL로 QP 풀기 (0) | 2021.07.30 |