Bellman

Bellman

  • 분류 전체보기 (67)
    • AI Paper Review (40)
      • Deep RL Papers [EN] (20)
      • Deep Learning Vision Papers (1)
      • AutoML Papers (11)
    • Quant Trading & Investment (10)
      • CryptoCurrency APIs (1)
      • Asset Allocation (1)
      • Trading Strategies (1)
    • Cool Side Projects (1)
    • Programming (1)
      • Python (1)
    • DeFi 기행 (6)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Bellman

컨텐츠 검색

태그

딥러닝 강화학습 #Reinforcement Learning #딥러닝 #머신러닝 #파이썬 #알고리즘 #논문리뷰 #딥러닝논문 #데이터분석 #심층강화학습 파이썬 바이낸스 클레이튼 rl NAS 강화학습 #ReinforcementLearning #Deep Reinforcement Learning #Deep Learning #ICLR #ICML #NeurIPS #논문리뷰 #딥러닝 #딥러닝논문 뉴럴넷 디파이 퀀트투자 AutoML 논문리뷰 Google 자가지도학습 오토엠엘 defi RL sota 이더리움 강화학습

최근글

댓글

공지사항

아카이브

딥마인드(2)

  • [3줄 RL] 큐러닝의 고질병을 해결하다

    https://openreview.net/pdf?id=Bkg0u3Etwr 1. q-learning에서 underestimation 또는 overestimation bias는 q-learning에서 argmax Q(s,a)를 타겟으로 사용해 발생하는 고질적인 문제이다. 어떤 환경에서는 underestimation이, 어떤 환경에서는 overestimation이 나쁘다. 2. 이런 것을 보완하기 위해 double q-learning이 고안되기도 했지만 이것은 과도한 underestimation을 가져오기 때문에, 본 논문에서는 Q함수를 N개 사용하고 그중 가장 작은 것을 타겟으로 사용하는 maxmin q-learning을 제안한다. 3. 이것을 DQN에 적용하게 되면 여러개의 타겟 큐함수를 만들어놓고 매스텝..

    2021.07.24
  • [3줄 RL] RL+Self-Supervised=Adaptation

    https://openreview.net/pdf?id=o_V-MjyyGV_ 1. 강화학습에서 Generalization은 굉장히 큰 문제인데, 가령 Sim-to-real 문제처럼 태스크는 같지만 observation이 다른 텍스쳐로 들어오는 문제가 있다. 2. 그렇다면 이러한 문제를 해결하는 핵심은 새로 바뀐 observation에 잘 adaptation 되도록 뉴럴넷을 재학습시키는 것이다. Visual Representation을 배우는데 좋은 방법인 Self-Supervised Learning을 사용한다. SSL 태스크는 rotation prediction 등 다양하게 사용할 수 있다. 3. 로봇 매니퓰레이터 sim-to-real, 장애물 넣기나 백그라운드를 바꾼 Deepmind Control 태스크..

    2021.07.15
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바