Bellman

Bellman

  • 분류 전체보기 (67)
    • AI Paper Review (40)
      • Deep RL Papers [EN] (20)
      • Deep Learning Vision Papers (1)
      • AutoML Papers (11)
    • Quant Trading & Investment (10)
      • CryptoCurrency APIs (1)
      • Asset Allocation (1)
      • Trading Strategies (1)
    • Cool Side Projects (1)
    • Programming (1)
      • Python (1)
    • DeFi 기행 (6)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Bellman

컨텐츠 검색

태그

바이낸스 이더리움 rl 딥러닝 논문리뷰 오토엠엘 Google 뉴럴넷 클레이튼 RL sota 자가지도학습 NAS 퀀트투자 강화학습 #ReinforcementLearning #Deep Reinforcement Learning #Deep Learning #ICLR #ICML #NeurIPS #논문리뷰 #딥러닝 #딥러닝논문 AutoML 강화학습 디파이 defi 강화학습 #Reinforcement Learning #딥러닝 #머신러닝 #파이썬 #알고리즘 #논문리뷰 #딥러닝논문 #데이터분석 #심층강화학습 파이썬

최근글

댓글

공지사항

아카이브

exploration(2)

  • [3줄 RL] COBRA!

    https://arxiv.org/pdf/1905.09275.pdf 1. Goal-Objected RL 셋업은 매우 Sample-Efficient한 접근을 가능하게 했고, Model-Based+Representation Learning또한 Sample Efficiency를 업그레이드 했지만 아직 복잡한 환경에 사용하기는 어렵다. Curiosity 기반 Exploration은 매우 Sparse한 환경에서도 Robust한 학습을 보여줬다. 2. 이거 3가지를 다 섞은 모델은 어떨까? Object들의 Representation을 Curiosity에 기반해 잘 뽑아낼 수 있으면서도 Robust하고 Sample-Efficient하지 않을까? COBRA를 소개합니다! 3. Curiosity에 기반한 학습으로 Obje..

    2021.08.15
  • [3줄 RL] Curiosity+Contrastive=Sample Efficiency

    https://arxiv.org/pdf/2103.08255.pdf 1. Forward-Dynamics Model을 이용한 Curiosity Model, Self-Supervised Learning으로 Sample Efficiency를 높이는 접근은 둘다 좋다. 2.두개의 공통점은 Temporal Difference를 이용한다는 점이다. 현재 state와 다음 state의 차이, prediction error를 기반으로 curiosity를 만들고 contrasive learning을 수행하는 것이다. 두개를 섞어보면 어떨까? 3. Sample Efficient 하면서도 Curiosity 기반하여 exploration이 잘 되는 모습을 확인할 수 있었다. 이럴 때 보면 현재 스텝에서는 알 수 없지만, 다음 ..

    2021.08.14
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바