Bellman

Bellman

  • 분류 전체보기 (67)
    • AI Paper Review (40)
      • Deep RL Papers [EN] (20)
      • Deep Learning Vision Papers (1)
      • AutoML Papers (11)
    • Quant Trading & Investment (10)
      • CryptoCurrency APIs (1)
      • Asset Allocation (1)
      • Trading Strategies (1)
    • Cool Side Projects (1)
    • Programming (1)
      • Python (1)
    • DeFi 기행 (6)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Bellman

컨텐츠 검색

태그

강화학습 #ReinforcementLearning #Deep Reinforcement Learning #Deep Learning #ICLR #ICML #NeurIPS #논문리뷰 #딥러닝 #딥러닝논문 NAS rl Google defi 딥러닝 AutoML 강화학습 뉴럴넷 파이썬 클레이튼 논문리뷰 강화학습 #Reinforcement Learning #딥러닝 #머신러닝 #파이썬 #알고리즘 #논문리뷰 #딥러닝논문 #데이터분석 #심층강화학습 오토엠엘 RL sota 퀀트투자 바이낸스 디파이 자가지도학습 이더리움

최근글

댓글

공지사항

아카이브

curl(1)

  • [3줄 RL] RL + Contrastive = sample efficiency

    https://arxiv.org/pdf/2004.04136.pdf 1. 큰 observation size를 가진 강화학습 문제는 보통 sample inefficient한데, contrastive learning은 data augmentation 등을 통해 학습하므로 데이터를 레버리징하는 효과가 있다. 2. 따라서 둘을 합친 형태의 제너럴한 강화학습 프레임워크를 제안한다. 다른 논문들처럼 미래를 예측하는 world-model 스타일 대신 간단한 augmentation을 통한 contrastive learning을 사용한다. 3. 다양한 알고리즘에 적용한 결과 sample efficiency를 향상할 수 있었다. 최근 이런 스타일의 논문이 많이 보이는데, 강화학습 말고도 contrasive learning ..

    2021.08.01
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바