Bellman

Bellman

  • 분류 전체보기 (67)
    • AI Paper Review (40)
      • Deep RL Papers [EN] (20)
      • Deep Learning Vision Papers (1)
      • AutoML Papers (11)
    • Quant Trading & Investment (10)
      • CryptoCurrency APIs (1)
      • Asset Allocation (1)
      • Trading Strategies (1)
    • Cool Side Projects (1)
    • Programming (1)
      • Python (1)
    • DeFi 기행 (6)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

Bellman

컨텐츠 검색

태그

이더리움 Google 강화학습 디파이 논문리뷰 바이낸스 강화학습 #ReinforcementLearning #Deep Reinforcement Learning #Deep Learning #ICLR #ICML #NeurIPS #논문리뷰 #딥러닝 #딥러닝논문 RL sota 클레이튼 rl 파이썬 딥러닝 자가지도학습 오토엠엘 퀀트투자 NAS AutoML 뉴럴넷 defi 강화학습 #Reinforcement Learning #딥러닝 #머신러닝 #파이썬 #알고리즘 #논문리뷰 #딥러닝논문 #데이터분석 #심층강화학습

최근글

댓글

공지사항

아카이브

sota(1)

  • [3줄 AutoML] 솔직히 까놓고 말해서 기존 NAS 비효율적이지 않냐?

    https://openaccess.thecvf.com/content_ECCV_2018/papers/Chenxi_Liu_Progressive_Neural_Architecture_ECCV_2018_paper.pdf 1. 기존 NAS는 무거운 RNN 셀과 RL을 사용하여 모델을 매번 처음부터 만들고 재학습시켜야 해서 되게 무겁고 비효율적이었다. 2. 그럼 재학습을 안 시키기 위해서 그냥 모델의 퍼포먼스를 프리딕션하는 모델을 만들고, 매번 만들지 말고 붙였다 뗐다 발전시켜나가는 방향의 NAS 시스템을 만들면 어떨까? 3. 기존 Zoph et al의 NAS보다 5배정도 빠른데다가, 아키텍쳐 성능도 정말 좋다!

    2021.07.09
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바