분류 전체보기(67)
-
[KOREAN] MLP Mixer: An all-MLP Architecture for Vision
https://arxiv.org/pdf/2105.01601.pdf As the history of computer vision demonstrates, the availability of larger datasets coupled with in- creased computational capacity often leads to a paradigm shift 큰 이벤트가 될 논문이라 생각해서 나중에 입문하실 초보 분들을 위해 초보가 한국어로 리뷰를 작성하기로 했다. 1. 비전을 위한 신경망 아키텍쳐 비전을 위한 신경망 아키텍쳐들은 본 글의 머릿말과 같이 데이터셋의 크기가 커지고, 컴퓨터 자원의 성능이 올라감에 따라 패러다임이 계속 바뀌어 왔다. 기존 휴리스틱, 머신러닝 기반 컴퓨터 비전부터, ResNet과..
2021.06.09 -
매우 짧고 간단한 스크립트로 Binance 선물/현물 데이터 모두 다운받기
0. 사용 가능한 스크립트만 받아다 쓰실 분들은 맨 밑에 깃헙 링크가 있으니 가서 받고 쓰시면 된다. 1. CCXT CCXT(CryptoCurrency eXchange Trading library) 는 매우 많은 암호화폐 거래소 API를 커버하는 라이브러리이다. php, python, js 등을 지원하는 매우 활용도가 높은 라이브러리이다. 데이터 다운로드, 주문 등이 가능하다. 2. Binance Binance는 거래대금 기준 세계 1위 선물거래소이다. 아주 다양한 (현재 시점 100개 이상) 의 USDT 기반 선물과 인버스 선물을 지원한다. 미국 등을 제외한 바이낸스가 사용가능한 국가에서는 대부분 바이낸스를 쓰는 것 같다. 3. 스크립트 그럼 긴말없이 CCXT를 이용해 모든 바이낸스 선물 데이터를 다운..
2021.06.09 -
LHOPT: A Generalizable Approach to Learning Optimizers
https://arxiv.org/abs/2106.00958 A Generalizable Approach to Learning Optimizers A core issue with learning to optimize neural networks has been the lack of generalization to real world problems. To address this, we describe a system designed from a generalization-first perspective, learning to update optimizer hyperparameters instead arxiv.org A core issue with learning to optimize neural netwo..
2021.06.06 -
자산배분 데이터는 어디서 구해야 할까
자산배분 관련해서 실험하고 싶은 모델이 있어서 열심히 데이터를 찾기 시작했다. 1. Yahoo! Finance 처음은 yahoo finance에서 찾았다. Python 크롤러도 존재하고, 예전에 써본적도 있고 해서 여기에 인덱스 데이터를 기웃거리기 시작했다. 이곳의 데이터들은 주식인덱스 빼고는 전부 선물 데이터를 사용해야 한다. 어차피 자산배분은 한달 이상 단위의 리밸런싱을 하고, 애초에 선물로 운용하는 ETF도 있으므로 선물 데이터를 사용하는 것이 크게 문제가 되지는 않는다. 1.1 python yfinance Python 3 지원 https://github.com/ranaroussi/yfinance ranaroussi/yfinance Yahoo! Finance market data downloader..
2021.06.03 -
Evolving Reinforcement Learning Algorithms
https://arxiv.org/pdf/2101.03958.pdf 0. Why Designing Reinforcement Learning Algorithms Are Important? "Designing new deep reinforcement learning algorithms that can efficiently solve across a wide variety of problems generally requires a tremendous amount of manual effort" -Evolving Reinforcement Learning Algorithms- 1. Designing Reinforcement Learning algorithms Deep Reinforcement Learning is ..
2021.06.01 -
Munchausen Reinforcement Learning
https://arxiv.org/abs/2007.14430 0. TD error and bootstrapping in reinforcement learning Munchen Reinforcement Learning (M-RL) is actually a really simple idea. Bootstrapping is a core idea in reinforcement learning, especially in learning q-functions with a temporal difference error. for example, we don't know the optimal q function at t+1, but the agent could use it as a learning target. we re..
2021.05.31