전체 글(67)
-
DeFi 기행 #2: 클레이튼 지갑
1. 지갑 디파이를 하려면 거래소 지갑이 아니라 개인 지갑이 필요합니다. 디파이는 탈중앙화 금융이기에, 나의 자산을 수탁해주는 거래소 같은 존재가 없습니다. 그래서 우리는 개인 지갑을 만들어, 우리의 소중한 자산을 보호하고 디파이 프로토콜에 예치한 자산에 대한 소유권을 주장해야 하죠. 2. 클레이튼 지갑 클레이튼 지갑은 고르기 어렵지 않습니다. 클레이튼 지갑은 크게 3가지가 있다고 볼 수 있는데요, 순서대로 카이카스, 클립, 디센트 3개의 지갑을 소개드리도록 하겠습니다. 2.1 Kaikas 먼저 제일 유명하고, 제가 선택한 지갑인 카이카스부터 소개드릴게요! 카이카스는 클레이튼의 공식 지갑 격인 지갑입니다. 클레이튼의 기축통화라고 볼 수 있는 KLAY와, 위믹스와 같은 KCT (Klaytn Compatib..
2022.01.12 -
DeFi 기행 #1: 기축통화 준비 완료
1. DeFi 기행이란 개인 공부와 경제적 자유를 위해 가장 유망한 4가지 메인넷의 디파이를 찍먹 하는 과정입니다. DeFi 기행은 제 돈 10K로 시작합니다 슬리피지 때문에 벌써 손해를 약간 봤군요 4가지 메인넷은 솔라나, 클레이, 폴리곤(매틱), 테라(루나)로 선정했습니다. 2. 선정 기준 1. 가스비가 싼가? 적은 돈으로 하기에 가스비가 비싸면 남는 게 없어서 그렇습니다. 2. DeFi 생태계가 탄탄한가? 당연하겠죠. 재밌게 해볼만한 프로토콜이 많아야 하고 계속 생겨나고 있어야 합니다. 3. 트랜잭션 속도가 빠른가? 거래의 핵심은 빨리 들어가는 것입니다. 트랜잭션 속도가 느린 메인넷에서의 디파이는 메리트가 떨어지죠. 4. 시가총액이 큰가? 기축통화의 유동성과 시가총액은 DeFi 생태계에 큰 영향을 ..
2022.01.12 -
[3줄 AutoML] 공격에도 끄떡없는
https://arxiv.org/pdf/2101.05950.pdf 1. 성능좋은 AutoML에 대한 연구는 많은데 왜 Adversarial Attack에 Robust한 Feature Selection을 해주는 AutoML은 없을까? 2. 그래서 ERM 기반으로 0-1 Robust Error를 정의하고 이거 기반으로 옵티마이즈 하는 Robusta라는 프레임웤을 준비했어. 3. 실제로 공격해 보았는데도 다른 방법론들에 비해 Robustness가 괜찮았고, AutoML이 옵티마이즈할 새로운 Objective Function (Robustness)을 제시했다는 관점에서 노블티를 줄 수 있을 것 같아.
2021.09.12 -
[3줄 RL] 놀랍도록 단순한 자가지도 오프라인 강화학습
https://arxiv.org/pdf/2103.06326.pdf 1. 환경이랑 인터랙션 못하고 데이터만 있을때 유용하게 쓰이는 오프라인 강화학습. 그러나 오버피팅 등 다양한 문제가 있다. 2. 비슷한 state에서는 당연히 비슷한 q-value를 가진다. 그러니까 이거에 기반하면 그냥 stochastic augmentation여러번 해서 q-value 다 구한 다음 그걸로 BE풀면 되네? 3. 정말 Self-Supervision의 핵심을 잘 꿰뚫어본 논문 같다. 결국 같은 데이터를 요리조리 생각해보고 이미지트레이닝(?) 비슷한거 하는게 Self-Supervision의 본질이 아닐까.
2021.08.20 -
[3줄 Control] 샘플링 대신 뉴럴넷
https://arxiv.org/abs/1806.05767 Motion Planning Networks Fast and efficient motion planning algorithms are crucial for many state-of-the-art robotics applications such as self-driving cars. Existing motion planning methods become ineffective as their computational complexity increases exponentially with the dime arxiv.org 1. Path Planning 문제를 기존에 샘플링 베이스드 방법론으로 풀었다. 시간을 오래 들이면 더 좋은 해가 나오지만 실시간 ..
2021.08.18 -
[3줄 RL] COBRA!
https://arxiv.org/pdf/1905.09275.pdf 1. Goal-Objected RL 셋업은 매우 Sample-Efficient한 접근을 가능하게 했고, Model-Based+Representation Learning또한 Sample Efficiency를 업그레이드 했지만 아직 복잡한 환경에 사용하기는 어렵다. Curiosity 기반 Exploration은 매우 Sparse한 환경에서도 Robust한 학습을 보여줬다. 2. 이거 3가지를 다 섞은 모델은 어떨까? Object들의 Representation을 Curiosity에 기반해 잘 뽑아낼 수 있으면서도 Robust하고 Sample-Efficient하지 않을까? COBRA를 소개합니다! 3. Curiosity에 기반한 학습으로 Obje..
2021.08.15