분류 전체보기(67)
-
[3줄 AutoML] 솔직히 까놓고 말해서 기존 NAS 비효율적이지 않냐?
https://openaccess.thecvf.com/content_ECCV_2018/papers/Chenxi_Liu_Progressive_Neural_Architecture_ECCV_2018_paper.pdf 1. 기존 NAS는 무거운 RNN 셀과 RL을 사용하여 모델을 매번 처음부터 만들고 재학습시켜야 해서 되게 무겁고 비효율적이었다. 2. 그럼 재학습을 안 시키기 위해서 그냥 모델의 퍼포먼스를 프리딕션하는 모델을 만들고, 매번 만들지 말고 붙였다 뗐다 발전시켜나가는 방향의 NAS 시스템을 만들면 어떨까? 3. 기존 Zoph et al의 NAS보다 5배정도 빠른데다가, 아키텍쳐 성능도 정말 좋다!
2021.07.09 -
[3줄 AutoML] 옵티마이저도 한번 찾아볼까?
https://arxiv.org/abs/1709.07417 Neural Optimizer Search with Reinforcement Learning We present an approach to automate the process of discovering optimization methods, with a focus on deep learning architectures. We train a Recurrent Neural Network controller to generate a string in a domain specific language that describes a mathematical arxiv.org 1. 뉴럴넷도 찾고, 활성화함수도 찾는데 옵티마이저라고 못 찾을 거 있나? 옵티마이..
2021.07.07 -
[3줄 AutoML] 언제까지 ReLU에 만족할래?
https://arxiv.org/abs/1710.05941 Searching for Activation Functions The choice of activation functions in deep networks has a significant effect on the training dynamics and task performance. Currently, the most successful and widely-used activation function is the Rectified Linear Unit (ReLU). Although various hand-design arxiv.org 1. 그래, 렐루 좋은데 언제까지 렐루에만 안주할래? 우리는 오토매틱 서치로 새로운 액티베이션 펑션 만들거야! 2..
2021.07.07 -
[3줄 AutoML] NAS with RL: 그 원대한 시작
https://arxiv.org/abs/1611.01578 1. 근본적인 물음: 좋은 비전 아키텍쳐란 무엇이고 어떻게 표현할 수 있으며, 어떻게 만들어야 하는가? 꼭 사람이 만들어야 하는가? 2. NN은 결국 computational graph로 표현할 수 있다면, 노드들을 쌓아서 NN을 만들 수 있고, 결국 강화학습으로 해결 가능한 하나의 sequential decision making problem으로 해석할 수 있다! 3. 800개의 GPU를 갈아넣은 결과 기존에 찾아볼 수 없었던 구조의 새롭고 성능좋은 뉴럴넷이 탄생했으며, 이것은 “강화학습 기반 NAS”의 진정한 시작을 의미한다.
2021.07.07 -
[3줄 RL] 암호학과 강화학습의 조합
https://ieeexplore.ieee.org/document/9446086 Generating Cryptographic S-Boxes Using the Reinforcement Learning Substitution boxes (S-boxes) are essential components of many cryptographic primitives. The Dijkstra algorithm, SAT solvers, and heuristic methods have been used to find bitsliced implementations of S-boxes. However, it is difficult to apply these methods ieeexplore.ieee.org 1. 부채널 공격(전..
2021.07.06 -
[3줄 RL] 이미지로 LQR하기
https://arxiv.org/pdf/1808.09105.pdf 1. 기존 Model-Free DRL은 이미지 observation같은 거로도 잘 학습하지만 sample efficiency가 다소 떨어지고, Model Based Method인 LQR 같은 건 sample efficiency가 좋지만 이미지 같은 건 쓸수 있을리가 없는데 이거 어떻게 두개 못 합칠까? 2. 그래! 이미지를 간단한 행렬로 만들어주는 Representation Learning을 사용해서 거기에 LQR을 적용하면 되겠구나. 3. 최종 성능은 막 좋지 않지만 2시간만에 image observation 만으로 complex manipulation 문제를 풀 정도로 sample efficient한 알고리즘이 나왔는데, 사실 필자는 ..
2021.07.04