[3줄 AutoML] 효율적 NAS의 전설, ENAS
2021. 8. 4. 22:40ㆍAI Paper Review/AutoML Papers
<arxiv> https://arxiv.org/abs/1802.03268
1. 기존 뉴럴 아키텍쳐 서치는 전체 뉴럴넷을 찾느라 비효율적이다.
2. 어차피 CNN이든 RNN이든 Cell 단위가 있는데 굳이 전체 아키텍쳐를 찾을 이유가? 셀 단위로 찾아보자.
3. 비교도 안 될 정도로 효율적인데다가 성능까지 같거나 비슷하다. 항상 구조적인 inductive bias는 좋다는 것을 느낀다.
'AI Paper Review > AutoML Papers' 카테고리의 다른 글
[3줄 AutoML] FMRI도 FINANCE도 뉴럴넷에 맡겨줘! (0) | 2021.08.03 |
---|---|
[3줄 AutoML] S-Oil? S-GAS (0) | 2021.08.02 |
[3줄 AutoML] RNN형은 잠깐 빠져있어 (0) | 2021.07.31 |
[3줄 AutoML] AMC, 미국 작전주가 아니라 뉴럴넷 컴프레서! (0) | 2021.07.12 |
[3줄 AutoML] 모든 사람을 면접할 수 없고, 모든 모델을 학습할 수 없다. (0) | 2021.07.12 |