AI 논문 읽는 법 입문 - 비전공자도 할 수 있다
AI 논문은 처음엔 외계어처럼 보입니다. 수식도 많고, 전문 용어도 가득합니다. 하지만 제대로 된 방법만 알면 비전공자도 충분히 읽을 수 있습니다.
왜 논문을 읽어야 하는가
최신 기술 이해 블로그나 강의는 6개월~1년 늦습니다. 최신 기술은 논문에서 가장 먼저 나옵니다.
ChatGPT의 기반인 Transformer도, Stable Diffusion의 기반인 Diffusion Model도 모두 논문에서 시작했습니다.
깊이 있는 이해 블로그는 요약본입니다. 왜 이 방법이 동작하는지, 한계는 무엇인지 논문을 읽어야 정확히 압니다.
면접에서 'BERT가 뭔가요?'라는 질문에 블로그 요약 수준으로 답하는 것과, 논문 내용을 기반으로 답하는 것은 차원이 다릅니다.
연구자/대학원 준비 대학원 진학이나 연구직을 목표로 한다면 논문 읽기는 필수입니다. 논문을 못 읽으면 연구를 할 수 없습니다.
논문 찾는 곳
arXiv AI 논문의 성지입니다. 대부분의 최신 논문이 여기 먼저 올라옵니다. arXiv.org에서 cs.AI, cs.LG, cs.CV 카테고리를 찾아보세요.
매일 수십 편이 올라오니 모두 읽을 순 없습니다. Twitter에서 AI 연구자들을 팔로우하면, 중요한 논문을 큐레이션해줍니다.
Papers With Code 논문과 구현 코드를 함께 제공하는 사이트입니다. State-of-the-art 모델을 벤치마크별로 정리해줍니다.
논문만 읽고 이해 안 되면, 코드를 보면 명확해지는 경우가 많습니다.
Google Scholar 특정 주제 논문을 검색할 때 좋습니다. 인용 수가 많은 순으로 정렬하면 중요한 논문을 찾을 수 있습니다.
컨퍼런스
- NeurIPS, ICML, ICLR (머신러닝 탑티어)
- CVPR, ICCV, ECCV (컴퓨터 비전)
- ACL, EMNLP, NeurIPS (자연어 처리)
탑티어 컨퍼런스에 실린 논문은 검증된 것이니, 신뢰할 수 있습니다.
논문 읽는 순서
1단계: Abstract만 읽기 논문의 핵심을 요약한 부분입니다. 무엇을 했고, 어떤 결과를 얻었는지 100-200단어로 설명합니다.
Abstract만 읽고 관심 있는 논문인지 판단하세요. 전체 논문을 다 읽을 필요는 없습니다.
2단계: Introduction과 Conclusion Introduction은 문제 정의와 기존 방법의 한계를 설명합니다. Conclusion은 결과와 한계, 향후 연구 방향을 다룹니다.
이 두 섹션만 읽어도 논문의 70%를 이해할 수 있습니다.
3단계: Figures와 Tables 그림과 표는 핵심 내용을 시각화한 것입니다. 모델 구조도, 실험 결과 그래프를 보면 직관적으로 이해됩니다.
Figure 1은 보통 전체 모델 구조를 보여줍니다. 이것만 이해해도 큰 도움이 됩니다.
4단계: Method (선택적) 구체적인 방법론을 설명하는 부분입니다. 수식이 많이 나옵니다.
처음엔 수식을 다 이해하려 하지 마세요. 큰 흐름만 파악하세요. 나중에 구현할 때 다시 보면 됩니다.
5단계: Related Work (나중에) 기존 연구를 소개하는 부분입니다. 처음 읽을 땐 건너뛰어도 됩니다.
나중에 해당 분야를 깊이 공부할 때 참고하세요.
논문 읽기 실전 팁
모르는 용어는 바로 검색 'Attention Mechanism'이 뭔지 모르면 논문을 이해할 수 없습니다. 모르는 용어가 나오면 즉시 검색하세요.
위키피디아나 블로그에서 개념을 빠르게 익히고 다시 논문으로 돌아오세요.
완벽히 이해하려 하지 마라 첫 읽기에서 100% 이해는 불가능합니다. 70% 이해하면 성공입니다.
중요한 논문은 여러 번 읽어야 합니다. 읽을 때마다 이해도가 높아집니다.
손으로 써보기 중요한 수식이나 알고리즘은 손으로 써보세요. 눈으로만 읽으면 이해한 것 같지만, 막상 설명하려면 못 합니다.
구현 코드 보기 논문이 어려우면 GitHub에서 구현 코드를 찾아보세요. 코드를 읽으면 논문이 명확해지는 경우가 많습니다.
PyTorch로 구현된 코드가 가장 읽기 쉽습니다.
정리 노트 작성 읽은 논문을 요약하세요. 노션이나 마크다운으로 정리하면 나중에 다시 볼 때 유용합니다.
- 논문 제목
- 핵심 아이디어 (3줄 요약)
- 장점과 한계
- 내 생각
초보자 추천 논문
이미지 분류
- AlexNet (2012): CNN의 시작
- ResNet (2015): Residual Connection
- Vision Transformer (2020): Transformer의 CV 적용
자연어 처리
- Attention Is All You Need (2017): Transformer 원조
- BERT (2018): Pre-training + Fine-tuning
- GPT-3 (2020): 거대 언어 모델
생성 모델
- GAN (2014): 생성 모델의 시작
- VAE (2013): Variational Autoencoder
- Diffusion Models (2020): Stable Diffusion의 기초
위 논문들은 AI 역사에서 중요한 이정표입니다. 이해하기 쉬운 편이고, 수많은 블로그 해설이 있어 참고하기 좋습니다.
논문 스터디 활용
혼자 읽지 마라 논문 스터디 그룹을 만들거나 참여하세요. 각자 읽고 발표하면 이해도가 훨씬 높아집니다.
다른 사람 발표를 들으면, 내가 놓친 부분을 채울 수 있습니다.
발표 준비 논문을 발표하려면 완전히 이해해야 합니다. 발표 준비 과정에서 가장 많이 배웁니다.
슬라이드를 만들면서 그림을 다시 그리고, 수식을 풀어 설명하다 보면 논문이 내 것이 됩니다.
실천 가이드
-
일주일에 1편: 처음엔 일주일에 한 편을 목표로 하세요. 익숙해지면 속도가 빨라집니다.
-
관심 분야 정하기: 모든 논문을 읽을 순 없습니다. NLP, CV, RL 중 하나에 집중하세요.
-
Survey 논문부터: 특정 주제의 Survey 논문을 먼저 읽으면 전체 그림이 그려집니다.
-
영어 두려워 마세요: AI 논문은 비교적 간단한 영어를 씁니다. 문학 작품이 아니라 기술 문서입니다.
-
꾸준함: 한 번에 10편 읽고 그만두는 것보다, 매주 1편씩 6개월 읽는 것이 낫습니다.
마무리
논문 읽기는 AI 공부의 고급 단계입니다. 기초가 없으면 논문을 읽어도 이해가 안 됩니다.
머신러닝 기초를 익힌 후에 논문에 도전하세요. Andrew Ng 강의를 완강한 정도면 기초 논문을 읽을 수 있습니다.
논문을 읽는다고 해서 연구자가 되는 건 아닙니다. 하지만 논문을 읽을 수 있으면 최신 기술을 빠르게 습득하고, 더 깊이 있는 AI 전문가가 될 수 있습니다.
함께 읽으면 좋은 글