본문 바로가기
책 이야기/프로그래밍

혼자 공부하는 머신러닝+딥러닝 (그리고 혼공학습단) - 박해선

by meticulousdev 2022. 8. 25.
반응형

목차

들어가며

1. 잘 정리되어 있는 책

2. 미션으로 블로그에 글을 쓴다는 것

3. 앞으로의 계획

 

들어가며

    조금 오래된 표현을 빌려서 이야기하자면 우리는 정보의 바다에 살고 있습니다. 그렇기 때문에 구글에 검색을 해보는 것만으로도 우리는 원하는 정보를 손쉽게 얻을 수 있습니다. 혼자 무언가를 공부하는 사람들에게도 마찬가지입니다. 혼자 공부를 시작할 때 누군가는 정보의 바다에서 다양한 검색을 하며 지식을 쌓아갑니다. 하지만 이렇게 쌓는 지식에는 한계가 있습니다. 바로 정리되지 않는다는 것입니다. 필요한 정보만을 선택하는 점에서 시간을 절약할 수 있지만 정리되지 않았기 때문에 머릿속에서 지식이 중구난방이며, 필요한 지식만을 찾다 보니 기초가 부족한 경우가 생깁니다. 물론 그렇지 않은 사람도 있겠지만 저에게는 단순히 구글 검색만으로 혼자 공부하는 것은 한계가 명확해 보였습니다. 그렇기 때문에 저에게 책을 정해서 정독을 한다는 것은 비록 시간을 걸릴지 언정 원하는 정보를 차곡차곡 쌓을 수 있는 학습법 중 하나입니다. 혼자 공부하는 머신러닝+딥러닝도 그렇게 읽게 된 책입니다. 다 아는 거 같지만 막상 설명하려면 모르겠고, 기초가 부족한 거 같은 느낌을 지우기 위해서 읽게 된 책입니다. 서론이 길었지만 이 책은 저와 같이 머신러닝과 딥러닝의 기초를 한번 정리하기에 매우 좋은 책입니다. 그리고 책을 읽게 된 가장 중요한 이유이기도 했던 혼공 학습단 이벤트는 혼자 공부하는 분들에게 숙제와 같이 공부하는 사람들을 보고 자극을 받기에 매우 좋은 이벤트였습니다.

 

1. 잘 정리되어 있는 책

    박해선 님의 블로그에 가면 아래와 같이 책을 공부하는 순서에 대해서 작성된 로드맵을 볼 수 있습니다. 아마도 많은 책을 읽으시고 번역하신 만큼 내용의 흐름을 잘 알고 계시기 때문이라고 생각합니다. 재밌는 건 아래의 그림은 한번 그려지고 끝이 아니라 번역하시거나 읽는 책이 추가될 때마다 업데이트된다는 것입니다. 이렇게 깔끔하게 정리된 로드맵을 보다 보면 어떻게 공부해야겠구나 하는 생각이 듭니다. 

출처: https://tensorflow.blog/book-roadmap/

그리고 이런 깔끔한 정리는 혼자 공부하는 머신러닝+딥러닝에도 잘 드러나 있습니다. 책을 펼치게 되면 처음 보게 되는 학습 로드맵은 책을 어떤 순서로 공부해야 할지에 대해서 정리되어 있습니다. 읽으면서 인상 깊었던 부분은 비지도 학습의 경우 나중에 다시 읽어도 좋다고 표시되어 있던 부분이었습니다. 아무래도 아직 머신러닝과 딥러닝이 주로 사용되는 분야는 분류와 회귀이기 때문이라고 생각했습니다. 그리고 처음 공부를 시작하는 사람들에게는 비지도 학습이 다 가기 쉬운 분야가 아니기 때문이라고 생각도 했습니다.

    그리고 본격적으로 공부를 시작하게 되면 여기서 잠깐마무리가 있습니다. 어쩌면 궁금했을 법하기도 하고 읽으면서 알아두면 좋을법한 것들은 여기서 잠깐에 정리되어 있습니다. 예를 들어서 흔히들 얘기 예측모델을 만들 때 사용하는 회귀(regression)는 왜 회귀 인가 궁금할 수도 있습니다. 회귀의 뜻은 한 바퀴 돌아 제자리로 돌아오거나 돌아감이라고 네이버 사전에 나옵니다. 회귀라는 용어가 사용되게 된 이유는 책을 통해서 알 수 있습니다.

 

회귀란 용어를 보고 어떤 알고리즘인지 예측하기 참 어렵습니다. ... (중략) ... 그는 키가 큰 사람의 아이가 부모보다 더 크지 않는다는 사실을 관찰하고 이를 '평균으로 회귀한다'라고 표현했습니다. 그 후 두 변수 사이의 상관관계를 분석하는 방법을 회귀라 불렀습니다.

출처: 혼자 공부하는 머신러닝+딥러닝; 박해선 지음; 한빛미디어 (2020)

 

또 다른 예로는 머신러닝과 딥러닝 모델은 데이터에 기반한 모델이기 때문에 새로운 데이터가 들어오면 어떻게 해야 할지에 대한 의문이 생길 수도 있습니다.

 

사실 머신러닝 모델은 한 번 만들고 끝나는 프로그램이 아닙니다. 시간과 환경이 변화하면서 데이터도 바뀌기 때문에 주기 적으로 새로운 훈련 데이터로 모델을 다시 훈련해야 합니다. ... (하략)

출처: 혼자 공부하는 머신러닝+딥러닝; 박해선 지음; 한빛미디어 (2020)

 

그리고 마무리에서는 중요한 키워드에 대해서는 정리하며, 해당 챕터를 읽은 독자가 무엇을 알아야 하는지 정리되어 있습니다. 어쩌면 그냥 지나칠 수도 있는 부분인데 코랩을 설명하시면서 마크다운 사용법을 간단하게 정리되어 있는 것을 보고 마무리도 꼭 읽어야겠다는 생각을 하였습니다. 이처럼 중요하고 앞에서 다루지 않은 내용들 중 독자가 알면 좋은 것들이 잘 정리된 것이 마무리입니다. 

 

2. 미션으로 블로그에 글을 쓴다는 것

1주차: [혼공머신] 나의 첫 머신러닝 그리고 데이터 다루기

2주차: [혼공머신] 회귀 알고리즘과 모델 규제

3주차: [혼공머신] 다양한 분류 알고리즘

4주차: [혼공머신] 트리 알고리즘

5주차: [혼공머신] 비지도 학습

6주차: [혼공머신] 딥러닝을 시작합니다

 

    혼공 학습단을 참여하면서 좋았던 점은 이렇게 읽게 된 책의 내용에 기반해서 매주 주어지는 미션들을 수행한 후 SNS에 공유하는 것입니다. 이렇게 글을 쓰는 일은 머릿속에 있는 내용들과 공부한 내용들을 정리하기에 매우 좋은 방법 중 하나입니다. 글로 쓰게 되면 정리하고 곱씹고 생각하게 됩니다. PJ Milani가 만든 그림 중에 생각하는 것과 글쓰기의 차이에 대한 그림이 있습니다.

https://twitter.com/milanicreative/status/1535970187542876161/photo/1

 

트위터에서 즐기는 PJ Milani | The Visual Ninja 🥷 🚢

“10 Visuals That Will Make You Think => 1: The difference between trying to hold onto your thoughts and writing them down.”

twitter.com

처음 게으른 매트랩 님이 알려주시고 나서 생각날때마다 한 번씩 보는 그림입니다. 그림에서 처럼 생각하기만 하면 손 사이로 물이 새어나가고 지식이 없어지지만 글로 쓸 경우 모여서 한잔의 물이 됩니다. 머신러닝에 대한 기초가 부족해서 시작한 만큼 이렇게 블로그에 정리하는 것은 많은 도움이 되었습니다. 자주 사용했지만 정확한 의미를 모르고 있었던 용어 혹은 나중에 찾아봐야지 하고서 찾아보지 않았던 용어들이 그랬습니다. 먼저 앞서 언급한 회귀라는 표현이 사용되기 시작한 역사가 그랬습니다. 두번째로는 결정 트리 알고리즘에서 Gini 계수와 Entropy의 사용의 차이가 그랬습니다. 둘을 비교한 그림이 너무 마음에 들어서 한번 더 가지고 왔습니다. 끝으로는 딥러닝 알고리즘에서 사용되는 최적화 방법들이 그랬습니다. 그렇기 때문에 공부하면서 해당 내용을 더 자세히 보고 검색도 하고 정리하게 되었습니다. 

 

Gini impurity로 만들어진 트리

- Entropy로 만들어진 트리

 

3. 앞으로의 계획

    혼자 공부하기를 시작한 만큼 한권의 책이 끝나면 다음 책으로 넘어가는 것이 수순이라고 생각됩니다. 혼자 공부하는 머신러닝+딥러닝이 기초에 대한 것을 많이 언급했기 때문에 그다음으로는 조금 더 깊이 있는 책을 읽으면 좋을 것이라고 생각했습니다. 현재 후보로 생각하는 책은 3권으로 핸즈온 머신러닝(2판), XGBoost와 사이킷런을 활용한 그레이디언트 부스팅, 그리고 케라스 창시자에게 배우는 딥러닝 (2판)입니다. 

 

1) 핸즈온 머신러닝은 각 머신러닝 알고리즘을 깊이 있게 다루기 때문에 괜찮을 거라고 생각했습니다.

 

2) XGBoost와 사이킷런을 활용한 그레디언트 부스팅은 혼자 공부하는 머신러닝+딥러닝에서는 간단하게만 다뤘던 XGBoost에 대해서 자세하게 다룬다는 이점이 있습니다.

 

3) 케라스 창시자에게 배우는 딥러닝 (2판)은 케라스 창시자에게 배우는 딥러닝 1판을 읽고 나서 최근의 트렌드를 따라가기 위해서 읽어보려고 했던 책입니다.

 

욕심이 많아서 읽고 싶은 책들도 많지만 하나씩 공부하고 공부가 끝나면 이렇게 블로그에 글을 남겨보도록 하겠습니다.

 

긴 글 읽어주셔서 감사합니다. 
글과 관련된 의견은 언제든지 환영입니다.

 

반응형

댓글