일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 네트워크
- 혼공S
- tutorial
- 책리뷰
- 컴퓨터그래픽스
- 머신러닝
- 혼자공부하는네트워크
- 리뷰리뷰
- 혼자공부하는C언어
- 벌칸
- 혼공C
- vulkan
- 자바스크립트
- 파이썬
- 혼공단
- 혼공학습단
- 딥러닝
- 혼공네트
- 한빛미디어
- 제이펍
- 혼공
- 나는리뷰어다
- 혼공머신
- 불칸
- 혼공컴운
- 데이터분석
- C++
- 혼공스
- OpenGL
- 혼공단5기
- Today
- Total
목록머신러닝 (6)
Scientia Conditorium
[책리뷰] 온디바이스 AI - AI and Machine Learning for On-Device Development 책 내용은 군더더기 없으며 모바일에 머신러닝을 접목시키고 싶은 개발자들을 위한 기초 책입니다. 다만 아쉬운 점이라고 하면 철저하게 구글 TF에 치중되었다고 생각하시면 되겠습니다. 2019년 10월에 PyTorch 1.3이 출시되며 모바일을 지원한다고는 했지만, 책의 저자 로런스 모로니는 구글 AI Advocacy를 리딩하고 있기 때문에 당연히 경쟁사 모델인 파이토치를 다룰 필요가 없기는 합니다. 그래서인지 추천사를 보면 전부 구글 관련 개발자들로만 구성되어있는 것을 볼 수 있습니다. 단순히 임베디드 기계에 접목시키기 위해서 어쩔 수 없이 TF Lite를 써야한다고 하기에 아쉬운 것은 2..
혼자공부하는 머신러닝 + 딥러닝 / 혼공단 5기 - 6주차 & 소감 6주간의 혼공단 5기의 학습이 끝났다. 어찌보면 1~6장까지의 내용은 이 7장을 설명하기 위한 사전 작업이였다는 생각이 든다. 이 책의 핵심 챕터는 단연코 7장이라고 본다. 인공 신경망을 비롯하여 딥러닝 학습을 위한 용어와 개념 설명을 확실하게 설명해주었다. 물론 더욱 깊게 들어가게 위해선 다른 책을 살펴봐야한다. 그러나 책 제목이 '혼자 공부하는' 이기 때문에 더할 나위 없이 만족한다. 모든 머신러닝 관련 책을 다 본 것은 아니지만 머신러닝 공부를 시작할려고 하는 초보자라면 무조건 이 책을 추천한다. 아니, 이 책으로 시작해야한다. 만약 조언자가 있다면 다른 책을 선택해도 상관없지만 혼자서 공부할 생각이라면 단연코 이 책을 선택해야한다..
혼자공부하는 머신러닝+딥러닝/혼공단 5기 - 5주차 K-평균 알고리듬은 주어진 데이터를 k개의 클러스터, 군집으로 묶는 알고리듬으로 각 군집간의 거리 차이의 분산을 최소화하는 방식으로 동작한다. 위 애니메이션은 k-평균 알고리듬 위키피디아 페이지에 있는 자료로서 직관적으로 이해하기 쉽게 표현하였다. 작동하는 방식을 설명하자면 다음과 같다. 1. 주어진 데이터에서 k개 평균값(중심점)을 생성한다. 여기서 보통은 랜덤 초기화 알고리듬이 사용된다. 2. 데이터들은 가장 가까이 있는 평균값을 기준으로 클러스터,군집이 나뉜다. 3. 나뉘어진 클러스트,군집에 속한 데이터들의 평균값으로 클러스터 중심점을 변경한다. 4. 데이터들의 소속 클러스터가 바뀌지 않을 때까지 2,3번 과정을 반복한다. 다시 말해, k-평균 알..
혼자공부하는 머신러닝+딥러닝 / 혼공단 5기 - 4주차 머신러닝 학습 모델을 만들 때, 테스트 세트를 자주 사용하면 모델의 성능이 점점 테스트 세트에 맞추어지게 됩니다. 가능하면 테스트 세트는 모델을 만들고 난 후 마지막에 딱 한 번만 사용하는 것이 가장 좋습니다. 허나 테스트 세트를 사용하지 않으면 모델이 과대/과소적합인지 판단하기 어렵습니다. 따라서 훈련 세트를 여러 개로 잘게 나누어서 그 중 하나를 검증 세트(validation set) 혹은 개발 세트(dev set)로 사용합니다. 검증 세트를 번갈아가면서 모델을 평가하고 얻은 검증 점수를 평균하는 방법을 교차 검증(Cross Validation)이라고 부릅니다. 위 그림은 교차 검증의 대표적인 예인 k-폴드 교차 검증(k-fold cross va..
혼자공부하는 머신러닝+딥러닝 혼공단/5기 3주차 리뷰입니다. 이제 슬슬 여러 분류 알고리즘이 나오기 시작합니다. 어찌보면 슬슬 어려워지기 시작한다고 볼 수 있겠습니다. 지금은 시그모이드 함수 대신 렐루(ReLU) 함수를 사용하지만 이 부분은 7장에서 나오더군요. 4장까지는 머신러닝 기초 학습 및 코드에 익숙해지는 것이 중요하다고 판단해서인지 이런 구성이된 것 같습니다. 그리고 '여기서 잠깐' 코너에서 용어들을 깔끔하게 정리해주는 내용이 무척 마음에 듭니다. 4-2장을 시작할 때 첫 문단의 내용을 보고 웃었습니다. [김 팀장이 혼공머신을 불러서 영업 팀과의 회의 내용을 알려 주었습니다. 아니 정작 개발할 사람을 빼고 회의로 결정하다니요. 개발은 언제나 이런 식이죠!] Stochastic, Minibatch..
혼자공부하는 머신러닝+딥러닝/혼공단 5기 2주차 리뷰입니다. 리뷰는 3-1절까지였지만 3장 전체를 살펴보았습니다. 선형 회귀와 다중 회귀를 설명하고 이로 인해 나타날 수 있는 오버피팅(Overfitting)과 언더피팅(Underfitting)에 대해 알기 쉽게 설명해주었습니다. 진작에 이 책으로 공부를 시작할껄 이라는 생각이 계속 듭니다. 책 후반부에는 다른 생각이 들 수도 있겠지만 머신러닝 공부를 시작하기에는 최적화된 책이라고 생각합니다. 2주차 선택미션은 모델 파라미터(Model Parameter)에대해 설명하는 것 입니다. 책에서는 말하는 모델 파라미터는 다음과 같습니다. 모델 파라미터 선형 회귀가 찾은 가중치처럼 머신러닝 모델이 특성에서 학습한 파라미터 선형 회귀 모델이 찾은 방정식의 계수 즉, ..