"Prior가 뭔지는 알잖아요?"

동의하는척 웃고 넘어간 뒤 한 없이 부끄러워져서 머신러닝 관련 기본적인 통계추론 내용을 정리를 해보았습니다. 논문 읽을 때 자주 나오는 내용인데도 생각보다 간결히 정리하기가 어려웠습니다. 대단한 내용이 있는 건 아니지만 잘 대답할 수 있나 확인해보시면 좋겠습니다.

.
.
.

1. 머신러닝 할 때 통계가 왜 필요할까?

2. PDF의 값이 1이 넘을 수 있겠는가? 예시를 들자면?

3. 아는 확률분포와 언제 사용할 수 있는지 말해보라.

4. 중심극한정리가 무엇이고 어느 맥락에서 사용되는지 설명해보아라.

5. 모수적 방법과 비모수적 방법의 차이는? 모수적 방법을 사용할 수 없는 경우는 언제인가?

6. 우도(likelihood)를 설명해 보아라.

7. 키가 측정할 때 마다 다르다면 어떻게 참값을 추정할 수 있을까?(키가 더이상 크지 않는 상황을 가정하자 ㅠㅠ)

8. MLE와 MAP차이를 수식으로 쓸 수 있겠는가? 그 의미는? 각 방법의 한계점은 뭐가 있을까? 사전확률(prior)을 설명해 보아라.

9. MLE 방법과 Mean Squared Error, Cross Entropy를 줄이는 방법이 동치인 경우를 말해보아라.

10. Log Likelihood를 쓰는 이유는 뭘까? log를 씌우면 MLE의 값이 변하지 않을까?

11. pure, semi, naive bayesian의 차이가 뭘까? 어떤 장단점이 있을까?

12. (NLP) MLE와 naive-bayesian을 사용한 Unigram Language Modeling의 학습 방법을 설명해보아라. 이 방법의 문제점은 뭘까?

블로그에 간략히 답을 달았습니다.
https://www.facebook.com/groups/modulabs/permalink/2541750722556762/?sfnsn=mo
Posted by uniqueone
,