안녕하세요. 오랜만에 저희 연구실 내부에서 진행한 PRML 세미나 동영상을 공유해봅니다.
[PRML 3.1~3.2] Linear Regression / Bias-Variance Decomposition
Linear Regression에서 Least Square Error를 사용하는 수학적인 근거를 확률적인 접근에서부터 유도하고, 나아가 Regularizer의 의미와 Bias-Variance Decomposition을 이용한 Regression모델의 Overfitting 분석에 대해서 주로 다루었습니다.
앞으로 몇 챕터 더 세미나를 발표할 예정이고, 해당 동영상은 제가 올린 링크의 플레이리스트에 계속 업로드됩니다~ 감사합니다.
https://www.youtube.com/watch?v=dt8RvYEOrWw&list=PLzWH6Ydh35ggVGbBh48TNs635gv2nxkFI&sns=em
[PRML 3.1~3.2] Linear Regression / Bias-Variance Decomposition
Linear Regression에서 Least Square Error를 사용하는 수학적인 근거를 확률적인 접근에서부터 유도하고, 나아가 Regularizer의 의미와 Bias-Variance Decomposition을 이용한 Regression모델의 Overfitting 분석에 대해서 주로 다루었습니다.
앞으로 몇 챕터 더 세미나를 발표할 예정이고, 해당 동영상은 제가 올린 링크의 플레이리스트에 계속 업로드됩니다~ 감사합니다.
https://www.youtube.com/watch?v=dt8RvYEOrWw&list=PLzWH6Ydh35ggVGbBh48TNs635gv2nxkFI&sns=em
'Deep Learning > algorithm' 카테고리의 다른 글
GAN 그리고 Unsupervised Learning (0) | 2017.03.22 |
---|---|
Linear algebra cheat sheet for deep learning (0) | 2017.03.09 |
5 algorithms to train a neural network (0) | 2017.03.08 |
Understanding, generalisation, and transfer learning in deep neural networks (0) | 2017.02.28 |
Recognizing Traffic Lights With Deep LearningHow I learned deep learning in 10 weeks and won $5,000 (0) | 2017.01.13 |