'2019/10/29'에 해당되는 글 7건

  1. 2019.10.29 Some of the best courses available on the internet. 1. Data Science Professional Certificate from IBM. http://bit.ly/2M6o4ko 2. Best Machine Learning course anyone can find on the Internet via Andrew NG/Stanford. http://bit.ly/2J9uZWV 3. Persona..
  2. 2019.10.29 Deep Learning Drizzle Drench yourself in Deep Learning, Reinforcement Learning, Machine Learning, Computer Vision, and NLP by learning from these exciting lectures!! GitHub by Marimuthu Kalimuthu: https://github.com/kmario23/deep-learning-drizzle We..
  3. 2019.10.29 From NeurIPS 2019: Particularly helpful for fighting wild forest fires: real-time segmentation of fire perimeter from aerial full-motion infrared video https://www.profillic.com/paper/arxiv:1910.06407 FireNet: Real-time Segmentation of Fire Perimeter ..
  4. 2019.10.29 #정보공유 #행사 안녕하세요! RLKorea 운영진입니다! 지난 10월 27~28일 RLKorea Bootcamp가 진행되었는데요! 강화학습의 기초개념인 MDP부터 시작하여 DQN, A2C, DDPG, SAC 등 다양한 강화학습 알고리즘..
  5. 2019.10.29 "Prior가 뭔지는 알잖아요?" 동의하는척 웃고 넘어간 뒤 한 없이 부끄러워져서 머신러닝 관련 기본적인 통계추론 내용을 정리를 해보았습니다. 논문 읽을 때 자주 나오는 내용인데도 생각보다 ..
  6. 2019.10.29 Check out these Top #MachineLearning Youtube Videos Under 10 Minutes
  7. 2019.10.29 Turn a line sketch into a photorealistic face: https://www.profillic.com/paper/arxiv:1910.08914 From sparse lines that coarsely describe a face, photorealistic images can be generated using conditional self-attention generative adversarial network (CS..
Some of the best courses available on the internet.

1. Data Science Professional Certificate from IBM.
http://bit.ly/2M6o4ko

2. Best Machine Learning course anyone can find on the Internet via Andrew NG/Stanford.
http://bit.ly/2J9uZWV

3. Personal experience, best specialization for Deep Learning and getting advance in Machine Learning via DeeplearningAI.
https://bit.ly/2MjIfd8

4. One the highest rated Machine Learning specialization course with practical approaches and examples via University of Washington.
http://bit.ly/2SuRmKA

5. Introduction to TensorFlow for Artificial Intelligence, Machine Learning, and Deep Learning(4.7 Rating).
http://bit.ly/2M5fLWg
https://m.facebook.com/groups/1376658555701288?view=permalink&id=2840924852607977&sfnsn=mo
Posted by uniqueone
,
Deep Learning Drizzle

Drench yourself in Deep Learning, Reinforcement Learning, Machine Learning, Computer Vision, and NLP by learning from these exciting lectures!!

GitHub by Marimuthu Kalimuthu: https://github.com/kmario23/deep-learning-drizzle

Webpage: https://deep-learning-drizzle.github.io

#artificialintelligence #deeplearning #machinelearning #reinforcementlearning
https://www.facebook.com/362056220806309/posts/991017504576841/?sfnsn=mo
Posted by uniqueone
,
From NeurIPS 2019: Particularly helpful for fighting wild forest fires: real-time segmentation of fire perimeter from aerial full-motion infrared video

https://www.profillic.com/paper/arxiv:1910.06407

FireNet: Real-time Segmentation of Fire Perimeter from Aerial Video
https://www.facebook.com/groups/1738168866424224/permalink/2437391486501955/?sfnsn=mo
Posted by uniqueone
,
#정보공유 #행사

안녕하세요! RLKorea 운영진입니다!

지난 10월 27~28일 RLKorea Bootcamp가 진행되었는데요!

강화학습의 기초개념인 MDP부터 시작하여 DQN, A2C, DDPG, SAC 등 다양한 강화학습 알고리즘과 코드를 살펴보았고 Unity ML-Agents를 이용하여 직접 강화학습 환경을 제작해보기도 했습니다!!

Bootcamp에서 진행한 강의자료와 코드들을 저장한 Github Repository를 공유드립니다! 링크는 다음과 같습니다.

[https://github.com/reinforcement-learning-kr/rl_bootcamp](https://github.com/reinforcement-learning-kr/rl_bootcamp)

또한 행사 사진도 함께 공유합니다!

정말 멋진 장소를 후원해주신 마이크로소프트 코리아와 행사에 참여해주신 모든 분들께 진심으로 감사드립니다! :)
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo
Posted by uniqueone
,
"Prior가 뭔지는 알잖아요?"

동의하는척 웃고 넘어간 뒤 한 없이 부끄러워져서 머신러닝 관련 기본적인 통계추론 내용을 정리를 해보았습니다. 논문 읽을 때 자주 나오는 내용인데도 생각보다 간결히 정리하기가 어려웠습니다. 대단한 내용이 있는 건 아니지만 잘 대답할 수 있나 확인해보시면 좋겠습니다.

.
.
.

1. 머신러닝 할 때 통계가 왜 필요할까?

2. PDF의 값이 1이 넘을 수 있겠는가? 예시를 들자면?

3. 아는 확률분포와 언제 사용할 수 있는지 말해보라.

4. 중심극한정리가 무엇이고 어느 맥락에서 사용되는지 설명해보아라.

5. 모수적 방법과 비모수적 방법의 차이는? 모수적 방법을 사용할 수 없는 경우는 언제인가?

6. 우도(likelihood)를 설명해 보아라.

7. 키가 측정할 때 마다 다르다면 어떻게 참값을 추정할 수 있을까?(키가 더이상 크지 않는 상황을 가정하자 ㅠㅠ)

8. MLE와 MAP차이를 수식으로 쓸 수 있겠는가? 그 의미는? 각 방법의 한계점은 뭐가 있을까? 사전확률(prior)을 설명해 보아라.

9. MLE 방법과 Mean Squared Error, Cross Entropy를 줄이는 방법이 동치인 경우를 말해보아라.

10. Log Likelihood를 쓰는 이유는 뭘까? log를 씌우면 MLE의 값이 변하지 않을까?

11. pure, semi, naive bayesian의 차이가 뭘까? 어떤 장단점이 있을까?

12. (NLP) MLE와 naive-bayesian을 사용한 Unigram Language Modeling의 학습 방법을 설명해보아라. 이 방법의 문제점은 뭘까?

블로그에 간략히 답을 달았습니다.
https://www.facebook.com/groups/modulabs/permalink/2541750722556762/?sfnsn=mo
Posted by uniqueone
,
Check out these Top  #MachineLearning Youtube Videos Under 10 Minutes
https://www.facebook.com/groups/aiIDEASandINNOVATIONS/permalink/2847112431989219/?sfnsn=mo
Posted by uniqueone
,
Turn a line sketch into a photorealistic face:
https://www.profillic.com/paper/arxiv:1910.08914

From sparse lines that coarsely describe a face, photorealistic images can be generated using conditional self-attention generative adversarial network (CSAGAN)

"LinesToFacePhoto: Face Photo Generation from Lines with Conditional Self-Attention Generative Adversarial Network"
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2324753411097219/?sfnsn=mo
Posted by uniqueone
,