'Deep Learning/resources'에 해당되는 글 145건

  1. 2019.12.31 NeurIPS 2019 Implementations Papers with code: https://paperswithcode.com/confe
  2. 2019.12.31 This is an attempt to modify Dive into Deep Learning, Berkeley STAT 157 (Spring
  3. 2019.12.26 안녕하세요! 지난번에 이어 Detectron2에서 custom dataset을 활용하여 object detection 알고리즘을 학습시켜보는
  4. 2019.12.23 안녕하세요! 지난번에 이어 Detectron2에서 custom dataset을 활용하여 object detection 알고리즘을 학습시켜보는
  5. 2019.12.19 안녕하세요, Cognex Deep Learning Lab KOR (前 수아랩)에서 머신러닝 엔지니어로 일하고 있는 이호성이라고합니다. 자사의 기 2
  6. 2019.12.17 안녕하세요. 이번에 Tracking 관련해서 연구를 시작하게 되었는데, 라벨링 관련해서 궁금한게 있어 질문올립니다. 현재 비디오에서 annota
  7. 2019.12.16 The Complete Deep learning Masterpiece by Andrew Ng Neural Networks and Deep Le
  8. 2019.12.11 fast.ai 수강생이 진행한 Top6 프로젝트의 리스트 입니다. 좋아요를 많이 받은 순서인것 같네요. 노트북과 설명이 함께 첨부되어 있습니다 :) 1. segmentation & classification of buildings from drone/aerial imag..
  9. 2019.12.10 #TFKRNeurIPS 안녕하세요! 오늘 NeurIPS 학회에서 제가 가장 관심있었던 주제는 <Efficient Processing of Deep Neural Network: from Algorithms to Hardware Architectures> 입니다! 저는 주로 네트워크 경량화쪽 기술에 ..
  10. 2019.12.10 안녕하세요! facebookresearch의 Detectron2[1]의 한국어버전 Colab 튜토리얼[2]을 공유합니다. Detectron2은 PyTorch기반의 Object Detection API입니다. Object Detection 하면 Bounding Box Regression 테스크를 많이들 떠..
  11. 2019.12.04 #DEVIEW2019 #발표영상공개 DEVIEW 2019 모든 발표영상이 공개되었습니다. 지금 DEVIEW 홈페이지에서 확인하세요. ▶ DEVIEW 2019 발표 영상|deview.kr/2019/schedule
  12. 2019.11.29 안녕하세요. 딥러닝 연구하실 때 주로 사용하시는 데스크탑/랩탑의 운영체제는 어떤 것을 사용하시는지 궁금해서 설문을 한번 작성해 봤습니다. 선택 항목을 임의로 추가했는데, 혹시 항목이..
  13. 2019.11.23 ICCV 2019에 참석하여 들은 내용 중에 인상적이었고 흥미로웠던 내용을 정리하여 연구실에서 발표한 자료를 공유합니다! 정리한 주제는 아래와 같습니다. - Medical AI : Registration & MR2CT - Image Synthe..
  14. 2019.11.20 "Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다. 저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어..
  15. 2019.11.19 CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf)) 를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv..
  16. 2019.11.18 [간략하게 읽어볼만한 글] “Do we still need models or just more data and compute?” - Max Welling, April 20 2019 https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf . Max Welling 교수님은 제가 정말 좋아..
  17. 2019.11.15 안녕하세요 여러분! 얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁 신기한 것들 많이 보고 와서 너무 좋았습니다! 학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇..
  18. 2019.11.12 This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks Github: https://github.com/deezer/spleeter https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
  19. 2019.11.08 모두의연구소 - AI COLLEGE 소식 오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습..
  20. 2019.11.05 [Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
  21. 2019.11.05 [서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법] 안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다. 어제 iPad를 새로 ..
  22. 2019.10.31 머신러닝 모델 디버깅 리소스와 팁 https://t.co/9Y7kDc1hag?amp=1 https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184 https://medium.com/@keeper6928/how-to-uni..
  23. 2019.10.30 #Download #Source #Code from Video Description. This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections 1. What is NLP 2. Applications of NLP 3. Text Data Cleaning Options 4. Bag of W..
  24. 2019.10.29 #정보공유 #행사 안녕하세요! RLKorea 운영진입니다! 지난 10월 27~28일 RLKorea Bootcamp가 진행되었는데요! 강화학습의 기초개념인 MDP부터 시작하여 DQN, A2C, DDPG, SAC 등 다양한 강화학습 알고리즘..
  25. 2019.10.28 [XGBoost/LightGBM] Laurae++: xgboost / LightGBM 이번에는 Kaggle에서 가장 많이 사용되는 모델인 xgboost와 lgbm에 관련된 내용입니다. @laurae 님이 만든 xgboost/lightgbm 웹페이지입니다. 공식 documentation에서도 ..
  26. 2019.10.28 안녕하세요 rl kr. 개인적으로 오랜 숙제였던 IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures(IMPALA)를 구현하여 결과를 공유합니다. tensorflow로 구현하였습니다(pytorch로 하지..
  27. 2019.10.25 Atrio: AI assisted ECG web application #alertedh
  28. 2019.10.25 안녕하세요! 얼마 전에 voice separation 을 공유 드렸었는데, Singing Voice Separation 학습을 추가하여 재공유 드립니다. 주요 특징으로 먼저, 데이터셋은 DSD100을 활용하였으며 Voice Bank, Audioset 등과 joi..
  29. 2019.10.22 안녕하세요! 파이썬으로 할 수 있는 time series 분석에 대해 정말 많은 것을 담고 있는 좋은 포스트입니다. https://www.machinelearningplus.com/time-series/time-series-analysis-python/ 최근 열린 ASHRAE 대회도, t..
  30. 2019.10.21 Natural language processing (NLP) is the ability of a computer program to understand human language as it is spoken. This is an introductory lesson on #Natural #Language #Processing (NLP) in Machine learning for beginners. you will learn basics for NLP..

NeurIPS 2019 Implementations

Papers with code: https://paperswithcode.com/conference/neurips-2019-12

#ArtificialIntelligence #DeepLearning #NeurIPS2019

Posted by uniqueone
,

This is an attempt to modify Dive into Deep Learning, Berkeley STAT 157 (Spring 2019) textbook's code into PyTorch

GitHub, by SDS Data Science Group, IIT Roorkee: https://github.com/dsgiitr/d2l-pytorch

#datascience #deeplearning #pytorch

Posted by uniqueone
,

안녕하세요! 지난번에 이어 Detectron2에서 custom dataset을 활용하여 object detection 알고리즘을 학습시켜보는 간단한 튜토리얼을 공유합니다[1].
이번에도 AIHub에서 제공하는 보행자 데이터셋[2]을 이용하였습니다. Detectron2 프레임워크 자체가 인터페이스가 너무 잘 되어 있어서 custom dataset을 활용하기 정말 간편합니다.(Detectron2에서 제공하는 cDatasetCatalog에 데이터셋을 간편하게 등록하기만 하면 됩니다. 자세한 내용은 주피터 노트북 튜토리얼을 참고하세요!)
+ AIHub에 오늘 접속해보니 보행자 데이터셋이 추가 업데이트되었네요. bbox annotation가 추가되었고 (구체적인 통계는 아직 모르겠습니다), depth map과 instance segmentation을 위한 polygon annotation이 추가되었습니다. 데이터 퀄리티는 확인해 봐야 알겠지만 (bbox는 확실히 꼼꼼하고 좋았습니다), 시도해볼 것들이 많아졌군요!
다음 시간에는 detectron2를 활용해 다양한 모델을 커스터마이징 하는 방법을 공유하도록 하겠습니다.
오늘도 즐거운 하루 보내세요!
REFERENCES
[1] http://bit.ly/2EGDgQm
[2] http://aihub.or.kr/aidata/136

Posted by uniqueone
,

안녕하세요!
지난번에 이어 Detectron2에서 custom dataset을 활용하여 object detection 알고리즘을 학습시켜보는 간단한 튜토리얼을 공유합니다[1].

이번에도 AIHub에서 제공하는 보행자 데이터셋[2]을 이용하였습니다. Detectron2 프레임워크 자체가 인터페이스가 너무 잘 되어 있어서 custom dataset을 활용하기 정말 간편합니다.(Detectron2에서 제공하는 cDatasetCatalog에 데이터셋을 간편하게 등록하기만 하면 됩니다. 자세한 내용은 주피터 노트북 튜토리얼을 참고하세요!)

+ AIHub에 오늘 접속해보니 보행자 데이터셋이 추가 업데이트되었네요. bbox annotation가 추가되었고 (구체적인 통계는 아직 모르겠습니다), depth map과 instance segmentation을 위한 polygon annotation이 추가되었습니다. 데이터 퀄리티는 확인해 봐야 알겠지만 (bbox는 확실히 꼼꼼하고 좋았습니다), 시도해볼 것들이 많아졌군요!

다음 시간에는 detectron2를 활용해 다양한 모델을 커스터마이징 하는 방법을 공유하도록 하겠습니다.
오늘도 즐거운 하루 보내세요!

REFERENCES
[1] http://bit.ly/2EGDgQm
[2] http://aihub.or.kr/aidata/136

Posted by uniqueone
,

안녕하세요, Cognex Deep Learning Lab KOR (前 수아랩)에서 머신러닝 엔지니어로 일하고 있는 이호성이라고합니다.
자사의 기술블로그(http://research.sualab.com/) 에 전이 학습(Transfer Learning) 관련 글이 올라와서 홍보차 글을 올리게 되었습니다. 이번 글은 기홍도 연구원님이 작성해주셨습니다.

http://research.sualab.com/introduction/review/2019/12/19/transfer-learning-in-sualab.html

전이 학습(Transfer Learning)은 딥러닝을 공부하시는 분들은 다들 많이 들어보셨을 것이라 생각합니다. 소스(source)의 지식을 타겟(target)으로 전이시키는 과정을 의미하며 ImageNet으로 pretraining 한 model을 다른 task에 적용하는 것이 가장 대표적으로 쓰이는 예시입니다. 자세한 내용은 블로그 글에서 확인하실 수 있습니다.

그동안 수아랩의 기술블로그에서는 Tutorial, 논문 리뷰 등의 주제로만 글을 작성하였었는데, 이번 글은 전이 학습 분야에 대한 소개는 물론, 수아랩이 전이 학습을 어떻게 사용하고 있는지, 앞으로 어떻게 연구를 진행할 지 등을 다루고 있으니 많은 관심 부탁드리겠습니다. 감사합니다!

Posted by uniqueone
,

안녕하세요.
이번에 Tracking 관련해서 연구를 시작하게 되었는데, 라벨링 관련해서 궁금한게 있어 질문올립니다.
현재 비디오에서 annotation을 하는 중인데, 30만장이 넘는 데이터셋이라서 수작업은 불가능하다고 판단하고 다음과 같은 과정으로 annotation을 진행했습니다.
비디오에서 Object가 Translation과 Rotation만 일어나는 것을 확인
Unet으로 비디오 첫 프레임의 Object만 학습시킨뒤 나머지는 Prediction
전처리후 육안으로 걸러내면 annotation 완료

음.. 그런데, 수작업이 아니다보니 annotation된 데이터는 어느정도의 오차를(육안으로 5%정도) 가질수 밖에 없는데, 해당 오차를 가지고 있는 데이터셋으로 실험을 했을 때 이게 합당하느냐에 대한 질문을 받았습니다.

혹시 비디오 이미지에서 라벨링을 하시는 분들은 어떻게 하고 계신지, 그리고 이런 문제에 대해서 다루고 있는 논문같은게 있으면 공유를 부탁드립니다 ㅜㅜ
미리 감사드립니다 :)

돈이 있으시면 https://aws.amazon.com/ko/sagemaker/groundtruth/

Posted by uniqueone
,

The Complete Deep learning Masterpiece by Andrew Ng

Neural Networks and Deep Learning.

Improving Deep Neural Networks: Hyperparameter tuning.

Regularization, and Optimization.

Structuring Machine Learning Projects.

Convolutional Neural Networks.

Sequence Models.

Beautifully drawn notes by Tess Ferrandez:
https://www.slideshare.net/TessFerrandez/notes-from-coursera-deep-learning-courses-by-andrew-ng

You can Download the PDF here 👇🏼:
https://github.com/mukeshmithrakumar/Book_List/blob/master/Deep%20learning%20Masterpiece%20by%20Andrew%20Ng.pdf

Credit: Mahmoud Badry

Follow me for more AI and Data science posts :
https://www.facebook.com/adhiraiyan/

#artificialintelligence #datascience #machinelearning #deeplearning #technology

Posted by uniqueone
,
fast.ai 수강생이 진행한 Top6 프로젝트의 리스트 입니다. 좋아요를 많이 받은 순서인것 같네요. 노트북과 설명이 함께 첨부되어 있습니다 :)

1. segmentation & classification of buildings from drone/aerial imagery in Zanzibar, Tanzania
https://forums.fast.ai/t/share-your-work-here/27676/577

2. Time series classification: General Transfer Learning with Convolutional Neural Networks
https://forums.fast.ai/t/share-your-work-here/27676/367

3. plotting the loss function and the path followed by SGD
https://forums.fast.ai/t/share-your-work-here/27676/300

4. Urban Sounds database Converted de soundfiles (wav) into spectrograms
https://forums.fast.ai/t/share-your-work-here/27676/61

5. 10 class audio classification task
https://forums.fast.ai/t/share-your-work-here/27676/39

6. applying PCA to the last layer before the predictions => interpreted the top two features as ‘naked/hairy’ and ‘dog/cat’
https://forums.fast.ai/t/share-your-work-here/27676/26
https://www.facebook.com/groups/fastaikr/permalink/2477649515783828/?sfnsn=mo
Posted by uniqueone
,
#TFKRNeurIPS

안녕하세요! 오늘 NeurIPS 학회에서 제가 가장 관심있었던 주제는

<Efficient Processing of Deep Neural Network: from Algorithms to Hardware Architectures>

입니다!

저는 주로 네트워크 경량화쪽 기술에 관심이 많은데, MIT에 계시는 Vivienne Sze 교수님께서 가장 기초적인 부분부터 최근 연구까지 하나하나 차근차근 설명해주시는 세션이었습니다. 특히, 저는 하드웨어 관점에서는 많이 생각을 해보지는 못했는데 하드웨어 관점에서 여러 논문들을 소개해주셔서 도움이 되었습니다.

공식 슬라이드는

http://eyeriss.mit.edu/2019_neurips_tutorial.pdf

이고,

벌써 비디오로도 볼 수 있는 것 같네요

비디오 링크: https://slideslive.com/38921492/efficient-processing-of-deep-neural-network-from-algorithms-to-hardware-architectures

(제가 찍은 사진에는 참석자가 없는 것 처럼 보이지만, 참석자가 사실 엄청 많았습니다!!)
https://www.facebook.com/groups/TensorFlowKR/permalink/1060767684264289/?sfnsn=mo
Posted by uniqueone
,
안녕하세요!
facebookresearch의 Detectron2[1]의 한국어버전 Colab 튜토리얼[2]을 공유합니다.

Detectron2은 PyTorch기반의 Object Detection API입니다. Object Detection 하면 Bounding Box Regression 테스크를 많이들 떠올리시는데, 요즘은 Object Detection 하면 넓은 의미로 bounding box/keypoints detection, instance/semantic/panoptic segmentation 모두를 지칭하는 용어로 사용하기도 하는 것 같습니다.
Detectron2의 특징으로는
1. PyTorch 기반
2. 다양한 Object Detection 알고리즘 제공
3. 방대한 Pretrained Model Zoo 제공
4. 이를 활용할 수 있는 쉬운 API 환경을 제공
5. 아주 쉬운 커스텀 데이터셋 로더 만들기
(특히 bbox 표현 방식이 데이터셋별로 상이한 경우가 많은데, 4가지 bbox 버전을 제공해줘서 정말 편했습니다)
Detectron2 repo에 colab 튜토리얼 원문이 있는데 이번 한국어버전 튜토리얼의 차이점은.

+ 한국어 번역
+ 튜토리얼 목차 순서를 조금 더 직관적으로 변경
+ RetinaNet(bbox) 이미지/비디오 인퍼런스 튜토리얼 추가
+ RetinaNet(bbox) 커스텀 데이터셋 학습 튜토리얼 추가

으로 제 입맛대로 한번 바꿔봤습니다..
필요한 챕터만 골라서 이것저것 튜닝해보면 기초적인 부분은 쉽게 이해하

요즘 날씨가 정말 춥네요.. 모두들 연말 따뜻하게 보내세요!
항상 감사합니다!
 
REFERENCES
[1] https://github.com/facebookresearch/detectron2
[2] https://colab.research.google.com/github/visionNoob/detectron2_aihub_tutorial/blob/master/Detectron2_Tutorial_(kor_ver).ipynb
https://www.facebook.com/groups/TensorFlowKR/permalink/1059469937727397/?sfnsn=mo
Posted by uniqueone
,
#DEVIEW2019 #발표영상공개

DEVIEW 2019 모든 발표영상이 공개되었습니다.
지금 DEVIEW 홈페이지에서 확인하세요.

▶ DEVIEW 2019 발표 영상|deview.kr/2019/schedule
https://m.facebook.com/story.php?story_fbid=2364070777054935&id=353497304778969&sfnsn=mo
Posted by uniqueone
,
안녕하세요. 딥러닝 연구하실 때 주로 사용하시는 데스크탑/랩탑의 운영체제는 어떤 것을 사용하시는지 궁금해서 설문을 한번 작성해 봤습니다. 선택 항목을 임의로 추가했는데, 혹시 항목이 없는 경우 항목을 추가해주시거나 댓글로 달아주시면 감사하겠습니다 :)
https://www.facebook.com/groups/datakorea/permalink/1349148285253979/?sfnsn=mo
Posted by uniqueone
,
ICCV 2019에 참석하여 들은 내용 중에 인상적이었고 흥미로웠던 내용을 정리하여 연구실에서 발표한 자료를 공유합니다!

정리한 주제는 아래와 같습니다.
- Medical AI : Registration & MR2CT
- Image Synthesis : Seeing What a GAN Cannot Generate
- XAI
- SinGAN

많은 분들께 도움이 되었으면 좋겠습니다😀
문제될 경우 삭제하도록 하겠습니다.

링크 : https://www.slideshare.net/mobile/DongminChoi6/iccv-2019-review-cdm

※ 참고로 피피티 내용은 학회에 참관하며 찍은 사진을 바탕으로 발표자 분의 피피티와 비슷하게 구성하였습니다.
https://www.facebook.com/groups/TensorFlowKR/permalink/1041013296239728/?sfnsn=mo
Posted by uniqueone
,
"Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다.

저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어떤 부분에서 장점이 있고 어느 부분까지 스며들 수 있는지, 어떻게 기존의 방법들과 융화될 수 있을지에 대해서 다시금 생각하게 해주는 글인것 같습니다.

최근 서울에서 개최되었던 ICCV 2019에서 나왔던 이슈들도 인용이 많이 되어 있어서 아주 따끈따끈하네요😁
https://www.facebook.com/groups/slamkr/permalink/1022417871451190/?sfnsn=mo
Posted by uniqueone
,
CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf))

를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv를 두번 쌓아 이미지를 반환하였고 논문에서와 같이 smooth l1 loss 를 사용하였습니다.

batchnorm을 upsampling과정에 넣으면 학습은 잘 되는데 loss가 잘 떨어지지 않아 batchnorm을 넣고 중간중간 lr을 조정해가면서 훈련시킨결과 다음과 같은 결과를 얻었는데

모든 이미지에 대해 이미지의 채도를 명확하게 묘사해내지 못한다는 사실을 발견하였습니다. training loss 값을 고려해보았을 때(약 0.004) 이미지의 pixel간 평균적인 차이는 22pixel 정도로 보아야 마땅한 데 output image는 거의 흑백이미지에 가깝기 때문에 평균적인 차이가 어떻게 22pixel 정도인지도의문입니다.

앞으로 어떤 방향으로 시도를 해보아야할 지 몰라서 게시물을 작성하게 되었는데요

1. stage1 에서 무리하게 x4 upsampling 한 것이 문제이기 때문에 stage2 까지 구현 후 다시 훈련시ㅋ본다.

2. stage1 뒤에 downsample(space-to-depth)를 한 후 처음 input image를 더하여 pixel 정보를 보정시킨후 다시 upsampleing 하는 refinement module 을 고안해본다.

아니면 pixel 정보를 보정할 수 있는 다른 방법을 고안.

3. 마지막 conv3x3 (channel : 256 -> 3) 을 한 후에 relu를 쓰지말고 sigmoid 를 써서 훈련을 시켜본다. (image 값은 0~1) 이므로 이경우 loss가 잘 떨어지지 않는 문제가 발생합니다.
https://www.facebook.com/groups/TensorFlowKR/permalink/1041218709552520/?sfnsn=mo
Posted by uniqueone
,
[간략하게 읽어볼만한 글]
“Do we still need models or just more data and compute?” - Max Welling, April 20 2019
https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf
.
Max Welling 교수님은 제가 정말 좋아하는 ML scientist 들 중 한 분 입니다. Variational autoencoder 을 비롯한 Bayesian deep learning 을 연구해오셨고, Graph convolutional network 도 Max Welling group 에서 나온 논문입니다.
ML 분야에서 대가라고 할 수 있는 Max Welling 교수님의 위 제목과 같은 기고문이 있는데, 현재 ML 연구방식의 한계와 연구되어야할 방향에 대해서 생각해보게끔 하는 글입니다.
.
1. Max Welling 교수님은 본인이 “기본적으로 컴퓨팅 파워의 중요성“을 믿는다고 합니다. Qualcomm 에서 part-time position으로 재직하고 있는 이유 중 하나도, AI의 발전을 이끄는 가장 빠른 방향 중 하나는 AI computation 을 위한 hardware 를 개발하는 것이라고 생각하신다고 합니다.
.
2. Computation 과 별개로, “data”는 ML의 가장 raw material임을 잊지 말아야한다고 하면서, 현재 연구방향의 한계점과 나아가야할 방향에 대한 의견을 시작합니다. 잘 정의가 되어있는 문제 및 도메인 - data를 충분한 양을 생성할 수 있는 경우 (e.g. AlphaGo), data를 충분히 얻을 수 있는 경우 (e.g. speech) 에서는 deep learning과 같은 “data driven, discriminative, black-box” 방법이 잘 동작할 수 있고, 이런 경우는 “interpolation problem” 으로 볼 수 있다고 합니다.
.
3. 하지만 “extrapolation problem” 의 경우에 대해서 문제가 시작된다고 말씀합니다.
“There is no predictions without assumptions, no generalization without inductive bias”
말씀을 ML 연구기간 동안 가장 인상깊게 생각한다 (recall one thing most vividly) 고 말씀하십니다.
사족) 개인적으로 이 말이 너무너무너무 멋있고, ML연구 관련하여 들은 말 중에서 가장 기억하고 싶은 말 줄 하나로 생각하고 싶습니다.

ML의 bias-variance trade-off를 지적하시면서
- Data가 충분한 경우에는, 많은 human inductive bias를 모델에 주입할 필요가 없고, “데이터가 말하게 하라(let the data speak)” 고 하면 되지만,
- 그렇지 않은 경우에는, human-knowledge를 불어넣어주어서 그 gap을 채워주어야 한다.
- Extrapolation의 상황에서, 즉 새로운 도메인에 sparse한 data로 training한 모델을 적용하는 경우 모델을 쉽게 fail할 거라고 합니다.

Game과 같은 문제(e.g. AlphaGo, Starcraft, …)에서는 input domain 은 잘 정의되어있고, 우리는 완벽한 simulator를 가지고 있기 때문에, 이런 경우에서 모델 개발의 bottleneck은 “data가 아니라 computation이다.” 라는 말씀을 하십니다. 또 하나 인상깊은 지적입니다.

반면에 self-driving car 와 같은 문제는 언제나 long-tail/exceptional situation이 있기 때문에, 아무리 human이 inductive bias/prior-knowledge를 simulator등을 이용해 고려하여도 이는 때로는 너무 단순해서, 다양한 상황을 simulation하기 어려울 수 있다고 지적합니다.
.
4. 하지만, 한 가지 희망이 있다면 그 방향은 “forward, generative, causal direction” 이라고 지적하십니다.
- Generative model은 unseen domain 에 대한 generalization 에 (discriminative 모델보다) 더 낫다.
- Causality는 한 도메인에서 다른 도메인으로의 model 의 적용을 가능케 한다, 예시) 교통사고는 네덜란드에서는 검은색 차량과 상관성이 높을 수 있지만, 미국에서의 빨간색 차량과 상관성이 높을 수 있다. 색깔을 바탕으로 predictor를 만드는 것은 generalize할 수 없지만, male testerone level와 같은 “causal factor”는 generalize할 수 있게 해줄 것이다.
- Human은 만나보지 않은 상황(conterfactual worlds)에 대해 시뮬레이션/상상할 수 있는 뛰어난 능력이 있다. 이는 물리법칙, 심리적 요소에 대한 human의 능력에 기반한다.
와 같은 일종의 연구 direction을 제시하십니다.
.
개인적으로, 이 기고문이 저에게 많은 교훈을 준 것 같습니다. 저는 이미지, 자연어, 음성과 같은 일종의 sensory 데이터를 주로 다뤄왔다기 보다는, 분자와 같은 좀 더 물리/화학/생명쪽과 같은 자연현상에 관심을 가져왔기 때문에, 이 자연현상을 governing하는 universal law를 잘 모델링할 수 있지않을까라는 생각을 종종하고는 하는데, physics law를 inductive bias로 machine에게 불어넣어주기, causality 등이 저에게 연구방향이 되지않을까 합니다.
https://m.facebook.com/story.php?story_fbid=2438975229757338&id=100009346535102&sfnsn=mo
Posted by uniqueone
,
안녕하세요 여러분!

얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁
신기한 것들 많이 보고 와서 너무 좋았습니다!

학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇개는 제가 촬영한게 아닌 것도 있어서 출처 표기했습니다! 도움이 되었으면 좋겠습니다!

1. ICCV 정리 페이지 링크:
https://tinyurl.com/vzqm33f

2. 딥러닝 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/t94nuqt

3. SLAM, 3D 비전 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/ur8ot9n
https://www.facebook.com/groups/TensorFlowKR/permalink/1036795166661541/?sfnsn=mo
Posted by uniqueone
,
This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks

Github: https://github.com/deezer/spleeter

https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
https://www.facebook.com/groups/DeepNetGroup/permalink/999612590431623/?sfnsn=mo
Posted by uniqueone
,
모두의연구소 - AI COLLEGE 소식

오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습니다.


뒷부분은 너무 재밌어 몰입하느라 적지 못했지만 간단히 정리해보면,
라이다의 3세대

1 세대 : Velodyne Lidar
- 스피닝 방식. 회전을 하며 360도를 촬영함 . 단점은 내구성이 낮음

2 세대 :  Mechanical Scanning -IBEO
- 내구성이 좋아짐
- 단점 : 물체가 있다. 없다. 정도만 인식 가능

3세대 : Hybrid Scanning (SOS LAB이 쓰는 것)
- 굉장히 빠른 스캐닝
- 3cm 의 오차정확도
- 360도는 촬영을 못함
- 150도의 3D 모델링 가능

라이다 시스템 : Transmitter
- 사람의 눈에  905nm  이상은 사람의 각막에 안좋음
- 하지만 1550nm 이상은 사람 각막을 뚫지 못함
-최근 연구에 사람 각막은 뚫지 못하지만 카메라에 데이지 입힘

라이다 응용분야 :
- 항공
- 군사
- 토목,건축
- 지리 정보 시스템
- 자율주행 자동차

자율주행자동차 :
-자율주행 레벨 5 :
사람이 상상하는 진짜 자율주행을 레벨 5라고 한다.(진짜 자율주행 : 사람이 전혀 운전하지 않아도 주행)


현재 테슬라의 자율주행은 레벨3 정도
레벨 4 : 객체를 인식해서 자동으로 피하는 정도.(우버, 바이두 ,웨이모)
레벨 5 : 레벨 5와 레벨4의 다른점은 레벨4가 성숙되어 조향장치가 없는 자동차

자율주행을 위한 자동차는 센서가 굉장히 많이 필요하다. (현재의 기술로는)

자율주행 자동차를 위한 데이터 수집

- 각 회사, 나라에서 데이터셋을 구축하는데 노력을 많이 하고 있다.
- 이유는 인도에서 잘 되는 자율주행자동차가 한국에서 잘 되진 않는다.
(인도에서는 거리에서 소가 지나가님)

자율주행의 핵심 요소:

1. 개체 인식
2. 위치 추정(SLAM)
3. 센서/감지
4. 경로 계획/제어



딥러닝이 자율주행에 가장 실용적으로 적용되는 분야는 Recognition 이다.

- 딥러닝이 아무리 잘되도 input이 garbage면 예측이 어렵다.
(자율주행에서는 터널에서 나왔을때 갑자기 밝은 빛이 들어오는 경우)

-이미지 기반의 딥러닝이 아무리 잘된다고 하더라도(99%이상이더라도) 1%의 미스가 큰 사고로 이어짐
- 그래서 이미지와 라이다 등 다른 정보들을 사용해서 모델의 성능을 높이는 연구가 많이 되고 있음

자율주행에서의 객체인지란?
- 내가 주행하고 있을때 주위의 위치, 방향(X,Y,Z)
- 2D와는 다르게 3차원이어야함

라이다 point cloud를 이용한 object detection?

-라이다에서 얻어지는 포인터 클라우드는 데이터의 연관성이 전혀 없다.
-포인트 클라우드는 규칙적이지 않다.(포인트의 갯수가 항상 일정하지 않다.)
-라인다 포인트 클라우드는 덴시티가 전부 다르다. (멀리서 찍으면 포인터가 sparse하다)

궁금점 : 같은 오브젝트를 같은 각도, 같은 distance에서 두번 찍엇을때 포인터 클르우드의 포인터 갯수가 달라지나?
- > 답변 : 거의 비슷하지만 다른 객체가 배경에 있다면 Index가 달라짐

oxelization :
Voxelization + 3D CNN
- Voxel 만드는 과정에서 cost가 굉장히 많이 든다.
- 정확도에서는 장점이 있음
- Voxelization 에 딥러닝을 적용하여 가장 잘 된 논문
- Voxel NET
포인터 클라우드를 일렬로 넣고 피쳐 임베딩을 계속 시킴

내가 한 질문 : 이거 겁나 느릴것 같은데?
6~10 FPS 정도 나온다.
그러면 자율주행에서 안전하다고 기준되는 바운더리의 값은 몇이냐?
레이더에서는 10FPS 정도이다( 라이다는 200미터 앞을 측정할 수 있기에 기준이 낮다.)
카메라에서는 60 FPS 정도로 본다.

2D Projection + 2D CNN
일단 형태를 2D로 만들고  딥러닝에 넣자.

MV3D
라이다  3D 데이터를 카메라랑 똑같은
RGB, bird eye view , Front view 세가지를 CNN에 넣고 feature를 뽑은 다음 concat 함

Frustum PointNets

1. 카메라에서 먼저 2D object detection을 함
2. detection 한 부분에서만 포인트 클라우드 적용



정말 좋은 세미나 였습니다. 이용이 박사님, SOS LAB함께 모두연  AI COLLEGE  달려보겠습니다!
https://www.facebook.com/groups/modulabs/permalink/2561195253945642/?sfnsn=mo
Posted by uniqueone
,
[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation

---

Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.

그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)

XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27

---

이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.

- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature

마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.

마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.

원문의 링크는 아래와 같습니다.

https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed

#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
Posted by uniqueone
,
[서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법]

안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다.

어제 iPad를 새로 구입하고 코딩할 수 있는 방법을 찾다가, 재미있는 해결책을 발견했습니다. 우분투 GPU서버에서 VS Code를 웹상에 띄워놓고, 태블릿의 "웹브라우저"로 접속해서 코딩하는 방법인데요, 마치 로컬에서 작업하는 것처럼 사용성이 매우 좋습니다. 심지어 웹브라우저만 된다면 윈도우랩탑, 맥북, 태블릿, 스마트폰, 심지어 TV나 냉장고에서도 코딩을 할 수 있습니다!

아직도 팀뷰어로 작업하시나요?
그렇다면 한번 따라와보세요!
장담하건데 신세계를 맛볼겁니다.

* 일정한 환경: 윈도우 노트북이건, 아이패드건, 심지어 휴대폰이건 상관 없이 항상 동일한 개발환경을 사용할 수 있습니다. 리눅스 서버에 띄워놓고, 웹브라우저로 접속해서 간편하게 개발이나 연구를 할 수 있습니다.

* Server-powered: 개인용 GPU 리눅스 서버 뿐만 아니라, 클라우드 서버 역시 Deploy할 수 있습니다. 노트북은 그저 웹브라우저 화면만 띄워주고 실제 연산은 서버상에서 이루어지므로, 노트북의 부하가 전혀 없습니다.

* VS Code 그대로: VS Code에서 사용하던 편리함과 사용성을 그대로 느낄 수 있습니다. 확장 플러그인 역시 사용할 수 있습니다.

https://eungbean.github.io/2019/11/04/remote-vscode/

여러가지 이슈는 블로그 댓글로 제보해주시면 바로 해결해드리겠습니다. 읽어주셔서 감사드리며, 즐거운 코딩하세요!
https://www.facebook.com/groups/TensorFlowKR/permalink/1028201280854263/?sfnsn=mo
Posted by uniqueone
,
머신러닝 모델 디버깅 리소스와 팁

https://t.co/9Y7kDc1hag?amp=1

https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184

https://medium.com/@keeper6928/how-to-unit-test-machine-learning-code-57cf6fd81765

https://pcc.cs.byu.edu/2017/10/02/practical-advice-for-building-deep-neural-networks/amp/?__twitter_impression=true

https://medium.com/ai%C2%B3-theory-practice-business/top-6-errors-novice-machine-learning-engineers-make-e82273d394db

http://karpathy.github.io/2019/04/25/recipe/

https://github.com/EricSchles/drifter_ml
https://www.facebook.com/303538826748786/posts/804661033303227/?sfnsn=mo
Posted by uniqueone
,
#Download #Source #Code from Video Description.
This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections
1. What is NLP
2. Applications of NLP
3. Text Data Cleaning Options
4. Bag of Words and TF-IDF (word2vec coming soon)
5. Text Data Preparation
6. Tokenization
7. Lemmatization
8. POS
9. Parsing
10. Named Entity Recognition
11. Text Data Cleaning
12. Model Building
13. Training and Testing
14. Testing with real-world sentences.
Please watch the full video below. Like and Subscribe to show your support.
Sentiment Classification using SpaCy for IMDB and Amazon Review Dataset
https://www.youtube.com/watch?v=cd51nXNpiiU
Posted by uniqueone
,
#정보공유 #행사

안녕하세요! RLKorea 운영진입니다!

지난 10월 27~28일 RLKorea Bootcamp가 진행되었는데요!

강화학습의 기초개념인 MDP부터 시작하여 DQN, A2C, DDPG, SAC 등 다양한 강화학습 알고리즘과 코드를 살펴보았고 Unity ML-Agents를 이용하여 직접 강화학습 환경을 제작해보기도 했습니다!!

Bootcamp에서 진행한 강의자료와 코드들을 저장한 Github Repository를 공유드립니다! 링크는 다음과 같습니다.

[https://github.com/reinforcement-learning-kr/rl_bootcamp](https://github.com/reinforcement-learning-kr/rl_bootcamp)

또한 행사 사진도 함께 공유합니다!

정말 멋진 장소를 후원해주신 마이크로소프트 코리아와 행사에 참여해주신 모든 분들께 진심으로 감사드립니다! :)
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo
Posted by uniqueone
,
[XGBoost/LightGBM] Laurae++: xgboost / LightGBM

이번에는 Kaggle에서 가장 많이 사용되는 모델인 xgboost와 lgbm에 관련된 내용입니다.

@laurae 님이 만든 xgboost/lightgbm 웹페이지입니다. 공식 documentation에서도 링크를 제공하고 있습니다.

xgboost와 lightgbm의 parameter에 대한 설명들을 볼 수 있습니다.
총 86개의 parameter에 대한 다음과 같은 내용이 정리되어 있고, 원하는 filter로 parameter를 선택해서 볼 수도 있습니다.

- 간단 설명
- 매개변수의 유형과 카테고리
- xgboost와 lightgbm에서의 명칭
- 범위
- major impact와 minor impact
- 일반적인 사용법과 tips
- 그 외 세부적인 설명과 유용한 링크

링크는 다음과 같습니다.

https://sites.google.com/view/lauraepp/parameters

사이트에는 튜토리얼과 벤치마크 결과도 있으니 참고하면 좋을 것 같습니다. 다들 즐거운 Kaggle/ML 생활하세요 :)

+ 원래는 한글로 번역을 할까 싶었는데, 번역본보다 원문이 이해가 잘되서 포기했습니다.
+ 이 표는 awesome table이라는 서비스로 만들었다는데, 꽤 괜찮아보입니다.

#Kaggle #LightGBM #XGBoost #parameter #Laurae
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/515068679225236/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 rl kr. 개인적으로 오랜 숙제였던 IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures(IMPALA)를 구현하여 결과를 공유합니다. tensorflow로 구현하였습니다(pytorch로 하지 못해 토치 유저분들에게는 죄송하다는 말씀을 올리며). 사용한 것은 distributed tensorflow를 기본적으로 사용하였습니다. 제 예전 actor critic으로 breakout을 잘 배우기 위해서는 엄청나게 오랜시간(10시간정도)걸렸지만 20개의 actor로 2시간만에 의미있는 결과를 뽑아낼 수 있었습니다. 혹시 코드에서 오류 혹은 수식을 코드로 옮기는 과정에서 잘못된 부분이 있다면 바로 알려주시면 감사하겠습니다.

ps. 윤수로님께 감사하다는 말씀 올립니다.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2324753411097219/?sfnsn=mo
Posted by uniqueone
,
Atrio: AI assisted ECG web application #alertedh

https://www.facebook.com/groups/DeepNetGroup/permalink/983603155365900/?sfnsn=mo
Posted by uniqueone
,
안녕하세요! 얼마 전에 voice separation 을 공유 드렸었는데, Singing Voice Separation 학습을 추가하여 재공유 드립니다.

주요 특징으로 먼저, 데이터셋은 DSD100을 활용하였으며 Voice Bank, Audioset 등과 joint training 을 하였습니다. 특히 기존 Source Separation과 다르게 듣는 귀를 만족시켜보고자 44.1k sample rate을 이용하였습니다.
github link : https://github.com/AppleHolic/source_separation

이전과 마찬가지로 샘플을 만들어 보았는데요, 유튜브 재생목록에 총 5가지 제(+@)가 좋아하는 가요로 테스트 샘플을 공유해두었습니다.
Youtube Playlist : https://www.youtube.com/playlist?list=PLQ4ukFz6Ieir5bZYOns08_2gMjt4hYP4I

5개 중 성시경-거리에서는 배경음은 그대로인 채로 목소리만 shifting하여 더해 보았습니다. 기존에 듣던 곡에서 조금 신선한 느낌을 느끼실 수 있을 거라 생각되며, 이런 식으로 활용할 수 있다는 사실이 재밌었습니다.
https://www.youtube.com/watch?v=xmoBUf_6b0c&list=PLQ4ukFz6Ieir5bZYOns08_2gMjt4hYP4I&index=1

체크포인트 파일은 조만간 업로드 예정입니다. 문제점 혹은 개선 사항 있으시면 편하게 연락 주세요~ 감사합니다.
https://www.facebook.com/groups/PyTorchKR/permalink/1511168179022858/?sfnsn=mo
Posted by uniqueone
,
안녕하세요!

파이썬으로 할 수 있는 time series 분석에 대해

정말 많은 것을 담고 있는 좋은 포스트입니다.

https://www.machinelearningplus.com/time-series/time-series-analysis-python/

최근 열린 ASHRAE 대회도, time series 분석이 필요하니,

한번 보시고, 함께 공부하는건 어떨까요?
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/510107289721375/?sfnsn=mo
Posted by uniqueone
,
Natural language processing (NLP) is the ability of a computer program to understand human language as it is spoken.

This is an introductory lesson on #Natural #Language #Processing (NLP) in Machine learning for beginners. you will learn basics for NLP, where to use NLP and how to use #NLP. Download Working Code from the Video Description.
NLP Tutorial 1 -  Spam Text Message Classification using NLP and sklearn in Natural Language Processing
https://youtu.be/mrF9MD56-wk
Learn Complete Data Science with these 4 video series.
1. Python for Beginners
https://www.youtube.com/watch?v=b42eTWkEIfA&list=PLc2rvfiptPSRmd4eWpRmzRIPebX3W9mju
2. Machine Learning for Beginners
https://www.youtube.com/watch?v=ZeM2tHtjGy4&list=PLc2rvfiptPSTvPFbNlT_TGRupzKKhJSIv
3. Feature Selection in Machine Learning
https://www.youtube.com/watch?v=kA4mD3y4aqA&list=PLc2rvfiptPSQYzmDIFuq2PqN2n28ZjxDH
4. Deep Learning with TensorFlow 2.0 and Keras
https://www.youtube.com/watch?v=nVvhkVLh60o&list=PLc2rvfiptPSR3iwFp1VHVJFK4yAMo0wuF
The working code is given in the video description of each video. You can download the Jupyter notebook from GitHub.
Please Like and Subscribe to show your support.
Posted by uniqueone
,