'2019/11/05'에 해당되는 글 6건

  1. 2019.11.05 [Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
  2. 2019.11.05 A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu You can subscribe my channel for more such videos https://www.yo..
  3. 2019.11.05 Making an Invisibility Cloak for evading Object Detectors! https://www.profillic.com/paper/arxiv:1910.14667 (eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.) Btw if you're intereste..
  4. 2019.11.05 며칠전에 CoRL 19 가 오사카에서 있었는데요 페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1 리뷰도 제공하네요 오 대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ..
  5. 2019.11.05 [서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법] 안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다. 어제 iPad를 새로 ..
  6. 2019.11.05 High-Quality Face Image Generation from Poorly-Drawn Sketches https://www.profillic.com/paper/arxiv:1911.00426 Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), an..
[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation

---

Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.

그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)

XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27

---

이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.

- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature

마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.

마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.

원문의 링크는 아래와 같습니다.

https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed

#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
Posted by uniqueone
,
A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel

https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu

You can subscribe my channel for more such videos

https://www.youtube.com/user/kumarahlad/featured?sub_confirmation=1
https://www.facebook.com/groups/aiIDEASandINNOVATIONS/permalink/2858897464144049/?sfnsn=mo
Posted by uniqueone
,
Making an Invisibility Cloak for evading Object Detectors!

https://www.profillic.com/paper/arxiv:1910.14667

(eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.)

Btw if you're interested in implementing this in your project/product, feel free to DM me
https://www.facebook.com/groups/1738168866424224/permalink/2441456712762099/?sfnsn=mo
Posted by uniqueone
,
며칠전에 CoRL 19 가 오사카에서 있었는데요

페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1

리뷰도 제공하네요 오

대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ㅠ)

그 중에서 SLAM 및 perception 쪽 CoRL19 논문들을 모아보았습니다. 해당 비디오 링크도 함께 정리하였습니다.

@ TUM 크레머

Multi-Frame GAN: Image Enhancement for Stereo Visual Odometry in Low Light

https://drive.google.com/file/d/15eIyWTVelmiCqg_x111FKrPtOjiZBdde/view

https://youtu.be/glMwF5-q51E?t=7999

@ 옥스포드

Masking by Moving: Learning Distraction-Free Radar Odometry from Pose Information

https://drive.google.com/open?id=1mqKLXOEN18Ig88hCetHfJksAS12Lmbxn

https://youtu.be/glMwF5-q51E?t=11527

@ Toyota

Two Stream Networks for Self-Supervised Ego-Motion Estimation

https://drive.google.com/file/d/1itLb8wM9JV3FIftCHH5Mw12Q-qHSKxwf/view

https://youtu.be/b7StSnt85S4?t=12810

@ 우버 ATG

Identifying Unknown Instances for Autonomous Driving

https://drive.google.com/file/d/1e_kBfHEL9adDWwhuhSrOHz-CUqRbLe2T/view?usp=drive_open

https://youtu.be/b7StSnt85S4?t=27917

@ Toyota

Robust Semi-Supervised Monocular Depth Estimation with Reprojected Distances

https://drive.google.com/file/d/1DsnCqZ42VtWR2_AJqf6IttUdEKy6omIG/view

https://youtu.be/b7StSnt85S4?t=28102

@ 웨이모

End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds

https://drive.google.com/file/d/18LymYUkOVkj-xbKQElHzECW1VDbnx4wY/view

https://youtu.be/QaCuEv_7lfs?t=12515
https://www.facebook.com/groups/slamkr/permalink/1007915666234744/?sfnsn=mo
Posted by uniqueone
,
[서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법]

안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다.

어제 iPad를 새로 구입하고 코딩할 수 있는 방법을 찾다가, 재미있는 해결책을 발견했습니다. 우분투 GPU서버에서 VS Code를 웹상에 띄워놓고, 태블릿의 "웹브라우저"로 접속해서 코딩하는 방법인데요, 마치 로컬에서 작업하는 것처럼 사용성이 매우 좋습니다. 심지어 웹브라우저만 된다면 윈도우랩탑, 맥북, 태블릿, 스마트폰, 심지어 TV나 냉장고에서도 코딩을 할 수 있습니다!

아직도 팀뷰어로 작업하시나요?
그렇다면 한번 따라와보세요!
장담하건데 신세계를 맛볼겁니다.

* 일정한 환경: 윈도우 노트북이건, 아이패드건, 심지어 휴대폰이건 상관 없이 항상 동일한 개발환경을 사용할 수 있습니다. 리눅스 서버에 띄워놓고, 웹브라우저로 접속해서 간편하게 개발이나 연구를 할 수 있습니다.

* Server-powered: 개인용 GPU 리눅스 서버 뿐만 아니라, 클라우드 서버 역시 Deploy할 수 있습니다. 노트북은 그저 웹브라우저 화면만 띄워주고 실제 연산은 서버상에서 이루어지므로, 노트북의 부하가 전혀 없습니다.

* VS Code 그대로: VS Code에서 사용하던 편리함과 사용성을 그대로 느낄 수 있습니다. 확장 플러그인 역시 사용할 수 있습니다.

https://eungbean.github.io/2019/11/04/remote-vscode/

여러가지 이슈는 블로그 댓글로 제보해주시면 바로 해결해드리겠습니다. 읽어주셔서 감사드리며, 즐거운 코딩하세요!
https://www.facebook.com/groups/TensorFlowKR/permalink/1028201280854263/?sfnsn=mo
Posted by uniqueone
,
High-Quality Face Image Generation from Poorly-Drawn Sketches  https://www.profillic.com/paper/arxiv:1911.00426

Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), and an Image Synthesis Network (ISN)
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
Posted by uniqueone
,