https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
'분류 전체보기'에 해당되는 글 1027건
- 2019.11.11 리그레션 종류
- 2019.11.08 안녕하세요!!! 이전 대회들의 솔루션을 캐글에서 모아줬네요!! 이러니 캐글을 안할수가 있나요!! 어여 공부 킵고잉 합시다!!
- 2019.11.08 안녕하세요 박찬준 입니다. 최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다. 딥러닝의 기초 인 ANN, DNN, CN..
- 2019.11.08 모두의연구소 - AI COLLEGE 소식 오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습..
- 2019.11.07 Machine Learning Tutorial 6 - Decision Tree Classifier and Decision Tree Regression in Python
- 2019.11.07 안녕하세요 박찬준입니다. OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다. 기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하..
- 2019.11.06 What is Facial Recognition?
- 2019.11.05 [Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
- 2019.11.05 A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu You can subscribe my channel for more such videos https://www.yo..
- 2019.11.05 Making an Invisibility Cloak for evading Object Detectors! https://www.profillic.com/paper/arxiv:1910.14667 (eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.) Btw if you're intereste..
- 2019.11.05 며칠전에 CoRL 19 가 오사카에서 있었는데요 페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1 리뷰도 제공하네요 오 대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ..
- 2019.11.05 [서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법] 안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다. 어제 iPad를 새로 ..
- 2019.11.05 High-Quality Face Image Generation from Poorly-Drawn Sketches https://www.profillic.com/paper/arxiv:1911.00426 Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), an..
- 2019.11.04 Visual localization 등에서, 2017년만 해도 6D pose 를 CNN이 바로 regress 해주는게 신비로운 시절이 있었는데요, 하지만 DSAC 이라는게 나오면서 "learning less" 하는게 성능이 더 낫다라는걸 알게되고..
- 2019.11.04 PR12 논문읽기 모임의 204번째 논문발표 입니다. https://www.youtube.com/watch?v=YNicvevmByo&feature=youtu.be ICLR2019 에서 발표된 "Learning deep representations by mutual information estimation and maximization" 이라는 논문을 ..
- 2019.11.04 안녕하세요, 전 수아랩 현 코그넥스 에서 머신러닝 엔지니어로 일하고있는 이호성이라고합니다. 지난주 서울에서 열린 ICCV 2019 학회에 다녀온 후기와, Best Paper로 선정된 “SinGAN: Learning a Genera..
- 2019.11.02 안녕하세요, 최근에 SKTBrain에서 공개한 KoBERT를 이용해서 간단한 한국어 객체명 인식기를 만들어봤습니다. NER에 관심있는 분들은 한 번 보셔도 좋을 것 같습니다 기존 CNN-BiLSTM 보다 학습도 빠..
- 2019.11.01 안녕하세요 TFKR! 다음 주부터 NLP 분야 Top-Tier 콘퍼런스인 EMNLP가 홍콩에서 개최됩니다. 핑퐁팀 ML엔지니어 모두 이번 학회에 참석하는데요, 학회에 참석하기 전에 논문 리뷰는 필수겠죠? 발표..
- 2019.11.01 SLAMANTIC - Leveraging Semantics to Improve VSLAM in Dynamic Environments (ICCV 2019 Workshop paper) 네이버랩스 유럽에서 나온 다이나믹 환경에 강건하게 동작하는 VSLAM 알고리즘입니다 ㅎ 코드는 공개되어 있는데..
- 2019.10.31 From NeurIPS 2019: Particularly helpful for fighting wild forest fires: real-time segmentation of fire perimeter from aerial full-motion infrared video https://www.profillic.com/paper/arxiv:1910.06407 FireNet: Real-time Segmentation of Fire Perimeter f..
- 2019.10.31 안녕하세요! 어느덧 내일이 ICCV main conference 마지막 날이네요. 내일 오전 10시 30분에 143번에서 tag2pix poster 발표를 합니다. Color tag를 이용해서 스케치를 자동으로 채색하는 논문인데, 관심 있으..
- 2019.10.31 https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/videos 여기에 CVPR 영상들이 있는데, 19년도 튜토리얼은 안 보이네요.. https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/playlists 18년도 튜토리얼은 수록되어 ..
- 2019.10.31 머신러닝 모델 디버깅 리소스와 팁 https://t.co/9Y7kDc1hag?amp=1 https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184 https://medium.com/@keeper6928/how-to-uni..
- 2019.10.31 혹시 ICCV 2019 영상 올라오나요? https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw 여기에 튜토리얼이랑 메인컨퍼런스 구두발표는 아마 올라올거에요~
- 2019.10.31 From Google brain researchers @NeurIPS 2019: Learning to Predict Without Looking Ahead https://www.profillic.com/paper/arxiv:1910.13038 "Rather than hardcoding forward prediction, we try to get agents to *learn* that they need to predict the future"
- 2019.10.31 Component Attention Guided Face Super-Resolution Network: CAGFace 얼굴에 특화된 4배 확대 SR 신경망 모델인데... 성능이 상당히 좋네요. 대신 신경망도 덩치가 크네요. 학습 파라메터가 6천만개가 넘습니다. ..
- 2019.10.31 This video gives a quick overview of 41 research papers presented by Google at the International Conference on Computer Vision (ICCV)! [https://youtu.be/z-yvY8iAaHM](https://t.co/1q6od2KUzp?amp=1)
- 2019.10.30 안녕하세요, TensorFlow KR 여러분, 저는 현재 AI를 활용한 이미지 변형을 이용해 작업을 제작 중에 있는 미술학도입니다. TensorFlow KR 여러분들에게 제가 진행중인 작업에 관해 조언을 받고 싶어 ..
- 2019.10.30 #Download #Source #Code from Video Description. This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections 1. What is NLP 2. Applications of NLP 3. Text Data Cleaning Options 4. Bag of W..
- 2019.10.30 Learn: 1. linear algebra well (e.g. matrix math) 2. calculus to an ok level (not advanced stuff) 3. prob. theory and stats to a good level 4. theoretical computer science basics 5. to code well in Python and ok in C++ Then read and implement ML papers..
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
안녕하세요!!! 이전 대회들의 솔루션을 캐글에서 모아줬네요!! 이러니 캐글을 안할수가 있나요!! 어여 공부 킵고잉 합시다!!
Deep Learning/Kaggle 2019. 11. 8. 20:03안녕하세요!!!
이전 대회들의 솔루션을
캐글에서 모아줬네요!!
이러니 캐글을 안할수가 있나요!!
어여 공부 킵고잉 합시다!!
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/523044635094307/?sfnsn=mo
이전 대회들의 솔루션을
캐글에서 모아줬네요!!
이러니 캐글을 안할수가 있나요!!
어여 공부 킵고잉 합시다!!
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/523044635094307/?sfnsn=mo
'Deep Learning > Kaggle' 카테고리의 다른 글
안녕하세요 박찬준 입니다. 최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다. 딥러닝의 기초 인 ANN, DNN, CN..
Deep Learning/RL 2019. 11. 8. 20:00안녕하세요 박찬준 입니다.
최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다.
딥러닝의 기초 인 ANN, DNN, CNN, RNN 까지 Pytorch와 Keras 코드로 기초부터 학습해볼 수 있게 만들었습니다.
Keras 같은 경우 오늘 아침에 공부하고 만든거라 조금 이상할 수도 있습니다.
해당 URL 첨부드립니다.
https://github.com/Parkchanjun/DeepLearning_Basic_Tutorial
Colab에서 Import 후 사용해주세요.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2340034552902438/?sfnsn=mo
최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다.
딥러닝의 기초 인 ANN, DNN, CNN, RNN 까지 Pytorch와 Keras 코드로 기초부터 학습해볼 수 있게 만들었습니다.
Keras 같은 경우 오늘 아침에 공부하고 만든거라 조금 이상할 수도 있습니다.
해당 URL 첨부드립니다.
https://github.com/Parkchanjun/DeepLearning_Basic_Tutorial
Colab에서 Import 후 사용해주세요.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2340034552902438/?sfnsn=mo
'Deep Learning > RL' 카테고리의 다른 글
모두의연구소 - AI COLLEGE 소식 오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습..
Deep Learning/resources 2019. 11. 8. 08:35모두의연구소 - AI COLLEGE 소식
오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습니다.
뒷부분은 너무 재밌어 몰입하느라 적지 못했지만 간단히 정리해보면,
라이다의 3세대
1 세대 : Velodyne Lidar
- 스피닝 방식. 회전을 하며 360도를 촬영함 . 단점은 내구성이 낮음
2 세대 : Mechanical Scanning -IBEO
- 내구성이 좋아짐
- 단점 : 물체가 있다. 없다. 정도만 인식 가능
3세대 : Hybrid Scanning (SOS LAB이 쓰는 것)
- 굉장히 빠른 스캐닝
- 3cm 의 오차정확도
- 360도는 촬영을 못함
- 150도의 3D 모델링 가능
라이다 시스템 : Transmitter
- 사람의 눈에 905nm 이상은 사람의 각막에 안좋음
- 하지만 1550nm 이상은 사람 각막을 뚫지 못함
-최근 연구에 사람 각막은 뚫지 못하지만 카메라에 데이지 입힘
라이다 응용분야 :
- 항공
- 군사
- 토목,건축
- 지리 정보 시스템
- 자율주행 자동차
자율주행자동차 :
-자율주행 레벨 5 :
사람이 상상하는 진짜 자율주행을 레벨 5라고 한다.(진짜 자율주행 : 사람이 전혀 운전하지 않아도 주행)
현재 테슬라의 자율주행은 레벨3 정도
레벨 4 : 객체를 인식해서 자동으로 피하는 정도.(우버, 바이두 ,웨이모)
레벨 5 : 레벨 5와 레벨4의 다른점은 레벨4가 성숙되어 조향장치가 없는 자동차
자율주행을 위한 자동차는 센서가 굉장히 많이 필요하다. (현재의 기술로는)
자율주행 자동차를 위한 데이터 수집
- 각 회사, 나라에서 데이터셋을 구축하는데 노력을 많이 하고 있다.
- 이유는 인도에서 잘 되는 자율주행자동차가 한국에서 잘 되진 않는다.
(인도에서는 거리에서 소가 지나가님)
자율주행의 핵심 요소:
1. 개체 인식
2. 위치 추정(SLAM)
3. 센서/감지
4. 경로 계획/제어
딥러닝이 자율주행에 가장 실용적으로 적용되는 분야는 Recognition 이다.
- 딥러닝이 아무리 잘되도 input이 garbage면 예측이 어렵다.
(자율주행에서는 터널에서 나왔을때 갑자기 밝은 빛이 들어오는 경우)
-이미지 기반의 딥러닝이 아무리 잘된다고 하더라도(99%이상이더라도) 1%의 미스가 큰 사고로 이어짐
- 그래서 이미지와 라이다 등 다른 정보들을 사용해서 모델의 성능을 높이는 연구가 많이 되고 있음
자율주행에서의 객체인지란?
- 내가 주행하고 있을때 주위의 위치, 방향(X,Y,Z)
- 2D와는 다르게 3차원이어야함
라이다 point cloud를 이용한 object detection?
-라이다에서 얻어지는 포인터 클라우드는 데이터의 연관성이 전혀 없다.
-포인트 클라우드는 규칙적이지 않다.(포인트의 갯수가 항상 일정하지 않다.)
-라인다 포인트 클라우드는 덴시티가 전부 다르다. (멀리서 찍으면 포인터가 sparse하다)
궁금점 : 같은 오브젝트를 같은 각도, 같은 distance에서 두번 찍엇을때 포인터 클르우드의 포인터 갯수가 달라지나?
- > 답변 : 거의 비슷하지만 다른 객체가 배경에 있다면 Index가 달라짐
oxelization :
Voxelization + 3D CNN
- Voxel 만드는 과정에서 cost가 굉장히 많이 든다.
- 정확도에서는 장점이 있음
- Voxelization 에 딥러닝을 적용하여 가장 잘 된 논문
- Voxel NET
포인터 클라우드를 일렬로 넣고 피쳐 임베딩을 계속 시킴
내가 한 질문 : 이거 겁나 느릴것 같은데?
6~10 FPS 정도 나온다.
그러면 자율주행에서 안전하다고 기준되는 바운더리의 값은 몇이냐?
레이더에서는 10FPS 정도이다( 라이다는 200미터 앞을 측정할 수 있기에 기준이 낮다.)
카메라에서는 60 FPS 정도로 본다.
2D Projection + 2D CNN
일단 형태를 2D로 만들고 딥러닝에 넣자.
MV3D
라이다 3D 데이터를 카메라랑 똑같은
RGB, bird eye view , Front view 세가지를 CNN에 넣고 feature를 뽑은 다음 concat 함
Frustum PointNets
1. 카메라에서 먼저 2D object detection을 함
2. detection 한 부분에서만 포인트 클라우드 적용
정말 좋은 세미나 였습니다. 이용이 박사님, SOS LAB함께 모두연 AI COLLEGE 달려보겠습니다!
https://www.facebook.com/groups/modulabs/permalink/2561195253945642/?sfnsn=mo
오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습니다.
뒷부분은 너무 재밌어 몰입하느라 적지 못했지만 간단히 정리해보면,
라이다의 3세대
1 세대 : Velodyne Lidar
- 스피닝 방식. 회전을 하며 360도를 촬영함 . 단점은 내구성이 낮음
2 세대 : Mechanical Scanning -IBEO
- 내구성이 좋아짐
- 단점 : 물체가 있다. 없다. 정도만 인식 가능
3세대 : Hybrid Scanning (SOS LAB이 쓰는 것)
- 굉장히 빠른 스캐닝
- 3cm 의 오차정확도
- 360도는 촬영을 못함
- 150도의 3D 모델링 가능
라이다 시스템 : Transmitter
- 사람의 눈에 905nm 이상은 사람의 각막에 안좋음
- 하지만 1550nm 이상은 사람 각막을 뚫지 못함
-최근 연구에 사람 각막은 뚫지 못하지만 카메라에 데이지 입힘
라이다 응용분야 :
- 항공
- 군사
- 토목,건축
- 지리 정보 시스템
- 자율주행 자동차
자율주행자동차 :
-자율주행 레벨 5 :
사람이 상상하는 진짜 자율주행을 레벨 5라고 한다.(진짜 자율주행 : 사람이 전혀 운전하지 않아도 주행)
현재 테슬라의 자율주행은 레벨3 정도
레벨 4 : 객체를 인식해서 자동으로 피하는 정도.(우버, 바이두 ,웨이모)
레벨 5 : 레벨 5와 레벨4의 다른점은 레벨4가 성숙되어 조향장치가 없는 자동차
자율주행을 위한 자동차는 센서가 굉장히 많이 필요하다. (현재의 기술로는)
자율주행 자동차를 위한 데이터 수집
- 각 회사, 나라에서 데이터셋을 구축하는데 노력을 많이 하고 있다.
- 이유는 인도에서 잘 되는 자율주행자동차가 한국에서 잘 되진 않는다.
(인도에서는 거리에서 소가 지나가님)
자율주행의 핵심 요소:
1. 개체 인식
2. 위치 추정(SLAM)
3. 센서/감지
4. 경로 계획/제어
딥러닝이 자율주행에 가장 실용적으로 적용되는 분야는 Recognition 이다.
- 딥러닝이 아무리 잘되도 input이 garbage면 예측이 어렵다.
(자율주행에서는 터널에서 나왔을때 갑자기 밝은 빛이 들어오는 경우)
-이미지 기반의 딥러닝이 아무리 잘된다고 하더라도(99%이상이더라도) 1%의 미스가 큰 사고로 이어짐
- 그래서 이미지와 라이다 등 다른 정보들을 사용해서 모델의 성능을 높이는 연구가 많이 되고 있음
자율주행에서의 객체인지란?
- 내가 주행하고 있을때 주위의 위치, 방향(X,Y,Z)
- 2D와는 다르게 3차원이어야함
라이다 point cloud를 이용한 object detection?
-라이다에서 얻어지는 포인터 클라우드는 데이터의 연관성이 전혀 없다.
-포인트 클라우드는 규칙적이지 않다.(포인트의 갯수가 항상 일정하지 않다.)
-라인다 포인트 클라우드는 덴시티가 전부 다르다. (멀리서 찍으면 포인터가 sparse하다)
궁금점 : 같은 오브젝트를 같은 각도, 같은 distance에서 두번 찍엇을때 포인터 클르우드의 포인터 갯수가 달라지나?
- > 답변 : 거의 비슷하지만 다른 객체가 배경에 있다면 Index가 달라짐
oxelization :
Voxelization + 3D CNN
- Voxel 만드는 과정에서 cost가 굉장히 많이 든다.
- 정확도에서는 장점이 있음
- Voxelization 에 딥러닝을 적용하여 가장 잘 된 논문
- Voxel NET
포인터 클라우드를 일렬로 넣고 피쳐 임베딩을 계속 시킴
내가 한 질문 : 이거 겁나 느릴것 같은데?
6~10 FPS 정도 나온다.
그러면 자율주행에서 안전하다고 기준되는 바운더리의 값은 몇이냐?
레이더에서는 10FPS 정도이다( 라이다는 200미터 앞을 측정할 수 있기에 기준이 낮다.)
카메라에서는 60 FPS 정도로 본다.
2D Projection + 2D CNN
일단 형태를 2D로 만들고 딥러닝에 넣자.
MV3D
라이다 3D 데이터를 카메라랑 똑같은
RGB, bird eye view , Front view 세가지를 CNN에 넣고 feature를 뽑은 다음 concat 함
Frustum PointNets
1. 카메라에서 먼저 2D object detection을 함
2. detection 한 부분에서만 포인트 클라우드 적용
정말 좋은 세미나 였습니다. 이용이 박사님, SOS LAB함께 모두연 AI COLLEGE 달려보겠습니다!
https://www.facebook.com/groups/modulabs/permalink/2561195253945642/?sfnsn=mo
'Deep Learning > resources' 카테고리의 다른 글
Machine Learning Tutorial 6 - Decision Tree Classifier and Decision Tree Regression in Python
Machine Learning/course 2019. 11. 7. 22:36Machine Learning Tutorial 6 - Decision Tree Classifier and Decision Tree Regression in Python
https://www.facebook.com/groups/DataScienceGroup/permalink/2755799524481920/?sfnsn=mo
https://www.facebook.com/groups/DataScienceGroup/permalink/2755799524481920/?sfnsn=mo
'Machine Learning > course' 카테고리의 다른 글
안녕하세요 박찬준입니다. OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다. 기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하..
Deep Learning/NLP 2019. 11. 7. 17:35안녕하세요 박찬준입니다.
OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다.
기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하였습니다.
추후 Transformer 모델 Tutorial도 공개하도록 하겠습니다.
https://github.com/Parkchanjun/OpenNMT_Library_Tutorial_Using_Colab
Colab에서 실행해주세요
https://lionbridge.ai/articles/what-is-facial-recognition/
OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다.
기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하였습니다.
추후 Transformer 모델 Tutorial도 공개하도록 하겠습니다.
https://github.com/Parkchanjun/OpenNMT_Library_Tutorial_Using_Colab
Colab에서 실행해주세요
https://lionbridge.ai/articles/what-is-facial-recognition/
'Deep Learning > NLP' 카테고리의 다른 글
What is Facial Recognition?
https://lionbridge.ai/articles/what-is-facial-recognition/
https://lionbridge.ai/articles/what-is-facial-recognition/
'Face > Face Recognition' 카테고리의 다른 글
5 Machine Learning Papers on Face Recognition (0) | 2019.10.23 |
---|
[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
Deep Learning/resources 2019. 11. 5. 23:29[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation
---
Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.
그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)
XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27
---
이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.
- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature
마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.
마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.
원문의 링크는 아래와 같습니다.
https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed
#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
---
Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.
그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)
XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27
---
이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.
- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature
마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.
마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.
원문의 링크는 아래와 같습니다.
https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed
#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
'Deep Learning > resources' 카테고리의 다른 글
A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu You can subscribe my channel for more such videos https://www.yo..
Deep Learning/course 2019. 11. 5. 23:27A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel
https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu
You can subscribe my channel for more such videos
https://www.youtube.com/user/kumarahlad/featured?sub_confirmation=1
https://www.facebook.com/groups/aiIDEASandINNOVATIONS/permalink/2858897464144049/?sfnsn=mo
https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu
You can subscribe my channel for more such videos
https://www.youtube.com/user/kumarahlad/featured?sub_confirmation=1
https://www.facebook.com/groups/aiIDEASandINNOVATIONS/permalink/2858897464144049/?sfnsn=mo
'Deep Learning > course' 카테고리의 다른 글
Making an Invisibility Cloak for evading Object Detectors! https://www.profillic.com/paper/arxiv:1910.14667 (eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.) Btw if you're intereste..
Deep Learning/Papers2read 2019. 11. 5. 23:15Making an Invisibility Cloak for evading Object Detectors!
https://www.profillic.com/paper/arxiv:1910.14667
(eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.)
Btw if you're interested in implementing this in your project/product, feel free to DM me
https://www.facebook.com/groups/1738168866424224/permalink/2441456712762099/?sfnsn=mo
https://www.profillic.com/paper/arxiv:1910.14667
(eg.the YOLOv2 detector is evaded using a pattern trained on the COCO dataset with a carefully constructed objective.)
Btw if you're interested in implementing this in your project/product, feel free to DM me
https://www.facebook.com/groups/1738168866424224/permalink/2441456712762099/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
며칠전에 CoRL 19 가 오사카에서 있었는데요 페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1 리뷰도 제공하네요 오 대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ..
Computer Vision 2019. 11. 5. 23:06며칠전에 CoRL 19 가 오사카에서 있었는데요
페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1
리뷰도 제공하네요 오
대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ㅠ)
그 중에서 SLAM 및 perception 쪽 CoRL19 논문들을 모아보았습니다. 해당 비디오 링크도 함께 정리하였습니다.
@ TUM 크레머
Multi-Frame GAN: Image Enhancement for Stereo Visual Odometry in Low Light
https://drive.google.com/file/d/15eIyWTVelmiCqg_x111FKrPtOjiZBdde/view
https://youtu.be/glMwF5-q51E?t=7999
@ 옥스포드
Masking by Moving: Learning Distraction-Free Radar Odometry from Pose Information
https://drive.google.com/open?id=1mqKLXOEN18Ig88hCetHfJksAS12Lmbxn
https://youtu.be/glMwF5-q51E?t=11527
@ Toyota
Two Stream Networks for Self-Supervised Ego-Motion Estimation
https://drive.google.com/file/d/1itLb8wM9JV3FIftCHH5Mw12Q-qHSKxwf/view
https://youtu.be/b7StSnt85S4?t=12810
@ 우버 ATG
Identifying Unknown Instances for Autonomous Driving
https://drive.google.com/file/d/1e_kBfHEL9adDWwhuhSrOHz-CUqRbLe2T/view?usp=drive_open
https://youtu.be/b7StSnt85S4?t=27917
@ Toyota
Robust Semi-Supervised Monocular Depth Estimation with Reprojected Distances
https://drive.google.com/file/d/1DsnCqZ42VtWR2_AJqf6IttUdEKy6omIG/view
https://youtu.be/b7StSnt85S4?t=28102
@ 웨이모
End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds
https://drive.google.com/file/d/18LymYUkOVkj-xbKQElHzECW1VDbnx4wY/view
https://youtu.be/QaCuEv_7lfs?t=12515
https://www.facebook.com/groups/slamkr/permalink/1007915666234744/?sfnsn=mo
페이퍼들이 다 올라왔습니다 https://www.robot-learning.org/home/program/friday-november-1
리뷰도 제공하네요 오
대부분이 RL 관련 논문이긴 했지만 (RL몰라요 ㅠ)
그 중에서 SLAM 및 perception 쪽 CoRL19 논문들을 모아보았습니다. 해당 비디오 링크도 함께 정리하였습니다.
@ TUM 크레머
Multi-Frame GAN: Image Enhancement for Stereo Visual Odometry in Low Light
https://drive.google.com/file/d/15eIyWTVelmiCqg_x111FKrPtOjiZBdde/view
https://youtu.be/glMwF5-q51E?t=7999
@ 옥스포드
Masking by Moving: Learning Distraction-Free Radar Odometry from Pose Information
https://drive.google.com/open?id=1mqKLXOEN18Ig88hCetHfJksAS12Lmbxn
https://youtu.be/glMwF5-q51E?t=11527
@ Toyota
Two Stream Networks for Self-Supervised Ego-Motion Estimation
https://drive.google.com/file/d/1itLb8wM9JV3FIftCHH5Mw12Q-qHSKxwf/view
https://youtu.be/b7StSnt85S4?t=12810
@ 우버 ATG
Identifying Unknown Instances for Autonomous Driving
https://drive.google.com/file/d/1e_kBfHEL9adDWwhuhSrOHz-CUqRbLe2T/view?usp=drive_open
https://youtu.be/b7StSnt85S4?t=27917
@ Toyota
Robust Semi-Supervised Monocular Depth Estimation with Reprojected Distances
https://drive.google.com/file/d/1DsnCqZ42VtWR2_AJqf6IttUdEKy6omIG/view
https://youtu.be/b7StSnt85S4?t=28102
@ 웨이모
End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds
https://drive.google.com/file/d/18LymYUkOVkj-xbKQElHzECW1VDbnx4wY/view
https://youtu.be/QaCuEv_7lfs?t=12515
https://www.facebook.com/groups/slamkr/permalink/1007915666234744/?sfnsn=mo
'Computer Vision' 카테고리의 다른 글
[서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법] 안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다. 어제 iPad를 새로 ..
Deep Learning/resources 2019. 11. 5. 23:04[서버의 VS Code를 띄워놓고 랩탑, 태블릿, 스마트폰에서 코딩하는 방법]
안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다.
어제 iPad를 새로 구입하고 코딩할 수 있는 방법을 찾다가, 재미있는 해결책을 발견했습니다. 우분투 GPU서버에서 VS Code를 웹상에 띄워놓고, 태블릿의 "웹브라우저"로 접속해서 코딩하는 방법인데요, 마치 로컬에서 작업하는 것처럼 사용성이 매우 좋습니다. 심지어 웹브라우저만 된다면 윈도우랩탑, 맥북, 태블릿, 스마트폰, 심지어 TV나 냉장고에서도 코딩을 할 수 있습니다!
아직도 팀뷰어로 작업하시나요?
그렇다면 한번 따라와보세요!
장담하건데 신세계를 맛볼겁니다.
* 일정한 환경: 윈도우 노트북이건, 아이패드건, 심지어 휴대폰이건 상관 없이 항상 동일한 개발환경을 사용할 수 있습니다. 리눅스 서버에 띄워놓고, 웹브라우저로 접속해서 간편하게 개발이나 연구를 할 수 있습니다.
* Server-powered: 개인용 GPU 리눅스 서버 뿐만 아니라, 클라우드 서버 역시 Deploy할 수 있습니다. 노트북은 그저 웹브라우저 화면만 띄워주고 실제 연산은 서버상에서 이루어지므로, 노트북의 부하가 전혀 없습니다.
* VS Code 그대로: VS Code에서 사용하던 편리함과 사용성을 그대로 느낄 수 있습니다. 확장 플러그인 역시 사용할 수 있습니다.
https://eungbean.github.io/2019/11/04/remote-vscode/
여러가지 이슈는 블로그 댓글로 제보해주시면 바로 해결해드리겠습니다. 읽어주셔서 감사드리며, 즐거운 코딩하세요!
https://www.facebook.com/groups/TensorFlowKR/permalink/1028201280854263/?sfnsn=mo
안녕하세요! 지난 겨울 docker로 원격작업하는 방법을 공유했던 연세대학교 통합과정 이응빈입니다.
어제 iPad를 새로 구입하고 코딩할 수 있는 방법을 찾다가, 재미있는 해결책을 발견했습니다. 우분투 GPU서버에서 VS Code를 웹상에 띄워놓고, 태블릿의 "웹브라우저"로 접속해서 코딩하는 방법인데요, 마치 로컬에서 작업하는 것처럼 사용성이 매우 좋습니다. 심지어 웹브라우저만 된다면 윈도우랩탑, 맥북, 태블릿, 스마트폰, 심지어 TV나 냉장고에서도 코딩을 할 수 있습니다!
아직도 팀뷰어로 작업하시나요?
그렇다면 한번 따라와보세요!
장담하건데 신세계를 맛볼겁니다.
* 일정한 환경: 윈도우 노트북이건, 아이패드건, 심지어 휴대폰이건 상관 없이 항상 동일한 개발환경을 사용할 수 있습니다. 리눅스 서버에 띄워놓고, 웹브라우저로 접속해서 간편하게 개발이나 연구를 할 수 있습니다.
* Server-powered: 개인용 GPU 리눅스 서버 뿐만 아니라, 클라우드 서버 역시 Deploy할 수 있습니다. 노트북은 그저 웹브라우저 화면만 띄워주고 실제 연산은 서버상에서 이루어지므로, 노트북의 부하가 전혀 없습니다.
* VS Code 그대로: VS Code에서 사용하던 편리함과 사용성을 그대로 느낄 수 있습니다. 확장 플러그인 역시 사용할 수 있습니다.
https://eungbean.github.io/2019/11/04/remote-vscode/
여러가지 이슈는 블로그 댓글로 제보해주시면 바로 해결해드리겠습니다. 읽어주셔서 감사드리며, 즐거운 코딩하세요!
https://www.facebook.com/groups/TensorFlowKR/permalink/1028201280854263/?sfnsn=mo
'Deep Learning > resources' 카테고리의 다른 글
High-Quality Face Image Generation from Poorly-Drawn Sketches https://www.profillic.com/paper/arxiv:1911.00426 Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), an..
Deep Learning/Papers2read 2019. 11. 5. 23:00High-Quality Face Image Generation from Poorly-Drawn Sketches https://www.profillic.com/paper/arxiv:1911.00426
Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), and an Image Synthesis Network (ISN)
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
Cali-Sketch explicitly models stroke calibration and image generation using two constituent networks: a Stroke Calibration Network (SCN), and an Image Synthesis Network (ISN)
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
Visual localization 등에서, 2017년만 해도 6D pose 를 CNN이 바로 regress 해주는게 신비로운 시절이 있었는데요, 하지만 DSAC 이라는게 나오면서 "learning less" 하는게 성능이 더 낫다라는걸 알게되고..
Computer Vision/Geometry 2019. 11. 4. 12:15Visual localization 등에서,
2017년만 해도 6D pose 를 CNN이 바로 regress 해주는게 신비로운 시절이 있었는데요,
하지만 DSAC 이라는게 나오면서 "learning less" 하는게 성능이 더 낫다라는걸 알게되고
understanding the limitations of cnn-based absolute camera pose regression
위 논문 에서는 이론적으로 direct pose regression 이 안좋을수밖에 없는 이유를 Sattler 가 설명했습니다.
이번 월요일에 ICCV localization tutorial 에서
DSAC저자인 Eric 님이 발표하신 자료가 올라왔길래 공유합니다 :)
사설이 길었네요 ㅋㅋ
https://www.facebook.com/groups/slamkr/permalink/1006108736415437/?sfnsn=mo
2017년만 해도 6D pose 를 CNN이 바로 regress 해주는게 신비로운 시절이 있었는데요,
하지만 DSAC 이라는게 나오면서 "learning less" 하는게 성능이 더 낫다라는걸 알게되고
understanding the limitations of cnn-based absolute camera pose regression
위 논문 에서는 이론적으로 direct pose regression 이 안좋을수밖에 없는 이유를 Sattler 가 설명했습니다.
이번 월요일에 ICCV localization tutorial 에서
DSAC저자인 Eric 님이 발표하신 자료가 올라왔길래 공유합니다 :)
사설이 길었네요 ㅋㅋ
https://www.facebook.com/groups/slamkr/permalink/1006108736415437/?sfnsn=mo
PR12 논문읽기 모임의 204번째 논문발표 입니다. https://www.youtube.com/watch?v=YNicvevmByo&feature=youtu.be ICLR2019 에서 발표된 "Learning deep representations by mutual information estimation and maximization" 이라는 논문을 ..
Deep Learning/Papers2read 2019. 11. 4. 12:13PR12 논문읽기 모임의 204번째 논문발표 입니다.
https://www.youtube.com/watch?v=YNicvevmByo&feature=youtu.be
ICLR2019 에서 발표된 "Learning deep representations by mutual information estimation and maximization" 이라는 논문을 발표하였습니다.
NLP 에서의 BERT 이외에도, self-supervised learning 을 통한 representation learning 연구가 다양한 도메인에서 이루어지고 있는데요, 많은 방법들은 InfoMax principle에 따라 "mutual information(의 lower bound)"을 neural network을 이요해서 추정하고 최대화하는 방식을 따르는 방식을 통해 representation learning을 수행하고 있습니다.
평소에 self-/semi- supervised learning 의 다양한 접근법들에 관심이 많았는데, 이 논문을 통해서 computer vision 외의 다른 분야에 self-supervised learning 을 적용해보려고 하고 있습니다.
이 논문 리뷰와 아래의 contrastive predictive coding 구현 코드가 다른 분들께도 도움이 되면 좋겠습니다!
* 아래의 github link 에 발표한 slide와 contrastive predictive coding (infoNCE loss) 를 구현하여 Libri speech dataset 에 대해서 semi-supervised learning 을 demonstration 해본 practice 가 있습니다.
https://github.com/SeongokRyu/mutual_information_and_self-supervised_learning
References
1. Paper: Learning deep representations by mutual information estimation and maximization, ICLR2019, https://arxiv.org/abs/1808.06670
2. Official Github: https://github.com/rdevon/DIM
3. Microsoft blog: https://www.microsoft.com/…/deep-infomax-learning-good-rep…/
https://www.facebook.com/groups/TensorFlowKR/permalink/1027352860939105/?sfnsn=mo
https://www.youtube.com/watch?v=YNicvevmByo&feature=youtu.be
ICLR2019 에서 발표된 "Learning deep representations by mutual information estimation and maximization" 이라는 논문을 발표하였습니다.
NLP 에서의 BERT 이외에도, self-supervised learning 을 통한 representation learning 연구가 다양한 도메인에서 이루어지고 있는데요, 많은 방법들은 InfoMax principle에 따라 "mutual information(의 lower bound)"을 neural network을 이요해서 추정하고 최대화하는 방식을 따르는 방식을 통해 representation learning을 수행하고 있습니다.
평소에 self-/semi- supervised learning 의 다양한 접근법들에 관심이 많았는데, 이 논문을 통해서 computer vision 외의 다른 분야에 self-supervised learning 을 적용해보려고 하고 있습니다.
이 논문 리뷰와 아래의 contrastive predictive coding 구현 코드가 다른 분들께도 도움이 되면 좋겠습니다!
* 아래의 github link 에 발표한 slide와 contrastive predictive coding (infoNCE loss) 를 구현하여 Libri speech dataset 에 대해서 semi-supervised learning 을 demonstration 해본 practice 가 있습니다.
https://github.com/SeongokRyu/mutual_information_and_self-supervised_learning
References
1. Paper: Learning deep representations by mutual information estimation and maximization, ICLR2019, https://arxiv.org/abs/1808.06670
2. Official Github: https://github.com/rdevon/DIM
3. Microsoft blog: https://www.microsoft.com/…/deep-infomax-learning-good-rep…/
https://www.facebook.com/groups/TensorFlowKR/permalink/1027352860939105/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
안녕하세요, 전 수아랩 현 코그넥스 에서 머신러닝 엔지니어로 일하고있는 이호성이라고합니다. 지난주 서울에서 열린 ICCV 2019 학회에 다녀온 후기와, Best Paper로 선정된 “SinGAN: Learning a Genera..
Deep Learning/Papers2read 2019. 11. 4. 12:08안녕하세요, 전 수아랩 현 코그넥스 에서 머신러닝 엔지니어로 일하고있는 이호성이라고합니다.
지난주 서울에서 열린 ICCV 2019 학회에 다녀온 후기와, Best Paper로 선정된 “SinGAN: Learning a Generative Model from a Single Natural Image” 논문을 자세하게 리뷰하여 글로 작성을 하여 공유드립니다.
1편
“ICCV 2019 Review [1] 참석 후기 및 프로그램 소개”
https://hoya012.github.io/blog/ICCV-2019_review_1/
2편
“ICCV 2019 Review [2] Best Paper SinGAN: Learning a Generative Model from a Single Natural Image 리뷰”
https://hoya012.github.io/blog/ICCV-2019_review_2/
처음 가봤던 ICCV 학회여서 어떤 프로그램들이 진행되었고, 어떤 점들이 인상깊었는지를 1편에서 정리를 하였고,
발표를 듣자마자 바로 리뷰를 해야겠다고 느꼈던 Best Paper 에 대한 자세한 리뷰를 2편에서 진행을 하였습니다.
공부하시는데 도움이 되셨으면 좋겠습니다!! 감사합니다!!
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
지난주 서울에서 열린 ICCV 2019 학회에 다녀온 후기와, Best Paper로 선정된 “SinGAN: Learning a Generative Model from a Single Natural Image” 논문을 자세하게 리뷰하여 글로 작성을 하여 공유드립니다.
1편
“ICCV 2019 Review [1] 참석 후기 및 프로그램 소개”
https://hoya012.github.io/blog/ICCV-2019_review_1/
2편
“ICCV 2019 Review [2] Best Paper SinGAN: Learning a Generative Model from a Single Natural Image 리뷰”
https://hoya012.github.io/blog/ICCV-2019_review_2/
처음 가봤던 ICCV 학회여서 어떤 프로그램들이 진행되었고, 어떤 점들이 인상깊었는지를 1편에서 정리를 하였고,
발표를 듣자마자 바로 리뷰를 해야겠다고 느꼈던 Best Paper 에 대한 자세한 리뷰를 2편에서 진행을 하였습니다.
공부하시는데 도움이 되셨으면 좋겠습니다!! 감사합니다!!
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
안녕하세요, 최근에 SKTBrain에서 공개한 KoBERT를 이용해서 간단한 한국어 객체명 인식기를 만들어봤습니다. NER에 관심있는 분들은 한 번 보셔도 좋을 것 같습니다 기존 CNN-BiLSTM 보다 학습도 빠..
Deep Learning/dataset 2019. 11. 2. 08:19안녕하세요, 최근에 SKTBrain에서 공개한 KoBERT를 이용해서 간단한 한국어 객체명 인식기를 만들어봤습니다. NER에 관심있는 분들은 한 번 보셔도 좋을 것 같습니다
기존 CNN-BiLSTM 보다 학습도 빠르고, LM을 학습해서 그런지 오타에도 좀 더 강건한 편인것 같습니다. (형태소 태그 자질이 없어도 NER이 잘되는건 진짜 좀 신기하네요) CRF 붙이면 성능도 좀 더 좋아지는 것 같습니다.
데이터는 한국해양대학교 자연언어처리 연구실에서 공개한 데이터를 사용했습니다 (NER 데이터셋을 구하기 어려운데 괜찮은 데이터셋 같습니다)
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
기존 CNN-BiLSTM 보다 학습도 빠르고, LM을 학습해서 그런지 오타에도 좀 더 강건한 편인것 같습니다. (형태소 태그 자질이 없어도 NER이 잘되는건 진짜 좀 신기하네요) CRF 붙이면 성능도 좀 더 좋아지는 것 같습니다.
데이터는 한국해양대학교 자연언어처리 연구실에서 공개한 데이터를 사용했습니다 (NER 데이터셋을 구하기 어려운데 괜찮은 데이터셋 같습니다)
https://www.facebook.com/groups/PyTorchKR/permalink/1519149218224754/?sfnsn=mo
'Deep Learning > dataset' 카테고리의 다른 글
안녕하세요 TFKR! 다음 주부터 NLP 분야 Top-Tier 콘퍼런스인 EMNLP가 홍콩에서 개최됩니다. 핑퐁팀 ML엔지니어 모두 이번 학회에 참석하는데요, 학회에 참석하기 전에 논문 리뷰는 필수겠죠? 발표..
Deep Learning/NLP 2019. 11. 1. 20:38안녕하세요 TFKR! 다음 주부터 NLP 분야 Top-Tier 콘퍼런스인 EMNLP가 홍콩에서 개최됩니다. 핑퐁팀 ML엔지니어 모두 이번 학회에 참석하는데요, 학회에 참석하기 전에 논문 리뷰는 필수겠죠?
발표된 논문들 중 각자 관심이 있는 총 60편의 논문(10편씩) abstract를 읽고, 그중 핑퐁팀이 주목한 12편의 논문들을 추려서 간단한 리뷰를 작성해 보았습니다! 또한 이번 EMNLP의 핫토픽, 키워드를 분석하여 현재의 NLP 트렌드는 무엇인지 파악해 보았습니다.
학회에 참석하시지 않더라도 인사이트를 얻을 수 있는 논문들이 많이 있으니 이번 EMNLP 논문 읽고 계신 많은 분들께 도움이 되었으면 좋겠습니다! 🥳
앗 그리고 EMNLP에 참석하시는 분들! 홍콩에서 만나서 식사 한번 같이 해요 ㅎㅎ 벌써부터 다음주가 기대가 됩니다!! 홍콩에 가서 많이 배우고 좋은 정보 있으면 또 공유하도록 하겠습니다. 😁
논문 취합은 @장성보 / 작성은 김준성 백영민 정다운 (Dawoon Jung) 이주홍 (JooHong Lee) Sangjun Koo @장성보 님과 함께하였습니다!
블로그 본문 링크 : [https://blog.pingpong.us//emnlp2019-preview/](https://blog.pingpong.us/emnlp2019-preview/?fbclid=IwAR32QdlIR2Jh0V02O0OrWtUdx5Nqd55EnlNVQKS36ZHAHKCzDTjTc0mYebI)
EMNLP 2019 논문 리스트 : [https://github.com/roomylee/EMNLP-2019-Papers](https://github.com/roomylee/EMNLP-2019-Papers?fbclid=IwAR3K_HE-U12_mZRR7KaXpPH91QA4QuVxQTvt0FQ1VaztcIyCiv8RsYfOVW8)
https://www.facebook.com/groups/TensorFlowKR/permalink/1025207577820300/?sfnsn=mo
발표된 논문들 중 각자 관심이 있는 총 60편의 논문(10편씩) abstract를 읽고, 그중 핑퐁팀이 주목한 12편의 논문들을 추려서 간단한 리뷰를 작성해 보았습니다! 또한 이번 EMNLP의 핫토픽, 키워드를 분석하여 현재의 NLP 트렌드는 무엇인지 파악해 보았습니다.
학회에 참석하시지 않더라도 인사이트를 얻을 수 있는 논문들이 많이 있으니 이번 EMNLP 논문 읽고 계신 많은 분들께 도움이 되었으면 좋겠습니다! 🥳
앗 그리고 EMNLP에 참석하시는 분들! 홍콩에서 만나서 식사 한번 같이 해요 ㅎㅎ 벌써부터 다음주가 기대가 됩니다!! 홍콩에 가서 많이 배우고 좋은 정보 있으면 또 공유하도록 하겠습니다. 😁
논문 취합은 @장성보 / 작성은 김준성 백영민 정다운 (Dawoon Jung) 이주홍 (JooHong Lee) Sangjun Koo @장성보 님과 함께하였습니다!
블로그 본문 링크 : [https://blog.pingpong.us//emnlp2019-preview/](https://blog.pingpong.us/emnlp2019-preview/?fbclid=IwAR32QdlIR2Jh0V02O0OrWtUdx5Nqd55EnlNVQKS36ZHAHKCzDTjTc0mYebI)
EMNLP 2019 논문 리스트 : [https://github.com/roomylee/EMNLP-2019-Papers](https://github.com/roomylee/EMNLP-2019-Papers?fbclid=IwAR3K_HE-U12_mZRR7KaXpPH91QA4QuVxQTvt0FQ1VaztcIyCiv8RsYfOVW8)
https://www.facebook.com/groups/TensorFlowKR/permalink/1025207577820300/?sfnsn=mo
'Deep Learning > NLP' 카테고리의 다른 글
SLAMANTIC - Leveraging Semantics to Improve VSLAM in Dynamic Environments (ICCV 2019 Workshop paper) 네이버랩스 유럽에서 나온 다이나믹 환경에 강건하게 동작하는 VSLAM 알고리즘입니다 ㅎ 코드는 공개되어 있는데..
Computer Vision 2019. 11. 1. 08:01SLAMANTIC - Leveraging Semantics to Improve VSLAM in Dynamic Environments (ICCV 2019 Workshop paper)
네이버랩스 유럽에서 나온 다이나믹 환경에 강건하게 동작하는 VSLAM 알고리즘입니다 ㅎ
코드는 공개되어 있는데 논문이 안나와 있어서 자세히 판단은 못하겠지만
세만틱 정보를 이용해서 다이나믹하게 움직이는 물체로 분류되는 클래스는 localization and mapping에 활용하지
않는 것으로 보입니다. 하지만 주행중 정차된 차량에 대해서는 피쳐를 활용하는 것으로 보아 디테일한 부분이 있을것으로 보여지네요~
[https://github.com/mthz/slamantic](https://github.com/mthz/slamantic)
https://www.facebook.com/groups/slamkr/permalink/1004457316580579/?sfnsn=mo
네이버랩스 유럽에서 나온 다이나믹 환경에 강건하게 동작하는 VSLAM 알고리즘입니다 ㅎ
코드는 공개되어 있는데 논문이 안나와 있어서 자세히 판단은 못하겠지만
세만틱 정보를 이용해서 다이나믹하게 움직이는 물체로 분류되는 클래스는 localization and mapping에 활용하지
않는 것으로 보입니다. 하지만 주행중 정차된 차량에 대해서는 피쳐를 활용하는 것으로 보아 디테일한 부분이 있을것으로 보여지네요~
[https://github.com/mthz/slamantic](https://github.com/mthz/slamantic)
https://www.facebook.com/groups/slamkr/permalink/1004457316580579/?sfnsn=mo
'Computer Vision' 카테고리의 다른 글
From NeurIPS 2019: Particularly helpful for fighting wild forest fires: real-time segmentation of fire perimeter from aerial full-motion infrared video https://www.profillic.com/paper/arxiv:1910.06407 FireNet: Real-time Segmentation of Fire Perimeter f..
Deep Learning/Papers2read 2019. 10. 31. 22:06From NeurIPS 2019: Particularly helpful for fighting wild forest fires: real-time segmentation of fire perimeter from aerial full-motion infrared video
https://www.profillic.com/paper/arxiv:1910.06407
FireNet: Real-time Segmentation of Fire Perimeter from Aerial Video
https://www.facebook.com/groups/DeepNetGroup/permalink/987081835018032/?sfnsn=mo
https://www.profillic.com/paper/arxiv:1910.06407
FireNet: Real-time Segmentation of Fire Perimeter from Aerial Video
https://www.facebook.com/groups/DeepNetGroup/permalink/987081835018032/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
안녕하세요! 어느덧 내일이 ICCV main conference 마지막 날이네요. 내일 오전 10시 30분에 143번에서 tag2pix poster 발표를 합니다. Color tag를 이용해서 스케치를 자동으로 채색하는 논문인데, 관심 있으..
Deep Learning/Papers2read 2019. 10. 31. 21:41안녕하세요! 어느덧 내일이 ICCV main conference 마지막 날이네요. 내일 오전 10시 30분에 143번에서 tag2pix poster 발표를 합니다.
Color tag를 이용해서 스케치를 자동으로 채색하는 논문인데, 관심 있으신 분들은 오셔서 같이 이야기 나누었으면 좋겠습니다. 저는 GAN, detection, domain adaptation 등에 관심이 많습니다 ㅎㅎ
코드와 데이터셋 배포했습니다. 감사합니다 :)
Paper: https://arxiv.org/abs/1908.05840
Code: https://github.com/blandocs/Tag2Pix
GUI: https://github.com/MerHS/tag2pix-gui
https://www.facebook.com/groups/TensorFlowKR/permalink/1024410971233294/?sfnsn=mo
Color tag를 이용해서 스케치를 자동으로 채색하는 논문인데, 관심 있으신 분들은 오셔서 같이 이야기 나누었으면 좋겠습니다. 저는 GAN, detection, domain adaptation 등에 관심이 많습니다 ㅎㅎ
코드와 데이터셋 배포했습니다. 감사합니다 :)
Paper: https://arxiv.org/abs/1908.05840
Code: https://github.com/blandocs/Tag2Pix
GUI: https://github.com/MerHS/tag2pix-gui
https://www.facebook.com/groups/TensorFlowKR/permalink/1024410971233294/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/videos 여기에 CVPR 영상들이 있는데, 19년도 튜토리얼은 안 보이네요.. https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/playlists 18년도 튜토리얼은 수록되어 ..
Deep Learning/course 2019. 10. 31. 21:40CVPR 2019 Tutorial, 컴퓨터 비전을 위한 심층강화학습
http://ivg.au.tsinghua.edu.cn/DRLCV/
튜토리얼 슬라이드
http://ivg.au.tsinghua.edu.cn/DRLCV/CVPR19_tutorial.pdf
https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/videos 여기에 CVPR 영상들이 있는데, 19년도 튜토리얼은 안 보이네요.. https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/playlists 18년도 튜토리얼은 수록되어 있는 것으로 보아 나중에 올라올지 모르겠습니다.
http://ivg.au.tsinghua.edu.cn/DRLCV/
튜토리얼 슬라이드
http://ivg.au.tsinghua.edu.cn/DRLCV/CVPR19_tutorial.pdf
https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/videos 여기에 CVPR 영상들이 있는데, 19년도 튜토리얼은 안 보이네요.. https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw/playlists 18년도 튜토리얼은 수록되어 있는 것으로 보아 나중에 올라올지 모르겠습니다.
'Deep Learning > course' 카테고리의 다른 글
머신러닝 모델 디버깅 리소스와 팁 https://t.co/9Y7kDc1hag?amp=1 https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184 https://medium.com/@keeper6928/how-to-uni..
Deep Learning/resources 2019. 10. 31. 15:43머신러닝 모델 디버깅 리소스와 팁
https://t.co/9Y7kDc1hag?amp=1
https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184
https://medium.com/@keeper6928/how-to-unit-test-machine-learning-code-57cf6fd81765
https://pcc.cs.byu.edu/2017/10/02/practical-advice-for-building-deep-neural-networks/amp/?__twitter_impression=true
https://medium.com/ai%C2%B3-theory-practice-business/top-6-errors-novice-machine-learning-engineers-make-e82273d394db
http://karpathy.github.io/2019/04/25/recipe/
https://github.com/EricSchles/drifter_ml
https://www.facebook.com/303538826748786/posts/804661033303227/?sfnsn=mo
https://t.co/9Y7kDc1hag?amp=1
https://medium.com/infinity-aka-aseem/things-we-wish-we-had-known-before-we-started-our-first-machine-learning-project-336d1d6f2184
https://medium.com/@keeper6928/how-to-unit-test-machine-learning-code-57cf6fd81765
https://pcc.cs.byu.edu/2017/10/02/practical-advice-for-building-deep-neural-networks/amp/?__twitter_impression=true
https://medium.com/ai%C2%B3-theory-practice-business/top-6-errors-novice-machine-learning-engineers-make-e82273d394db
http://karpathy.github.io/2019/04/25/recipe/
https://github.com/EricSchles/drifter_ml
https://www.facebook.com/303538826748786/posts/804661033303227/?sfnsn=mo
'Deep Learning > resources' 카테고리의 다른 글
혹시 ICCV 2019 영상 올라오나요? https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw 여기에 튜토리얼이랑 메인컨퍼런스 구두발표는 아마 올라올거에요~
Deep Learning/course 2019. 10. 31. 15:17혹시 ICCV 2019 영상 올라오나요? Jitendra Malik이 한 토크가 궁금해서 보고싶은데 못 찾겠네요 ㅠㅠ
https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw
여기에 튜토리얼이랑 메인컨퍼런스 구두발표는 아마 올라올거에요~
https://www.facebook.com/groups/TensorFlowKR/permalink/1023962494611475/?sfnsn=mo
https://www.youtube.com/channel/UC0n76gicaarsN_Y9YShWwhw
여기에 튜토리얼이랑 메인컨퍼런스 구두발표는 아마 올라올거에요~
https://www.facebook.com/groups/TensorFlowKR/permalink/1023962494611475/?sfnsn=mo
'Deep Learning > course' 카테고리의 다른 글
From Google brain researchers @NeurIPS 2019: Learning to Predict Without Looking Ahead https://www.profillic.com/paper/arxiv:1910.13038 "Rather than hardcoding forward prediction, we try to get agents to *learn* that they need to predict the future"
Deep Learning/Papers2read 2019. 10. 31. 15:12From Google brain researchers @NeurIPS 2019: Learning to Predict Without Looking Ahead
https://www.profillic.com/paper/arxiv:1910.13038
"Rather than hardcoding forward prediction, we try to get agents to *learn* that they need to predict the future"
https://www.facebook.com/groups/1738168866424224/permalink/2439511069623330/?sfnsn=mo
https://www.profillic.com/paper/arxiv:1910.13038
"Rather than hardcoding forward prediction, we try to get agents to *learn* that they need to predict the future"
https://www.facebook.com/groups/1738168866424224/permalink/2439511069623330/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
Component Attention Guided Face Super-Resolution Network: CAGFace 얼굴에 특화된 4배 확대 SR 신경망 모델인데... 성능이 상당히 좋네요. 대신 신경망도 덩치가 크네요. 학습 파라메터가 6천만개가 넘습니다. ..
Deep Learning/face_related 2019. 10. 31. 15:09Component Attention Guided Face Super-Resolution Network: CAGFace
얼굴에 특화된 4배 확대 SR 신경망 모델인데...
성능이 상당히 좋네요.
대신 신경망도 덩치가 크네요. 학습 파라메터가 6천만개가 넘습니다.
https://arxiv.org/pdf/1910.08761.pdf
https://www.facebook.com/groups/TensorFlowKR/permalink/1024154381258953/?sfnsn=mo
얼굴에 특화된 4배 확대 SR 신경망 모델인데...
성능이 상당히 좋네요.
대신 신경망도 덩치가 크네요. 학습 파라메터가 6천만개가 넘습니다.
https://arxiv.org/pdf/1910.08761.pdf
https://www.facebook.com/groups/TensorFlowKR/permalink/1024154381258953/?sfnsn=mo
This video gives a quick overview of 41 research papers presented by Google at the International Conference on Computer Vision (ICCV)! [https://youtu.be/z-yvY8iAaHM](https://t.co/1q6od2KUzp?amp=1)
Deep Learning/Papers2read 2019. 10. 31. 10:53This video gives a quick overview of 41 research papers presented by Google at the International Conference on Computer Vision (ICCV)!
[https://youtu.be/z-yvY8iAaHM](https://t.co/1q6od2KUzp?amp=1)
https://www.facebook.com/groups/DeepNetGroup/permalink/989370031455879/?sfnsn=mo
[https://youtu.be/z-yvY8iAaHM](https://t.co/1q6od2KUzp?amp=1)
https://www.facebook.com/groups/DeepNetGroup/permalink/989370031455879/?sfnsn=mo
'Deep Learning > Papers2read' 카테고리의 다른 글
안녕하세요, TensorFlow KR 여러분, 저는 현재 AI를 활용한 이미지 변형을 이용해 작업을 제작 중에 있는 미술학도입니다. TensorFlow KR 여러분들에게 제가 진행중인 작업에 관해 조언을 받고 싶어 ..
Deep Learning/GAN 2019. 10. 30. 21:17안녕하세요, TensorFlow KR 여러분, 저는 현재 AI를 활용한 이미지 변형을 이용해 작업을 제작 중에 있는 미술학도입니다.
TensorFlow KR 여러분들에게 제가 진행중인 작업에 관해 조언을 받고 싶어 이렇게 게시물을 통해 여쭈어봐요.
제가 하고 싶어하는 것은 UGATIT모델을 이용해 제가 갖고 있는 얼굴 이미지들과 제가 변형하여 만든 얼굴 이미지를 학습 시킨 뒤 관객이 자신의 얼굴을 웹캠에 가져다대면 제 형식대로 변형된 모습을 실시간으로 관람할 수 있게 하는 것입니다.
UGATIT 모델은 인물의 사진과 애니메이션 캐릭터 얼굴들을 학습 시킨 뒤, 인물의 사진을 애니메이션화하는데 적용되었던 모델이고 저는 김준호님께서 올려주신 https://github.com/taki0112/UGATIT 코드를 바탕으로 변형하여 진행하고자 해요.
첫 번째 궁금한 사항입니다. Input data를 Webcam에서 특정 시간(예를 들어 2초)을 주기로 받아진 이미지의 변형 된 결과 값만 화면에 보여주고 싶습니다. 혹시 이러한 코드 방식이 가능할지, 참조할 만한 자료 등이나 의견을 주신다면 감사하겠습니다!
두 번째 궁금한 사항은 제가 데스크탑에 연결시킨 웹캠을 이제 구매를 해야하는데, 라즈베리파이로 진행해본 적은 있는데 따로 데스크탑용 웹캠을 사용해본 적이 없거든요, 혹시 웹캠을 이용해 실시간 변환처리를 해보신 분들 중 이거 괜찮았다하는 웹캠이 있을까요? 추천 바랍니다
세 번째 궁금한 사항은, 제 컴퓨터의 GPU는 GTX 1070TI 입니다. 실시간 처리를 진행할 때 1070TI가 혹시 부족할까요? 혹시 GPU 성능이 부족하다고 하면 새로 구매하려고 합니다.
어떠한 의견과 조언도 환영합니다.
감사합니다.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo
TensorFlow KR 여러분들에게 제가 진행중인 작업에 관해 조언을 받고 싶어 이렇게 게시물을 통해 여쭈어봐요.
제가 하고 싶어하는 것은 UGATIT모델을 이용해 제가 갖고 있는 얼굴 이미지들과 제가 변형하여 만든 얼굴 이미지를 학습 시킨 뒤 관객이 자신의 얼굴을 웹캠에 가져다대면 제 형식대로 변형된 모습을 실시간으로 관람할 수 있게 하는 것입니다.
UGATIT 모델은 인물의 사진과 애니메이션 캐릭터 얼굴들을 학습 시킨 뒤, 인물의 사진을 애니메이션화하는데 적용되었던 모델이고 저는 김준호님께서 올려주신 https://github.com/taki0112/UGATIT 코드를 바탕으로 변형하여 진행하고자 해요.
첫 번째 궁금한 사항입니다. Input data를 Webcam에서 특정 시간(예를 들어 2초)을 주기로 받아진 이미지의 변형 된 결과 값만 화면에 보여주고 싶습니다. 혹시 이러한 코드 방식이 가능할지, 참조할 만한 자료 등이나 의견을 주신다면 감사하겠습니다!
두 번째 궁금한 사항은 제가 데스크탑에 연결시킨 웹캠을 이제 구매를 해야하는데, 라즈베리파이로 진행해본 적은 있는데 따로 데스크탑용 웹캠을 사용해본 적이 없거든요, 혹시 웹캠을 이용해 실시간 변환처리를 해보신 분들 중 이거 괜찮았다하는 웹캠이 있을까요? 추천 바랍니다
세 번째 궁금한 사항은, 제 컴퓨터의 GPU는 GTX 1070TI 입니다. 실시간 처리를 진행할 때 1070TI가 혹시 부족할까요? 혹시 GPU 성능이 부족하다고 하면 새로 구매하려고 합니다.
어떠한 의견과 조언도 환영합니다.
감사합니다.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo
'Deep Learning > GAN' 카테고리의 다른 글
#Download #Source #Code from Video Description. This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections 1. What is NLP 2. Applications of NLP 3. Text Data Cleaning Options 4. Bag of W..
Deep Learning/resources 2019. 10. 30. 16:30#Download #Source #Code from Video Description.
This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections
1. What is NLP
2. Applications of NLP
3. Text Data Cleaning Options
4. Bag of Words and TF-IDF (word2vec coming soon)
5. Text Data Preparation
6. Tokenization
7. Lemmatization
8. POS
9. Parsing
10. Named Entity Recognition
11. Text Data Cleaning
12. Model Building
13. Training and Testing
14. Testing with real-world sentences.
Please watch the full video below. Like and Subscribe to show your support.
Sentiment Classification using SpaCy for IMDB and Amazon Review Dataset
https://www.youtube.com/watch?v=cd51nXNpiiU
This is complete zero to Amazon Review Sentiment Classification Lesson. In this lesson, I will discuss the following sections
1. What is NLP
2. Applications of NLP
3. Text Data Cleaning Options
4. Bag of Words and TF-IDF (word2vec coming soon)
5. Text Data Preparation
6. Tokenization
7. Lemmatization
8. POS
9. Parsing
10. Named Entity Recognition
11. Text Data Cleaning
12. Model Building
13. Training and Testing
14. Testing with real-world sentences.
Please watch the full video below. Like and Subscribe to show your support.
Sentiment Classification using SpaCy for IMDB and Amazon Review Dataset
https://www.youtube.com/watch?v=cd51nXNpiiU
'Deep Learning > resources' 카테고리의 다른 글
Learn: 1. linear algebra well (e.g. matrix math) 2. calculus to an ok level (not advanced stuff) 3. prob. theory and stats to a good level 4. theoretical computer science basics 5. to code well in Python and ok in C++ Then read and implement ML papers..
Deep Learning/course 2019. 10. 30. 13:42Learn:
1. linear algebra well (e.g. matrix math)
2. calculus to an ok level (not advanced stuff)
3. prob. theory and stats to a good level
4. theoretical computer science basics
5. to code well in Python and ok in C++
Then read and implement ML papers and *play* with stuff! :-)
H / T : Shane Legg
#ArtificialIntelligence101
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo
1. linear algebra well (e.g. matrix math)
2. calculus to an ok level (not advanced stuff)
3. prob. theory and stats to a good level
4. theoretical computer science basics
5. to code well in Python and ok in C++
Then read and implement ML papers and *play* with stuff! :-)
H / T : Shane Legg
#ArtificialIntelligence101
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2328590640713496/?sfnsn=mo