'분류 전체보기'에 해당되는 글 1027건

  1. 2019.11.22 안녕하세요. 인공지능연구원 정정민입니다. 회사 내부 세미나에서 SinGAN 논문을 발표했습니다. ICCV 2019에서 Best paper 상을 받은 논문입니다. 사용했던 자료를 공유드립니다. 도움이 되셨으면 좋..
  2. 2019.11.22 Surreal high-quality re-enactments of famous figures https://www.profillic.com/paper/arxiv:1911.08139 (outperforms on the identity preservation problem)
  3. 2019.11.22 STATE OF THE ART IN 3D MORPHABLE MODEL OF THE HUMAN HEAD Enormous applications in computer vision, computer graphics, biometrics, and medical imaging. https://www.profillic.com/paper/arxiv:1911.08008
  4. 2019.11.22 Surreal high-quality re-enactments of famous figures https://www.profillic.com/paper/arxiv:1911.08139 (outperforms on the identity preservation problem)
  5. 2019.11.22 안녕하세요, 수아랩(코그넥스) 이호성이라고 합니다. 이틀 전 공개된 논문이 결과가 인상깊어서 빠르게 리뷰를 해보았습니다. 논문의 제목은 "EfficientDet: Scalable and Efficient Object Detection" 이..
  6. 2019.11.22 통계적 사고 (ThinkStats2) : 프로그래머를 위한 확률과 통계
  7. 2019.11.20 "Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다. 저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어..
  8. 2019.11.19 CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf)) 를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv..
  9. 2019.11.18 [간략하게 읽어볼만한 글] “Do we still need models or just more data and compute?” - Max Welling, April 20 2019 https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf . Max Welling 교수님은 제가 정말 좋아..
  10. 2019.11.18 Computer Vision Specialization | Coursera. Learn how computers visually process the world. Dive into artificial intelligence’s fastest-growing field There are 4 Courses in this Specialization: COURSE 1) Computer Vision Basics. COURSE 2) Image Processi..
  11. 2019.11.18 TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다 이번 논문은 YOLO v3입니다. 매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히..
  12. 2019.11.18 안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다. 이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised vis..
  13. 2019.11.17 안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다! 팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요, 이번에는 얼마전에 딥마인드에서 공개한 알파스.. 1
  14. 2019.11.17 Transforming realistic photos into cartoon style images!😅 https://www.profillic.com/paper/arxiv:1911.06102 (Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
  15. 2019.11.17 그룹에 Mathematics for Machine Learning(MML) 책을 보고 공부하시는 분들이 많을 것 같습니다. 동명의 Coursera 강의를 듣는 분들도 계실테고요. 강의를 진행하는 4명의 강사 중 한 명인 Sam Cooper는 Coursera..
  16. 2019.11.15 https://github.com/JONGGON/Gluon-Detector Retina SSD YoloV3 구현 을 마쳤습니다.
  17. 2019.11.15 Hi DataScience enthusiast . Are you fresher or professional looking out to make your path as "Data Scientist" and here something for you for upcoming 30days(prepare yourself and get hired ) . DataScience interview questions #day13 . If you missed #day1 ..
  18. 2019.11.15 Interactive SLAM 라이다 센서로 semi automatic하게 맵 만들어볼수 있는 오픈소스 프레임워크입니다 ㅎ
  19. 2019.11.15 안녕하세요 여러분! 얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁 신기한 것들 많이 보고 와서 너무 좋았습니다! 학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇..
  20. 2019.11.15 SLAM KR에서 SLAM 입문하시려는 분들 계실까요? 내년 1월부터 ORB-SLAM 스터디 하려고 합니다 :) 이론과 코드 전부 마스터 할거입니다 후후!! 다만 쉬운 스터디는 아닐거라서, 준비과정인 1부와 SLAM ..
  21. 2019.11.14 matlab기반의 image warping을 통한 얼굴에 mask씌우기 - Code (Matlab) for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the fac..
  22. 2019.11.14 python 자동 face warping 라이브러리 - PyChubby
  23. 2019.11.14 Gradient Boost와 관련 모델 정리 (하나씩 점을 찍어 나가며 / 미스터 흠시) * 영상 : StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1 영상 미스터 흠시 님께서 "StatQuest with Josh Starmer 의 StatQuest: Gra..
  24. 2019.11.13 From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions https://www.profillic.com/paper/arxiv:1911.03567 (They survey three state-of-the-art face detection methods based on general images, i.e. Casc..
  25. 2019.11.13 ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다. 논문 제목: Self-training with Noisy Student improves ImageNet classification [논문 링크: https://arxiv.org/pdf/1911.04252...
  26. 2019.11.12 This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks Github: https://github.com/deezer/spleeter https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
  27. 2019.11.12 TF-KR PR-12 206번째 발표는 PointRCNN 이라는 논문입니다. raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다. PR-12에서 point cloud와 관련된 발표는 처음이었는데, 저 또한 이 분야에 대해 ..
  28. 2019.11.12 안녕하세요 SLAM kr!저도 처음 SLAM이나 localization을 공부할 때 코드 구현에 익숙치 않았는데요,김기섭 (Paul Giseop Kim) 을 본받아 저는 실제 2D LiDAR 데이터로 Monte Carlo Localization을 구현했던 c++ 기..
  29. 2019.11.11 python for data science cheat sheet using pandas
  30. 2019.11.11 안녕하세요, PyTorch KR! torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요..
안녕하세요. 인공지능연구원 정정민입니다. 회사 내부 세미나에서 SinGAN 논문을 발표했습니다. ICCV 2019에서 Best paper 상을 받은 논문입니다. 사용했던 자료를 공유드립니다. 도움이 되셨으면 좋겠습니다^^
https://www.facebook.com/groups/TensorFlowKR/permalink/1043767235964334/?sfnsn=mo
Posted by uniqueone
,
Surreal high-quality re-enactments of famous figures

https://www.profillic.com/paper/arxiv:1911.08139

(outperforms on the identity preservation problem)
https://www.facebook.com/groups/DeepNetGroup/permalink/1008865839506298/?sfnsn=mo
Posted by uniqueone
,
STATE OF THE ART IN 3D MORPHABLE MODEL OF THE HUMAN HEAD
Enormous applications in computer vision, computer graphics, biometrics, and medical imaging.
https://www.profillic.com/paper/arxiv:1911.08008
https://www.facebook.com/groups/1738168866424224/permalink/2458983691009401/?sfnsn=mo
Posted by uniqueone
,
Surreal high-quality re-enactments of famous figures

https://www.profillic.com/paper/arxiv:1911.08139

(outperforms on the identity preservation problem)
https://www.facebook.com/groups/DeepNetGroup/permalink/1008865839506298/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩(코그넥스) 이호성이라고 합니다.

이틀 전 공개된 논문이 결과가 인상깊어서 빠르게 리뷰를 해보았습니다.

논문의 제목은 "EfficientDet: Scalable and Efficient Object Detection" 이며 제가 지난번에 소개드렸던 EfficientNet을 Object Detection에 접목시켜서 매우 우수한 성능을 달성시킨 논문입니다.

첨부드린 그림을 보시면 아시겠지만, 기존 연구들대비 정확도도 매우 우수하고, 연산량 자체도 굉장히 효율적으로 사용하고 있는 것을 알 수 있습니다. 이 글을 쓰고있는 현 시점에서는 Object Detection 분야에서는 State-of-the-art(SOTA)를  달성한 논문입니다!

논문 자체는 잘 쓰여져 있고, 이해하기 쉬워서 내용을 그대로 잘 정리하여 글로 작성을 하여 블로그에 올려두었습니다. 공부하시는데 도움이 되셨으면 좋겠습니다!

논문 링크: https://arxiv.org/pdf/1911.09070v1.pdf
블로그 글: https://hoya012.github.io/blog/EfficientDet-Review/
https://www.facebook.com/groups/PyTorchKR/permalink/1539376382868704/?sfnsn=mo
Posted by uniqueone
,

http://statkclee.github.io/think-stat/

통계적 사고 워크샵

싸이그래머 xwMOOC가 함께 합니다.

기계와의 경쟁을 준비하며…

“The future is here, it’s just not evenly distributed yet.”
- William Gibson

학습 개요

  • 일시
    • ’15년 11월 18일 ~ ’16년 1월 6일 (8주간)
    • 매주 수요일 19:00 ~ 20:00
  • 장소

 

 

 

 

교재

 

 

통계적 사고 (ThinkStats2) : 프로그래머를 위한 확률과 통계
- (번역): https://github.com/statkclee/ThinkStats2
- (원서): http://greenteapress.com/thinkstats2/
- 번역 버젼(’15년 11월 17일), PDF 파일
- 번역 버젼(’15년 11월 17일), HTML 파일
«««« 연습문제 초벌 번역
«««« 한국어판 서문 추가

 

 

장연습문제해답

1장 문제 해답
2장 문제 해답
3장 문제 해답
4장 문제 해답
5장 문제 해답
6장 문제 해답
7장 문제 해답
8장 문제 해답
9장 문제 해답
10장 문제 해답
11장 문제 해답
12장 문제 해답
13장 문제 해답
14장 문제 해답

공용 작업공간

위키…통계적 사고

LaTeX 사전 공부

출처: OpenIntro.org LaTeX 저작 교육과정

사전 준비

  1. Git과 GitHub
  2. 파이썬 설치: 아나콘다 기반 과학컴퓨팅 개발환경을 적극추천

# 파이썬 2 기준 우분투 14.04 64비트 버젼 설치 사례 $ wget https://3230d63b5fc54e62148e-c95ac804525aac4b6dba79b00b39d1d3.ssl.cf1.rackcdn.com/Anaconda2-2.4.0-Linux-x86_64.sh $ bash ~/Downloads/Anaconda2-2.4.0-Linux-x86_64.sh 사전준비 검증[xwmooc:~/ThinkStats2/code ] $ python nsfg.pynsfg.py:42: SettingWithCopyWarning: A value is trying to be set on a copy of a slice from a DataFrame See the caveats in the documentation: http://pandas.pydata.org/pandas-docs/stable/indexing.html#indexing-view-versus-copy df.birthwgt_lb[df.birthwgt_lb > 20] = np.nan (13593, 244) nsfg.py: All tests passed.부랑자(Vagrant)와 가상상자(VirtualBox)를 활용한 과학컴퓨팅 환경 구축

부랑자(Vagrant) 아나콘다 설치환경 참조

학습 목차

일시학습 내용

2015. 11. 18 탐색적 자료 분석 & 분포
2015. 11. 25 확률 질량 함수 & 누적분포함수
2015. 12. 2 분포 모형화 (Modeling distributions) & 확률밀도함수
2015. 12. 9 변수간 관계
2015. 12. 16 추정 (Estimation)
2015. 12. 23 가설 검정 (Hypothesis testing
2015. 12. 30 선형최소제곱 & 회귀 (Regression)
2016. 1. 6 시계열 분석 & 생존분석

열린 통계학 개론

언론 기사

참고자료

xwMOOC 한글소스 Contact License

 

 

 

Posted by uniqueone
,
"Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다.

저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어떤 부분에서 장점이 있고 어느 부분까지 스며들 수 있는지, 어떻게 기존의 방법들과 융화될 수 있을지에 대해서 다시금 생각하게 해주는 글인것 같습니다.

최근 서울에서 개최되었던 ICCV 2019에서 나왔던 이슈들도 인용이 많이 되어 있어서 아주 따끈따끈하네요😁
https://www.facebook.com/groups/slamkr/permalink/1022417871451190/?sfnsn=mo
Posted by uniqueone
,
CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf))

를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv를 두번 쌓아 이미지를 반환하였고 논문에서와 같이 smooth l1 loss 를 사용하였습니다.

batchnorm을 upsampling과정에 넣으면 학습은 잘 되는데 loss가 잘 떨어지지 않아 batchnorm을 넣고 중간중간 lr을 조정해가면서 훈련시킨결과 다음과 같은 결과를 얻었는데

모든 이미지에 대해 이미지의 채도를 명확하게 묘사해내지 못한다는 사실을 발견하였습니다. training loss 값을 고려해보았을 때(약 0.004) 이미지의 pixel간 평균적인 차이는 22pixel 정도로 보아야 마땅한 데 output image는 거의 흑백이미지에 가깝기 때문에 평균적인 차이가 어떻게 22pixel 정도인지도의문입니다.

앞으로 어떤 방향으로 시도를 해보아야할 지 몰라서 게시물을 작성하게 되었는데요

1. stage1 에서 무리하게 x4 upsampling 한 것이 문제이기 때문에 stage2 까지 구현 후 다시 훈련시ㅋ본다.

2. stage1 뒤에 downsample(space-to-depth)를 한 후 처음 input image를 더하여 pixel 정보를 보정시킨후 다시 upsampleing 하는 refinement module 을 고안해본다.

아니면 pixel 정보를 보정할 수 있는 다른 방법을 고안.

3. 마지막 conv3x3 (channel : 256 -> 3) 을 한 후에 relu를 쓰지말고 sigmoid 를 써서 훈련을 시켜본다. (image 값은 0~1) 이므로 이경우 loss가 잘 떨어지지 않는 문제가 발생합니다.
https://www.facebook.com/groups/TensorFlowKR/permalink/1041218709552520/?sfnsn=mo
Posted by uniqueone
,
[간략하게 읽어볼만한 글]
“Do we still need models or just more data and compute?” - Max Welling, April 20 2019
https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf
.
Max Welling 교수님은 제가 정말 좋아하는 ML scientist 들 중 한 분 입니다. Variational autoencoder 을 비롯한 Bayesian deep learning 을 연구해오셨고, Graph convolutional network 도 Max Welling group 에서 나온 논문입니다.
ML 분야에서 대가라고 할 수 있는 Max Welling 교수님의 위 제목과 같은 기고문이 있는데, 현재 ML 연구방식의 한계와 연구되어야할 방향에 대해서 생각해보게끔 하는 글입니다.
.
1. Max Welling 교수님은 본인이 “기본적으로 컴퓨팅 파워의 중요성“을 믿는다고 합니다. Qualcomm 에서 part-time position으로 재직하고 있는 이유 중 하나도, AI의 발전을 이끄는 가장 빠른 방향 중 하나는 AI computation 을 위한 hardware 를 개발하는 것이라고 생각하신다고 합니다.
.
2. Computation 과 별개로, “data”는 ML의 가장 raw material임을 잊지 말아야한다고 하면서, 현재 연구방향의 한계점과 나아가야할 방향에 대한 의견을 시작합니다. 잘 정의가 되어있는 문제 및 도메인 - data를 충분한 양을 생성할 수 있는 경우 (e.g. AlphaGo), data를 충분히 얻을 수 있는 경우 (e.g. speech) 에서는 deep learning과 같은 “data driven, discriminative, black-box” 방법이 잘 동작할 수 있고, 이런 경우는 “interpolation problem” 으로 볼 수 있다고 합니다.
.
3. 하지만 “extrapolation problem” 의 경우에 대해서 문제가 시작된다고 말씀합니다.
“There is no predictions without assumptions, no generalization without inductive bias”
말씀을 ML 연구기간 동안 가장 인상깊게 생각한다 (recall one thing most vividly) 고 말씀하십니다.
사족) 개인적으로 이 말이 너무너무너무 멋있고, ML연구 관련하여 들은 말 중에서 가장 기억하고 싶은 말 줄 하나로 생각하고 싶습니다.

ML의 bias-variance trade-off를 지적하시면서
- Data가 충분한 경우에는, 많은 human inductive bias를 모델에 주입할 필요가 없고, “데이터가 말하게 하라(let the data speak)” 고 하면 되지만,
- 그렇지 않은 경우에는, human-knowledge를 불어넣어주어서 그 gap을 채워주어야 한다.
- Extrapolation의 상황에서, 즉 새로운 도메인에 sparse한 data로 training한 모델을 적용하는 경우 모델을 쉽게 fail할 거라고 합니다.

Game과 같은 문제(e.g. AlphaGo, Starcraft, …)에서는 input domain 은 잘 정의되어있고, 우리는 완벽한 simulator를 가지고 있기 때문에, 이런 경우에서 모델 개발의 bottleneck은 “data가 아니라 computation이다.” 라는 말씀을 하십니다. 또 하나 인상깊은 지적입니다.

반면에 self-driving car 와 같은 문제는 언제나 long-tail/exceptional situation이 있기 때문에, 아무리 human이 inductive bias/prior-knowledge를 simulator등을 이용해 고려하여도 이는 때로는 너무 단순해서, 다양한 상황을 simulation하기 어려울 수 있다고 지적합니다.
.
4. 하지만, 한 가지 희망이 있다면 그 방향은 “forward, generative, causal direction” 이라고 지적하십니다.
- Generative model은 unseen domain 에 대한 generalization 에 (discriminative 모델보다) 더 낫다.
- Causality는 한 도메인에서 다른 도메인으로의 model 의 적용을 가능케 한다, 예시) 교통사고는 네덜란드에서는 검은색 차량과 상관성이 높을 수 있지만, 미국에서의 빨간색 차량과 상관성이 높을 수 있다. 색깔을 바탕으로 predictor를 만드는 것은 generalize할 수 없지만, male testerone level와 같은 “causal factor”는 generalize할 수 있게 해줄 것이다.
- Human은 만나보지 않은 상황(conterfactual worlds)에 대해 시뮬레이션/상상할 수 있는 뛰어난 능력이 있다. 이는 물리법칙, 심리적 요소에 대한 human의 능력에 기반한다.
와 같은 일종의 연구 direction을 제시하십니다.
.
개인적으로, 이 기고문이 저에게 많은 교훈을 준 것 같습니다. 저는 이미지, 자연어, 음성과 같은 일종의 sensory 데이터를 주로 다뤄왔다기 보다는, 분자와 같은 좀 더 물리/화학/생명쪽과 같은 자연현상에 관심을 가져왔기 때문에, 이 자연현상을 governing하는 universal law를 잘 모델링할 수 있지않을까라는 생각을 종종하고는 하는데, physics law를 inductive bias로 machine에게 불어넣어주기, causality 등이 저에게 연구방향이 되지않을까 합니다.
https://m.facebook.com/story.php?story_fbid=2438975229757338&id=100009346535102&sfnsn=mo
Posted by uniqueone
,
Computer Vision Specialization | Coursera.
Learn how computers visually process the world. Dive into artificial intelligence’s fastest-growing field
There are 4 Courses in this Specialization:
COURSE 1) Computer Vision Basics.
COURSE 2) Image Processing, Features & Segmentation.
COURSE 3) Stereo Vision, Dense Motion & Tracking.
COURSE 4) Visual Recognition & Understanding.
http://bit.ly/31Xgm15
https://www.facebook.com/groups/computervisionandimageprocessing/permalink/2561374053932234/?sfnsn=mo
Posted by uniqueone
,
TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다

이번 논문은 YOLO v3입니다.

매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히 특색있는 one-stage algorithm입니다. 이 논문에서는 YOLO v2(YOLO9000) 이후에 성능 향상을 위하여 어떤 것들을 적용하였는지 하나씩 설명해주고 있습니다. 또한 MS COCO의 metric인 average mAP에 대해서 비판하면서 mAP를 평가하는 방법에 대해서도 얘기를 하고 있는데요, 자세한 내용은 영상을 참고해주세요~

영상링크: https://youtu.be/HMgcvgRrDcA

논문링크: https://arxiv.org/abs/1804.02767

발표자료: https://www.slideshare.net/JinwonLee9/pr207-yolov3-an-incremental-improvement
https://www.facebook.com/groups/TensorFlowKR/permalink/1039655006375557/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다.
이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised visual representation learning overview: Toward Self-Supervision" 입니다.

딥러닝의 성능을 높이기 위해선 양질의 데이터가 필요한 것은 다들 잘 알고 계실 거라 생각합니다.
Supervised Learning 방식은 많은 수의 데이터가 있으면, 데이터에 대한 Label도 필요로 하게 되고 이 과정에서 많은 비용이 필요하게 됩니다.
이러한 점에 주목한 여러 연구들 중 Unsupervised Learning 연구 분야의 하위 주제인 "Self-Supervised Learning" 에 대해 리뷰를 하였습니다.
주요 논문들을 간략하게 소개드리며 연구 흐름을 소개드리고 어떠한 방법들이 제안이 되었는지, 어떠한 방식으로 성능을 평가하는지 등을 다루고 있습니다. 자세한 내용은 영상을 참고하시면 좋을 것 같습니다. 감사합니다!

영상링크: https://youtu.be/eDDHsbMgOJQ
발표자료: https://www.slideshare.net/HoseongLee6/unsupervised-visual-representation-learning-overview-toward-selfsupervision-194443768
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다!

팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요,

이번에는 얼마전에 딥마인드에서 공개한 알파스타 논문 리뷰를 진행해 보았습니다.

알파 스타의 뉴럴넷 구조, 학습 방법, 리그 구성방법에 대해 논문에 나와 있는 정보를 나름대로 상세히 정리하여보았습니다.

혹시 관심 있으신 분은 참고 부탁드립니다.

감사합니다.

[https://www.youtube.com/watch?v=6Thu5vlDc6Y](https://www.youtube.com/watch?v=6Thu5vlDc6Y)
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
Transforming realistic photos into cartoon style images!😅
https://www.profillic.com/paper/arxiv:1911.06102

(Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
https://www.facebook.com/groups/DeepNetGroup/permalink/1004183859974496/?sfnsn=mo
Posted by uniqueone
,
그룹에 Mathematics for Machine Learning(MML) 책을 보고 공부하시는 분들이 많을 것 같습니다. 동명의 Coursera 강의를 듣는 분들도 계실테고요.

강의를 진행하는 4명의 강사 중 한 명인 Sam Cooper는 Coursera의 MML 강좌를 등록한 학생 수가 15만명이 넘은 것을 자축하며, 해당 강좌를 유튜브에 무료로 풀기로 결정했다는 소식을 알렸습니다. 확인해보니 Chapter.3인 PCA 재생목록은 아직 올라와있지 않긴 하지만 '선형대수'와 '다변수미적분학'은 빠짐없이 올라와있네요.

+) 검색해보니 MML 강좌가 이미 Youtube 내 다른 재생목록으로 올라와있긴 한데 해당 강좌는 Unofficial 업로드이고, 빠진 영상도 더러 있는 것 같습니다. ICL 측에서 Official하게 올려준 강좌의 도움을 받아 수학 공부를 합시다..! (영어 자막도 제공해줍니다 크)
https://www.facebook.com/groups/TensorFlowKR/permalink/1038633053144419/?sfnsn=mo
Posted by uniqueone
,
https://github.com/JONGGON/Gluon-Detector

Retina SSD YoloV3 구현 을 마쳤습니다.
https://www.facebook.com/groups/mxnetkr/permalink/2708115322552558/?sfnsn=mo
Posted by uniqueone
,
Hi DataScience enthusiast
.
Are you fresher or professional looking out to make your path as "Data Scientist" and here something for you for upcoming 30days(prepare yourself and get hired )
.
DataScience interview questions #day13
.
If you missed #day1  #day2 #day3  #day4 #day5   #day6  #day7   #day8  #day9  #day10  #day11 and #day12 do have a look

https://m.facebook.com/story.php?story_fbid=135246681214723&id=110658260340232

https://m.facebook.com/story.php?story_fbid=135821337823924&id=110658260340232

.https://m.facebook.com/story.php?story_fbid=136433987762659&id=110658260340232

https://www.facebook.com/110658260340232/posts/136969684375756/

https://www.facebook.com/110658260340232/posts/137702250969166/

https://www.facebook.com/110658260340232/posts/138112590928132/

https://m.facebook.com/story.php?story_fbid=138676314205093&id=110658260340232

https://m.facebook.com/story.php?story_fbid=140261140713277&id=110658260340232

https://m.facebook.com/story.php?story_fbid=140761347329923&id=110658260340232

https://www.facebook.com/110658260340232/posts/141312763941448/

#datascience #machinelearning #artificiallearning
https://m.facebook.com/story.php?story_fbid=141817377224320&id=110658260340232&sfnsn=mo
Posted by uniqueone
,
Interactive SLAM

라이다 센서로 semi automatic하게 맵 만들어볼수 있는 오픈소스 프레임워크입니다 ㅎ
https://www.facebook.com/groups/slamkr/permalink/1017904401902537/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 여러분!

얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁
신기한 것들 많이 보고 와서 너무 좋았습니다!

학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇개는 제가 촬영한게 아닌 것도 있어서 출처 표기했습니다! 도움이 되었으면 좋겠습니다!

1. ICCV 정리 페이지 링크:
https://tinyurl.com/vzqm33f

2. 딥러닝 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/t94nuqt

3. SLAM, 3D 비전 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/ur8ot9n
https://www.facebook.com/groups/TensorFlowKR/permalink/1036795166661541/?sfnsn=mo
Posted by uniqueone
,
SLAM KR에서 SLAM 입문하시려는 분들 계실까요?

내년 1월부터 ORB-SLAM 스터디 하려고 합니다 :) 이론과 코드 전부 마스터 할거입니다 후후!! 다만 쉬운 스터디는 아닐거라서, 준비과정인 1부와 SLAM 집중과정인 2부로 나눠집니다! 

1부는 SLAM을 해본적이 없으신 분들을 위한 온라인 / 카카오톡 사전 스터디입니다. 11월 18일부터 12월달 말 까지
- Modern C++ for Computer Vision (Cyrill Stachniss)https://www.youtube.com/playlist?list=PLgnQpQtFTOGR50iIOtO36nK6aNPtVq98C
- SLAM KR 의 SLAM study season 1 https://www.youtube.com/playlist?list=PLubUquiqNQdOTNocmWCSWk9ZaWhV7ubCD 를 같이 듣습니다! 페이스는 각자 원하는대로! 대신 서로 동기부여 해주기 ㅎㅎ 오픈 카톡방에서 토론하면서 할거입니다! https://open.kakao.com/o/g8T5kxLb 

2부는 1월부터 시작하는 ORB-SLAM 스터디입니다! 저와 함께하시는 SLAM 공부하시는 분들 몇분을 초청해서, 세미나 식으로 매주 주말마다 열려고 합니다! 이건 그때 되면 다시 업데이트 드릴게요 😆
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,

https://github.com/orlyliba/face-masker

 

Code for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the face. Additionally, the code adds ears or a hat onto the photo.

face-masker

Code (Matlab) for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the face. Additionally, the code adds ears or a hat onto the photo.

In order to detect matching feature points in the faces and masks, a separate algorithm should be used (this repository does not include it). I have tested two feature detectors that worked well:

  1. Face++ (http://www.faceplusplus.com/), in which feature detection is done in the cloud
  2. Clandmark (http://cmp.felk.cvut.cz/~uricamic/clandmark/), an open source landmarking library

Masks should be stored as the basis image, feature points and blending mask (binary or gray scale weights). The masks can also contain ears/hat/wig. The feature points are detected by the same algorithm that you plan on using for photos, and can be shifted manually. The blending masks are best when done manually with simple programs such as paint.

Read the report and look at the poster to learn more about this project.

 

 

Posted by uniqueone
,

[1] document: https://pychubby.readthedocs.io/en/latest/source/basic_example.html

[2] 소스코드: https://github.com/jankrepl/pychubby

[3] 블로그: https://jankrepl.github.io/pychubby/

----------------------------------------------------------------------------------------------------

[1]

Basic Example

To illustrate the simplest use case let us assume that we start with a photo with a single face in it.

pychubby implements a class LandmarkFace which stores all relevant data that enable face warping. Namely it is the image itself and 68 landmark points. To instantiate a LandmarkFace one needs to use a utility class method estimate.

import matplotlib.pyplot as plt from pychubby.detect import LandmarkFace img = plt.imread("path/to/the/image") lf = LandmarkFace.estimate(img) lf.plot()

Note that it might be necessary to upsample the image before the estimation. For convenience the estimate method has an optional parameter n_upsamples.

Once the landmark points are estimated we can move on with performing actions on the face. Let’s try to make the person smile:

from pychubby.actions import Smile a = Smile(scale=0.2) new_lf, df = a.perform(lf) # lf defined above new_lf.plot(show_landmarks=False)

There are 2 important things to note. Firstly the new_lf now contains both the warped version of the original image as well as the transformed landmark points. Secondly, the perform method also returns a df which is an instance of pychubby.base.DisplacementField and represents the pixel by pixel transformation between the old and the new (smiling) image.

To see all currently available actions go to Gallery.

To create an animation of the action we can use the visualization module.

from pychubby.visualization import create_animation ani = create_animation(df, img) # the displacement field and the original image

------------------------------------------------------------------------------------------------------

[2]

PyChubby

Tool for automated face warping

Installation

pip install pychubby

If you get an error FileNotFoundError: [Errno 2] No such file or directory: 'cmake': 'cmake', you need to make sure cmake is installed. If you're on OSX you can install this via Homebrew with:

brew install cmake

For other platforms please consult the Cmake documentation at https://cmake.org/install/

Description

For each face in an image define what actions are to be performed on it, pychubby will do the rest.

Documentation

https://pychubby.readthedocs.io

Minimal Example

import matplotlib.pyplot as plt from pychubby.actions import Chubbify, Multiple, Pipeline, Smile from pychubby.detect import LandmarkFace img_path = 'path/to/your/image' img = plt.imread(img_path) lf = LandmarkFace.estimate(img) a_per_face = Pipeline([Chubbify(), Smile()]) a_all = Multiple(a_per_face) new_lf, _ = a_all.perform(lf) new_lf.plot(show_landmarks=False, show_numbers=False)

CLI

pychubby also comes with a CLI that exposes some of its functionality. You can list the commands with pc --help:

Usage: pc [OPTIONS] COMMAND [ARGS]... Automated face warping tool. Options: --help Show this message and exit. Commands: list List available actions. perform Take an action.

To perform an action (Smile in the example below) and plot the result on the screen

pc perform Smile INPUT_IMG_PATH

or if you want to create a new image and save it

pc perform Smile INPUT_IMG_PATH OUTPUT_IMG_PATH

Development

git clone https://github.com/jankrepl/pychubby.git cd pychubby pip install -e .[dev]

------------------------------------------------------------------------------------------------------

[3]

PyChubby - Automated Face Warping

 2 minute read

Introduction

We all know the story. You ask a random person on a street to take a photo of you and your friends. After a few moments you happily thank them and go on with your life. After some time you finally sit down for a cup of coffee and check your photos. “My god, why is none of us smiling?!”.

First of all, do not panic. It is your lucky day. If you know how to pip install things there might be hope.

pip install pychubby

Once installed, just write something like this:

import matplotlib.pyplot as plt from pychubby.actions import Multiple, Smile from pychubby.detect import LandmarkFace img_path = 'path/to/img.jpg' img = plt.imread(img_path) lf = LandmarkFace.estimate(img) a = Multiple(Smile(0.15)) lf_new, _ = a.perform(lf) lf_new.plot(show_numbers=False)

What is PyChubby

Pychubby is an automated face warping tool. Its main goal is to serve as a specialized augmentation interface for deep learning face related tasks. But it might as well be used as a silly face warping tool (see the introduction).

You might wonder why even bother when one can do similar things with Photoshop and other software. The answer is simple - automation. You do not have to locate any landmarks, move them around and then repeat the procedure on each face in every photo.

Popular image augmentation packages like imgaug are general purpose (any kind of image) and do not provide many options when it comes to geometric transformations. pychubby is specialized on human faces and allows for creation of geometric transformations that are:

  1. Local (on the face)
  2. Smooth (no artifacts)
  3. Realistic (to an extent)

In other words one does not augment the whole image but just the faces. The augmentations are realistic and have no artifacts.

Building blocks

The logic of pychubby can be summarized in three blocks

  1. Landmark Detection
    • Given a photo, a pretrained landmark detection model predicts 68 landmarks on each face.
  2. Reference Space Mapping
    • The landmarks are mapped into a so called reference space. This mapping corrects for possible rotations, translations and scaling in the input image.
  3. Manual Action Definition
    • Majority of pychubby actions are defined in the reference space and therefore should yield consistent warpings across different faces. Go to Gallery to see the predefined ones or feel free to define new ones.

Want to know more?

If you are interested in giving pychubby a try or just want to learn more see below a few useful links:

All potential contributors are more than welcome and any feedback is highly appreciated.

------------------------------------------------------------------------------------------------------

Posted by uniqueone
,
Gradient Boost와 관련 모델 정리 (하나씩 점을 찍어 나가며 / 미스터 흠시)

* 영상 :  StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1 영상

미스터 흠시 님께서 "StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1" 영상을 정리해주신 내용을 공유합니다.

좋은 자료 감사드리며, 사이트 소개해 드립니다.

* Decision Tree
  : https://dailyheumsi.tistory.com/113?category=815369
 
* ML Model Ensemble 과 Bagging, Boosting 개념
  : https://dailyheumsi.tistory.com/111?category=815369

* Random Forest
  : https://dailyheumsi.tistory.com/114?category=815369

* AdaBoost
  : https://dailyheumsi.tistory.com/115?category=815369

* Gradient Boost
  : https://dailyheumsi.tistory.com/116?category=815369

* Catboost
  : https://dailyheumsi.tistory.com/136
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,
From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions

https://www.profillic.com/paper/arxiv:1911.03567

(They survey three state-of-the-art face detection methods based on general images, i.e. Cascade-CNN, MTCNN and PCN, for face detection in camera captured images of identity documents, given different image quality assessments)
https://m.facebook.com/groups/1738168866424224?view=permalink&id=2451285281779242&sfnsn=mo
Posted by uniqueone
,
ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다.

 

논문 제목: Self-training with Noisy Student improves ImageNet classification

[논문 링크: https://arxiv.org/pdf/1911.04252.pdf](https://arxiv.org/pdf/1911.04252.pdf)

ImageNet 데이터셋 기준 Top-1 Accuracy는 87.4%, Top-5 Accuracy는 무려 98.2%!! 를 달성하였는데요, 이제는 어디서든 쉽게 구할 수 있는 외부의 unlabeled 데이터셋을 잘 활용하기 위한 Self-training 기법을 이용하는 것이 핵심 아이디어입니다.

제가 전에 리뷰했던 논문인 EfficientNet (리뷰 글:https://hoya012.github.io/blog/EfficientNet-review/) 을 기반으로 연구를 하였고, 정말 간단한 방법이면서 성능도 좋아서 주목할만한 것 같습니다. 학습 디테일을 제외하면 첨부한 알고리즘 그림 하나만 이해하면 끝이 납니다.

 

또한 결과 분석에서 단순히 정확도만 보는게 아니라, 올해 공개된 Robustness 관련 논문들에서 제안한 데이터셋인 ImageNet-A, ImageNet-C, ImageNet-P 등 알고리즘의 Robustness를 측정하는데 사용되는 test set에 대해서도 SOTA를 달성한 것이 인상깊네요.

 

- ImageNet-A 관련 논문: Natural Adversarial Examples, 2019 arXiv (https://arxiv.org/abs/1907.07174)

- ImageNet-C, ImageNet-P 관련 논문: Benchmarking Neural Network Robustness to Common Corruptions and Perturbations, 2019 ICLR (https://arxiv.org/abs/1903.12261)

 

Classificatin 연구의 동향이 변화하는 과정도 재미가 있기도 하면서, 이제는 뭘 더 할수 있을지 궁금하기도 하네요 ㅎㅎ

 

- 2012~2016: AlexNet, VGG, googLeNet, ResNet, DenseNet, SENet 등 사람이 이런저런 시도를 하면서 그럴싸한 네트워크를 디자인하는 흐름

- 2016~2018: AutoML을 이용한 Neural Architecture Search(NAS)를 이용해서 최적의 구조를 찾고, 탐색에 필요한 시간을 획기적으로 줄이고 줄인 만큼 큰 구조를 만들어내는데 집중

- 2019 초중반: AutoML에서 찾은 구조를 기반으로 사람이 튜닝을 하며 성능 향상

- 2019 중후반: 수십억장의 web-scale extra labeled images를 이용해서 무수히 많은 데이터를 잘 활용하여 ResNeXt로도 SOTA를 달성

- 2019 말(지금): 수십억장의 이미지 대신 unlabeled images 3억장을 써서 Self-Training을 활용하여 SOTA 달성

- 2020: ????
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo

좋은 선생님이 무수히 많은 자료들 속에서 완전 정확하지는 않더라도 요점을 찝어주면(Pseudo Label 생성), 학생은 그걸 보면서 잘 정제된 자료로만 공부하는 친구보다 공부 난이도가 어렵지만 결과적으로 이길 수 있다? 정도로 요약할수있겠네요.
Posted by uniqueone
,
This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks

Github: https://github.com/deezer/spleeter

https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
https://www.facebook.com/groups/DeepNetGroup/permalink/999612590431623/?sfnsn=mo
Posted by uniqueone
,
TF-KR PR-12 206번째 발표는

PointRCNN 이라는 논문입니다.

raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다.

PR-12에서 point cloud와 관련된 발표는 처음이었는데,
저 또한 이 분야에 대해 아직 잘 아는 것은 아니고 알아가는 단계라서 잘못된 표현이나 애매한 표현이 있을 수 있습니다.

혹시 이상한 부분이 있다면 유튭 댓글로 달아주시면 모두에게 도움이 될 거라 생각합니다 :) 

이 분야에 대해 궁금하신 분들이 처음 보시기에는 편할 것 같아요 ^^

영상 링크:
https://www.facebook.com/groups/TensorFlowKR/permalink/1034534186887639/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 SLAM kr!

저도 처음 SLAM이나 localization을 공부할 때 코드 구현에 익숙치 않았는데요,

김기섭 (Paul Giseop Kim) 을 본받아 저는 실제 2D LiDAR 데이터로 Monte Carlo Localization을 구현했던 c++ 기반 ROS 코드 공유합니다. :)

https://github.com/LimHyungTae/mcl_2d_lidar_ros

Indoor환경(그렇게 로봇이 빠르게 움직이지 않는 환경)에서 sensor sync 맞추는 것부터

수식으로 보던 odometry 모델 기반 prediction, weightening, resampling하는 것을 실제 rosbag을 돌려보면서 경험해볼 수 있어

아직 전체 프레임워크에 익숙치 않은 분들이 살펴보시면 좋을 것 같습니다.

SLAM의 optimization의 익숙치 않음을 피하기위해 Map을 만들 때에도 모션캡쳐를 이용해서 만들었습니다.

★코드의 전체적인 틀은 저희 연구실의 초-에이스인 송승원 박사과정 학생이 슬린이들도 쉽게 이해할 수 있도록 구현했습니다.
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,
python for data science cheat sheet using pandas
https://www.facebook.com/groups/DataScienceGroup/permalink/2765377743524098/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, PyTorch KR!

torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요한 경우 gluonnlp에서 word vector를 활용합니다.) 특히 자연어처리 논문을 구현할 때, 필요한 glue code들이 무엇인 지 궁금하신 분들은 Vocab, Tokenizer 등의 코드들을 보시면 좋을 것 같습니다.

아래의 repo에는 주로 sentence classification, pairwise-text classfication의 논문들이 구현되어있으며, 현재 추가적으로 named entity recognition, machine reading comprehension, neural machine translation 등을 구현 중입니다. 한국어 데이터에 대해서 현재 개발중이신 모델이 어느 정도로 구현이 잘 된 것인지 확인하실 때, 참고해주시면 좋을 것 같습니다.

[sentence classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 이전에 박은정님이 공개하신 "naver movie review corpus"입니다.
link : https://github.com/e9t/nsmc

1. Convolutional Neural Networks for Sentence Classification (https://arxiv.org/abs/1408.5882)
2. Character-level Convolutional Networks for Text Classification (https://arxiv.org/abs/1509.01626)
3. Efficient Character-level Document Classification by Combining Convolution and Recurrent Layers (https://arxiv.org/abs/1602.00367)
4. Very Deep Convolutional Networks for Text Classification (https://arxiv.org/abs/1606.01781)
5. A Structured Self-attentive Sentence Embedding
(https://arxiv.org/abs/1703.03130)
6. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (https://arxiv.org/abs/1810.04805)

[pairwise-text classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 송영숙님이 공개하신 "Question pair" 데이터입니다.
link : https://github.com/songys/Question_pair

1. Siamese recurrent architectures for learning sentence similarity (https://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/viewPaper/12195)
2. A Structured Self-attentive Sentence Embedding (https://arxiv.org/abs/1703.03130)
3. Stochastic Answer Networks for Natural Language Inference
(https://arxiv.org/abs/1804.07888)
4. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
(https://arxiv.org/abs/1810.04805)
https://www.facebook.com/groups/PyTorchKR/permalink/1527443790728630/?sfnsn=mo
Posted by uniqueone
,