'Deep Learning'에 해당되는 글 593건

  1. 2019.11.27 State of the art in human-motion transfer! https://www.profillic.com/paper/arxiv:1911.10672 code request link that goes to authors: (link works for laptop/desktop) http://bit.ly/motiontransfer (Their method achieves appearance-controllable synthesis ..
  2. 2019.11.27 이번 ICCV 자료를 보다가, 예전 ICCV / CVPR 영상들을 보니까 좋은 워크샵 / 튜토리얼 영상들이 있더라구요! 컴퓨터 비전 공부하시는 분들께 도움되는 자료가 많은 것 같아 공유합니다 😇 ICCV 2019 ..
  3. 2019.11.26 EfficientDet : Object Detection 분야 11월20일 State-of-the-art(SOTA) 달성 논문 성능도 우수하면서 기존 대비 연산 효율이 압도적으로 좋아 연산량, 연산 속도에서 매우 효율적인 모델이라고 합니다. Image ..
  4. 2019.11.24 Remove motion blur from a blurry image! [https://www.profillic.com/paper/arxiv:1911.08541](https://www.profillic.com/paper/arxiv:1911.08541) (They restore a sharp image by fusing a pair of noisy/blurry images captured in a burst)
  5. 2019.11.23 STATE OF THE ART IN 3D MORPHABLE MODEL OF THE HUMAN HEAD Enormous applications in computer vision, computer graphics, biometrics, and medical imaging. https://www.profillic.com/paper/arxiv:1911.08008
  6. 2019.11.23 ICCV 2019에 참석하여 들은 내용 중에 인상적이었고 흥미로웠던 내용을 정리하여 연구실에서 발표한 자료를 공유합니다! 정리한 주제는 아래와 같습니다. - Medical AI : Registration & MR2CT - Image Synthe..
  7. 2019.11.23 Virtually wear any clothes! [https://www.profillic.com/paper/arxiv:1911.07926](https://www.profillic.com/paper/arxiv:1911.07926) (Researchers from Tokyo develop a Virtual Try-on Generative Adversarial Network (VITON-GAN), that generates virtual try-on..
  8. 2019.11.23 안녕하세요, TF-KR 여러분! 그동안 많은 좋은 정보들을 눈팅만 하다가 여러분께 의견을 구하고 싶은 것이 있어 처음으로 글을 남깁니다! 내용은 시계열 데이터들을 변화 양상에 따라 유사한 ..
  9. 2019.11.22 안녕하세요. 인공지능연구원 정정민입니다. 회사 내부 세미나에서 SinGAN 논문을 발표했습니다. ICCV 2019에서 Best paper 상을 받은 논문입니다. 사용했던 자료를 공유드립니다. 도움이 되셨으면 좋..
  10. 2019.11.22 Surreal high-quality re-enactments of famous figures https://www.profillic.com/paper/arxiv:1911.08139 (outperforms on the identity preservation problem)
  11. 2019.11.22 안녕하세요, 수아랩(코그넥스) 이호성이라고 합니다. 이틀 전 공개된 논문이 결과가 인상깊어서 빠르게 리뷰를 해보았습니다. 논문의 제목은 "EfficientDet: Scalable and Efficient Object Detection" 이..
  12. 2019.11.20 "Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다. 저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어..
  13. 2019.11.19 CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf)) 를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv..
  14. 2019.11.18 [간략하게 읽어볼만한 글] “Do we still need models or just more data and compute?” - Max Welling, April 20 2019 https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf . Max Welling 교수님은 제가 정말 좋아..
  15. 2019.11.18 TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다 이번 논문은 YOLO v3입니다. 매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히..
  16. 2019.11.18 안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다. 이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised vis..
  17. 2019.11.17 안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다! 팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요, 이번에는 얼마전에 딥마인드에서 공개한 알파스.. 1
  18. 2019.11.17 Transforming realistic photos into cartoon style images!😅 https://www.profillic.com/paper/arxiv:1911.06102 (Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
  19. 2019.11.15 https://github.com/JONGGON/Gluon-Detector Retina SSD YoloV3 구현 을 마쳤습니다.
  20. 2019.11.15 안녕하세요 여러분! 얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁 신기한 것들 많이 보고 와서 너무 좋았습니다! 학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇..
  21. 2019.11.13 From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions https://www.profillic.com/paper/arxiv:1911.03567 (They survey three state-of-the-art face detection methods based on general images, i.e. Casc..
  22. 2019.11.13 ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다. 논문 제목: Self-training with Noisy Student improves ImageNet classification [논문 링크: https://arxiv.org/pdf/1911.04252...
  23. 2019.11.12 This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks Github: https://github.com/deezer/spleeter https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
  24. 2019.11.12 TF-KR PR-12 206번째 발표는 PointRCNN 이라는 논문입니다. raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다. PR-12에서 point cloud와 관련된 발표는 처음이었는데, 저 또한 이 분야에 대해 ..
  25. 2019.11.11 안녕하세요, PyTorch KR! torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요..
  26. 2019.11.08 안녕하세요!!! 이전 대회들의 솔루션을 캐글에서 모아줬네요!! 이러니 캐글을 안할수가 있나요!! 어여 공부 킵고잉 합시다!!
  27. 2019.11.08 안녕하세요 박찬준 입니다. 최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다. 딥러닝의 기초 인 ANN, DNN, CN..
  28. 2019.11.08 모두의연구소 - AI COLLEGE 소식 오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습..
  29. 2019.11.07 안녕하세요 박찬준입니다. OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다. 기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하..
  30. 2019.11.05 [Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
State of the art in human-motion transfer!

https://www.profillic.com/paper/arxiv:1911.10672

code request link that goes to authors: (link works for laptop/desktop) http://bit.ly/motiontransfer

(Their method achieves appearance-controllable synthesis with higher video quality than state-of-art based on only one-time training)
https://www.facebook.com/groups/DeepNetGroup/permalink/1014152448977637/?sfnsn=mo
Posted by uniqueone
,
이번 ICCV 자료를 보다가, 예전 ICCV / CVPR 영상들을 보니까 좋은 워크샵 / 튜토리얼 영상들이 있더라구요! 컴퓨터 비전 공부하시는 분들께 도움되는 자료가 많은 것 같아 공유합니다 😇

ICCV 2019 튜토리얼 / 워크샵 영상 모음

https://www.notion.so/torchvision/ICCV-2019-41b81ab87c20488899dfbf88e64af24b

 CVPR 2018 튜토리얼 / 워크샵 영상 모음

https://www.notion.so/torchvision/CVPR-2018-a5b487951048478483c7b89ed8fa4bc6

ICCV 2017 튜토리얼 / 워크샵 영상 모음

https://www.notion.so/torchvision/ICCV-2017-a838641aacaf46daa0c25989d1b47b3f

 CVPR 2017 튜토리얼 / 워크샵 영상 모음

https://www.notion.so/torchvision/CVPR-2017-a21294057f9941638d0f689fa8227b60
https://www.facebook.com/groups/datakorea/permalink/1349148285253979/?sfnsn=mo
Posted by uniqueone
,
EfficientDet : Object Detection 분야 11월20일 State-of-the-art(SOTA) 달성 논문

성능도 우수하면서 기존 대비 연산 효율이 압도적으로 좋아 연산량, 연산 속도에서 매우 효율적인 모델이라고 합니다.

Image Classification 을 위한 EfficientNet을 Object Detection에 접목시켜서 매우 우수한 성능을 달성.

Google Research, Brain Team 의 논문.

정확하게는 모르지만, 자료만 보면

기존에 정확율은 좀 떨어지더라도 연산량/속도에서 YOLO 가 가장 좋은 편이라고 알고 있었는데

이 논문은 연산량/속도 효율성과 정확도에서 모두 압도적인 것 같네요.

자세한 내용은 아래 링크해 놓은 논문과 이 논문을 리뷰한 글 보세요.

논문: https://arxiv.org/pdf/1911.09070v1.pdf

한글 리뷰: https://hoya012.github.io/blog/EfficientDet-Review/
https://www.facebook.com/groups/KerasKorea/permalink/3137953302887280/?sfnsn=mo
Posted by uniqueone
,
Remove motion blur from a blurry image!
[https://www.profillic.com/paper/arxiv:1911.08541](https://www.profillic.com/paper/arxiv:1911.08541)

(They restore a sharp image by fusing a pair of noisy/blurry images captured in a burst)
https://www.facebook.com/groups/PyTorchKR/permalink/1539376382868704/?sfnsn=mo
Posted by uniqueone
,
STATE OF THE ART IN 3D MORPHABLE MODEL OF THE HUMAN HEAD
Enormous applications in computer vision, computer graphics, biometrics, and medical imaging.
https://www.profillic.com/paper/arxiv:1911.08008
https://www.facebook.com/groups/DeepNetGroup/permalink/1008757379517144/?sfnsn=mo
Posted by uniqueone
,
ICCV 2019에 참석하여 들은 내용 중에 인상적이었고 흥미로웠던 내용을 정리하여 연구실에서 발표한 자료를 공유합니다!

정리한 주제는 아래와 같습니다.
- Medical AI : Registration & MR2CT
- Image Synthesis : Seeing What a GAN Cannot Generate
- XAI
- SinGAN

많은 분들께 도움이 되었으면 좋겠습니다😀
문제될 경우 삭제하도록 하겠습니다.

링크 : https://www.slideshare.net/mobile/DongminChoi6/iccv-2019-review-cdm

※ 참고로 피피티 내용은 학회에 참관하며 찍은 사진을 바탕으로 발표자 분의 피피티와 비슷하게 구성하였습니다.
https://www.facebook.com/groups/TensorFlowKR/permalink/1041013296239728/?sfnsn=mo
Posted by uniqueone
,
Virtually wear any clothes!

[https://www.profillic.com/paper/arxiv:1911.07926](https://www.profillic.com/paper/arxiv:1911.07926)

(Researchers from Tokyo develop a Virtual Try-on Generative Adversarial Network (VITON-GAN), that generates virtual try-on images using images of in-shop clothing and a model person)
https://www.facebook.com/groups/DeepNetGroup/permalink/1009657776093771/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, TF-KR 여러분!

그동안 많은 좋은 정보들을 눈팅만 하다가 여러분께 의견을 구하고 싶은 것이 있어 처음으로 글을 남깁니다!

내용은 시계열 데이터들을 변화 양상에 따라 유사한 것들끼리 클러스터링 하고자 하는 것입니다.

아래 이미지는 5개 데이터 샘플의 그래프이고 총 10,000여개 정도의 데이터를 가지고 있습니다.

파생 변수를 생성하여 파생 변수를 통해 클러스터링을 진행해보기도 했는데 근본적인 데이터 흐름에 따른 클러스터링을 하고 싶습니다.

그래프 이미지를 클러스터링하는 방법도 있을 것 같은데 감을 잡기도, 방법을 찾는 것도 너무 만만치가 않네요…ㅎㅎㅎ

5개의 그래프가 그려져있는 각각의 이미지는 같은 데이터들을 grouping하는 범위만 다르게 한 것입니다.

좋은 방법이나 참고할만한 좋은 자료를 추천해주시면 너무 감사하겠습니다ㅠㅠ

가장 간단하게는 tslearn 패키지로 시작해보세요. time-series clustering method들을 함수로 정의해놓은 sklearn같은 패키지입니다. 그리고 보통 time series에 한해서는 time-dependent measure (distance-based clustering의 경우..) Dynamic Time Warping distance가 많이 거론되니 공부해보시고.... 위에 댓글 남겨주신 것처럼 deep learning으로 넘어오게 되면 autoencoder, seq2seq autoencoder로 latent representation을 학습한 후에 그것들의 클러스터를 구하는 방법도 논문에서 많이 찾아볼 수 있습니다. 기본적으로 어떤 방법들이 그동안 연구되었는지 보고 싶으시면 Survey on time-series clustering 요런 식으로 검색해보세요.

grouping 문제도 결국 feature space상에서 어떻게 cluster를 만들어 갈 것이냐 하는 문제라서 각 그래프들의 feature를 어떻게 뽑아낼 것인지를 고민하는 문제로 바꿔 생각해볼 수 있을듯합니다. 간단하게는 autoencoder부터 돌려보시고, meta learning쪽 둘러보신 후에 clustering은 전통의 knn같은 것으로 묶어보심 어떨까요



https://www.facebook.com/groups/PyTorchKR/permalink/1539376382868704/?sfnsn=mo
Posted by uniqueone
,
안녕하세요. 인공지능연구원 정정민입니다. 회사 내부 세미나에서 SinGAN 논문을 발표했습니다. ICCV 2019에서 Best paper 상을 받은 논문입니다. 사용했던 자료를 공유드립니다. 도움이 되셨으면 좋겠습니다^^
https://www.facebook.com/groups/TensorFlowKR/permalink/1043767235964334/?sfnsn=mo
Posted by uniqueone
,
Surreal high-quality re-enactments of famous figures

https://www.profillic.com/paper/arxiv:1911.08139

(outperforms on the identity preservation problem)
https://www.facebook.com/groups/DeepNetGroup/permalink/1008865839506298/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩(코그넥스) 이호성이라고 합니다.

이틀 전 공개된 논문이 결과가 인상깊어서 빠르게 리뷰를 해보았습니다.

논문의 제목은 "EfficientDet: Scalable and Efficient Object Detection" 이며 제가 지난번에 소개드렸던 EfficientNet을 Object Detection에 접목시켜서 매우 우수한 성능을 달성시킨 논문입니다.

첨부드린 그림을 보시면 아시겠지만, 기존 연구들대비 정확도도 매우 우수하고, 연산량 자체도 굉장히 효율적으로 사용하고 있는 것을 알 수 있습니다. 이 글을 쓰고있는 현 시점에서는 Object Detection 분야에서는 State-of-the-art(SOTA)를  달성한 논문입니다!

논문 자체는 잘 쓰여져 있고, 이해하기 쉬워서 내용을 그대로 잘 정리하여 글로 작성을 하여 블로그에 올려두었습니다. 공부하시는데 도움이 되셨으면 좋겠습니다!

논문 링크: https://arxiv.org/pdf/1911.09070v1.pdf
블로그 글: https://hoya012.github.io/blog/EfficientDet-Review/
https://www.facebook.com/groups/PyTorchKR/permalink/1539376382868704/?sfnsn=mo
Posted by uniqueone
,
"Computer Vision and Visual SLAM vs. AI Agents" 라는 제목의 재밌는 포스팅이 있어 공유드립니다.

저도 항상 고민하는 부분인데 연구레벨을 벗어나서 실제 어플리케이션까지 갔을 때 CV/SLAM에서 AI가 어떤 부분에서 장점이 있고 어느 부분까지 스며들 수 있는지, 어떻게 기존의 방법들과 융화될 수 있을지에 대해서 다시금 생각하게 해주는 글인것 같습니다.

최근 서울에서 개최되었던 ICCV 2019에서 나왔던 이슈들도 인용이 많이 되어 있어서 아주 따끈따끈하네요😁
https://www.facebook.com/groups/slamkr/permalink/1022417871451190/?sfnsn=mo
Posted by uniqueone
,
CAGFace ([https://arxiv.org/pdf/1910.08761.pdf](https://arxiv.org/pdf/1910.08761.pdf))

를 구현하고 있습니다. 구현과정 중 메모리 문제 때문에 stage2 과정을 생략하고 backbone을 거친 뒤 바로 x4 upsampling을 하고 conv를 두번 쌓아 이미지를 반환하였고 논문에서와 같이 smooth l1 loss 를 사용하였습니다.

batchnorm을 upsampling과정에 넣으면 학습은 잘 되는데 loss가 잘 떨어지지 않아 batchnorm을 넣고 중간중간 lr을 조정해가면서 훈련시킨결과 다음과 같은 결과를 얻었는데

모든 이미지에 대해 이미지의 채도를 명확하게 묘사해내지 못한다는 사실을 발견하였습니다. training loss 값을 고려해보았을 때(약 0.004) 이미지의 pixel간 평균적인 차이는 22pixel 정도로 보아야 마땅한 데 output image는 거의 흑백이미지에 가깝기 때문에 평균적인 차이가 어떻게 22pixel 정도인지도의문입니다.

앞으로 어떤 방향으로 시도를 해보아야할 지 몰라서 게시물을 작성하게 되었는데요

1. stage1 에서 무리하게 x4 upsampling 한 것이 문제이기 때문에 stage2 까지 구현 후 다시 훈련시ㅋ본다.

2. stage1 뒤에 downsample(space-to-depth)를 한 후 처음 input image를 더하여 pixel 정보를 보정시킨후 다시 upsampleing 하는 refinement module 을 고안해본다.

아니면 pixel 정보를 보정할 수 있는 다른 방법을 고안.

3. 마지막 conv3x3 (channel : 256 -> 3) 을 한 후에 relu를 쓰지말고 sigmoid 를 써서 훈련을 시켜본다. (image 값은 0~1) 이므로 이경우 loss가 잘 떨어지지 않는 문제가 발생합니다.
https://www.facebook.com/groups/TensorFlowKR/permalink/1041218709552520/?sfnsn=mo
Posted by uniqueone
,
[간략하게 읽어볼만한 글]
“Do we still need models or just more data and compute?” - Max Welling, April 20 2019
https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI.pdf
.
Max Welling 교수님은 제가 정말 좋아하는 ML scientist 들 중 한 분 입니다. Variational autoencoder 을 비롯한 Bayesian deep learning 을 연구해오셨고, Graph convolutional network 도 Max Welling group 에서 나온 논문입니다.
ML 분야에서 대가라고 할 수 있는 Max Welling 교수님의 위 제목과 같은 기고문이 있는데, 현재 ML 연구방식의 한계와 연구되어야할 방향에 대해서 생각해보게끔 하는 글입니다.
.
1. Max Welling 교수님은 본인이 “기본적으로 컴퓨팅 파워의 중요성“을 믿는다고 합니다. Qualcomm 에서 part-time position으로 재직하고 있는 이유 중 하나도, AI의 발전을 이끄는 가장 빠른 방향 중 하나는 AI computation 을 위한 hardware 를 개발하는 것이라고 생각하신다고 합니다.
.
2. Computation 과 별개로, “data”는 ML의 가장 raw material임을 잊지 말아야한다고 하면서, 현재 연구방향의 한계점과 나아가야할 방향에 대한 의견을 시작합니다. 잘 정의가 되어있는 문제 및 도메인 - data를 충분한 양을 생성할 수 있는 경우 (e.g. AlphaGo), data를 충분히 얻을 수 있는 경우 (e.g. speech) 에서는 deep learning과 같은 “data driven, discriminative, black-box” 방법이 잘 동작할 수 있고, 이런 경우는 “interpolation problem” 으로 볼 수 있다고 합니다.
.
3. 하지만 “extrapolation problem” 의 경우에 대해서 문제가 시작된다고 말씀합니다.
“There is no predictions without assumptions, no generalization without inductive bias”
말씀을 ML 연구기간 동안 가장 인상깊게 생각한다 (recall one thing most vividly) 고 말씀하십니다.
사족) 개인적으로 이 말이 너무너무너무 멋있고, ML연구 관련하여 들은 말 중에서 가장 기억하고 싶은 말 줄 하나로 생각하고 싶습니다.

ML의 bias-variance trade-off를 지적하시면서
- Data가 충분한 경우에는, 많은 human inductive bias를 모델에 주입할 필요가 없고, “데이터가 말하게 하라(let the data speak)” 고 하면 되지만,
- 그렇지 않은 경우에는, human-knowledge를 불어넣어주어서 그 gap을 채워주어야 한다.
- Extrapolation의 상황에서, 즉 새로운 도메인에 sparse한 data로 training한 모델을 적용하는 경우 모델을 쉽게 fail할 거라고 합니다.

Game과 같은 문제(e.g. AlphaGo, Starcraft, …)에서는 input domain 은 잘 정의되어있고, 우리는 완벽한 simulator를 가지고 있기 때문에, 이런 경우에서 모델 개발의 bottleneck은 “data가 아니라 computation이다.” 라는 말씀을 하십니다. 또 하나 인상깊은 지적입니다.

반면에 self-driving car 와 같은 문제는 언제나 long-tail/exceptional situation이 있기 때문에, 아무리 human이 inductive bias/prior-knowledge를 simulator등을 이용해 고려하여도 이는 때로는 너무 단순해서, 다양한 상황을 simulation하기 어려울 수 있다고 지적합니다.
.
4. 하지만, 한 가지 희망이 있다면 그 방향은 “forward, generative, causal direction” 이라고 지적하십니다.
- Generative model은 unseen domain 에 대한 generalization 에 (discriminative 모델보다) 더 낫다.
- Causality는 한 도메인에서 다른 도메인으로의 model 의 적용을 가능케 한다, 예시) 교통사고는 네덜란드에서는 검은색 차량과 상관성이 높을 수 있지만, 미국에서의 빨간색 차량과 상관성이 높을 수 있다. 색깔을 바탕으로 predictor를 만드는 것은 generalize할 수 없지만, male testerone level와 같은 “causal factor”는 generalize할 수 있게 해줄 것이다.
- Human은 만나보지 않은 상황(conterfactual worlds)에 대해 시뮬레이션/상상할 수 있는 뛰어난 능력이 있다. 이는 물리법칙, 심리적 요소에 대한 human의 능력에 기반한다.
와 같은 일종의 연구 direction을 제시하십니다.
.
개인적으로, 이 기고문이 저에게 많은 교훈을 준 것 같습니다. 저는 이미지, 자연어, 음성과 같은 일종의 sensory 데이터를 주로 다뤄왔다기 보다는, 분자와 같은 좀 더 물리/화학/생명쪽과 같은 자연현상에 관심을 가져왔기 때문에, 이 자연현상을 governing하는 universal law를 잘 모델링할 수 있지않을까라는 생각을 종종하고는 하는데, physics law를 inductive bias로 machine에게 불어넣어주기, causality 등이 저에게 연구방향이 되지않을까 합니다.
https://m.facebook.com/story.php?story_fbid=2438975229757338&id=100009346535102&sfnsn=mo
Posted by uniqueone
,
TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다

이번 논문은 YOLO v3입니다.

매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히 특색있는 one-stage algorithm입니다. 이 논문에서는 YOLO v2(YOLO9000) 이후에 성능 향상을 위하여 어떤 것들을 적용하였는지 하나씩 설명해주고 있습니다. 또한 MS COCO의 metric인 average mAP에 대해서 비판하면서 mAP를 평가하는 방법에 대해서도 얘기를 하고 있는데요, 자세한 내용은 영상을 참고해주세요~

영상링크: https://youtu.be/HMgcvgRrDcA

논문링크: https://arxiv.org/abs/1804.02767

발표자료: https://www.slideshare.net/JinwonLee9/pr207-yolov3-an-incremental-improvement
https://www.facebook.com/groups/TensorFlowKR/permalink/1039655006375557/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다.
이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised visual representation learning overview: Toward Self-Supervision" 입니다.

딥러닝의 성능을 높이기 위해선 양질의 데이터가 필요한 것은 다들 잘 알고 계실 거라 생각합니다.
Supervised Learning 방식은 많은 수의 데이터가 있으면, 데이터에 대한 Label도 필요로 하게 되고 이 과정에서 많은 비용이 필요하게 됩니다.
이러한 점에 주목한 여러 연구들 중 Unsupervised Learning 연구 분야의 하위 주제인 "Self-Supervised Learning" 에 대해 리뷰를 하였습니다.
주요 논문들을 간략하게 소개드리며 연구 흐름을 소개드리고 어떠한 방법들이 제안이 되었는지, 어떠한 방식으로 성능을 평가하는지 등을 다루고 있습니다. 자세한 내용은 영상을 참고하시면 좋을 것 같습니다. 감사합니다!

영상링크: https://youtu.be/eDDHsbMgOJQ
발표자료: https://www.slideshare.net/HoseongLee6/unsupervised-visual-representation-learning-overview-toward-selfsupervision-194443768
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다!

팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요,

이번에는 얼마전에 딥마인드에서 공개한 알파스타 논문 리뷰를 진행해 보았습니다.

알파 스타의 뉴럴넷 구조, 학습 방법, 리그 구성방법에 대해 논문에 나와 있는 정보를 나름대로 상세히 정리하여보았습니다.

혹시 관심 있으신 분은 참고 부탁드립니다.

감사합니다.

[https://www.youtube.com/watch?v=6Thu5vlDc6Y](https://www.youtube.com/watch?v=6Thu5vlDc6Y)
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
Transforming realistic photos into cartoon style images!😅
https://www.profillic.com/paper/arxiv:1911.06102

(Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
https://www.facebook.com/groups/DeepNetGroup/permalink/1004183859974496/?sfnsn=mo
Posted by uniqueone
,
https://github.com/JONGGON/Gluon-Detector

Retina SSD YoloV3 구현 을 마쳤습니다.
https://www.facebook.com/groups/mxnetkr/permalink/2708115322552558/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 여러분!

얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁
신기한 것들 많이 보고 와서 너무 좋았습니다!

학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇개는 제가 촬영한게 아닌 것도 있어서 출처 표기했습니다! 도움이 되었으면 좋겠습니다!

1. ICCV 정리 페이지 링크:
https://tinyurl.com/vzqm33f

2. 딥러닝 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/t94nuqt

3. SLAM, 3D 비전 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/ur8ot9n
https://www.facebook.com/groups/TensorFlowKR/permalink/1036795166661541/?sfnsn=mo
Posted by uniqueone
,
From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions

https://www.profillic.com/paper/arxiv:1911.03567

(They survey three state-of-the-art face detection methods based on general images, i.e. Cascade-CNN, MTCNN and PCN, for face detection in camera captured images of identity documents, given different image quality assessments)
https://m.facebook.com/groups/1738168866424224?view=permalink&id=2451285281779242&sfnsn=mo
Posted by uniqueone
,
ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다.

 

논문 제목: Self-training with Noisy Student improves ImageNet classification

[논문 링크: https://arxiv.org/pdf/1911.04252.pdf](https://arxiv.org/pdf/1911.04252.pdf)

ImageNet 데이터셋 기준 Top-1 Accuracy는 87.4%, Top-5 Accuracy는 무려 98.2%!! 를 달성하였는데요, 이제는 어디서든 쉽게 구할 수 있는 외부의 unlabeled 데이터셋을 잘 활용하기 위한 Self-training 기법을 이용하는 것이 핵심 아이디어입니다.

제가 전에 리뷰했던 논문인 EfficientNet (리뷰 글:https://hoya012.github.io/blog/EfficientNet-review/) 을 기반으로 연구를 하였고, 정말 간단한 방법이면서 성능도 좋아서 주목할만한 것 같습니다. 학습 디테일을 제외하면 첨부한 알고리즘 그림 하나만 이해하면 끝이 납니다.

 

또한 결과 분석에서 단순히 정확도만 보는게 아니라, 올해 공개된 Robustness 관련 논문들에서 제안한 데이터셋인 ImageNet-A, ImageNet-C, ImageNet-P 등 알고리즘의 Robustness를 측정하는데 사용되는 test set에 대해서도 SOTA를 달성한 것이 인상깊네요.

 

- ImageNet-A 관련 논문: Natural Adversarial Examples, 2019 arXiv (https://arxiv.org/abs/1907.07174)

- ImageNet-C, ImageNet-P 관련 논문: Benchmarking Neural Network Robustness to Common Corruptions and Perturbations, 2019 ICLR (https://arxiv.org/abs/1903.12261)

 

Classificatin 연구의 동향이 변화하는 과정도 재미가 있기도 하면서, 이제는 뭘 더 할수 있을지 궁금하기도 하네요 ㅎㅎ

 

- 2012~2016: AlexNet, VGG, googLeNet, ResNet, DenseNet, SENet 등 사람이 이런저런 시도를 하면서 그럴싸한 네트워크를 디자인하는 흐름

- 2016~2018: AutoML을 이용한 Neural Architecture Search(NAS)를 이용해서 최적의 구조를 찾고, 탐색에 필요한 시간을 획기적으로 줄이고 줄인 만큼 큰 구조를 만들어내는데 집중

- 2019 초중반: AutoML에서 찾은 구조를 기반으로 사람이 튜닝을 하며 성능 향상

- 2019 중후반: 수십억장의 web-scale extra labeled images를 이용해서 무수히 많은 데이터를 잘 활용하여 ResNeXt로도 SOTA를 달성

- 2019 말(지금): 수십억장의 이미지 대신 unlabeled images 3억장을 써서 Self-Training을 활용하여 SOTA 달성

- 2020: ????
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo

좋은 선생님이 무수히 많은 자료들 속에서 완전 정확하지는 않더라도 요점을 찝어주면(Pseudo Label 생성), 학생은 그걸 보면서 잘 정제된 자료로만 공부하는 친구보다 공부 난이도가 어렵지만 결과적으로 이길 수 있다? 정도로 요약할수있겠네요.
Posted by uniqueone
,
This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks

Github: https://github.com/deezer/spleeter

https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
https://www.facebook.com/groups/DeepNetGroup/permalink/999612590431623/?sfnsn=mo
Posted by uniqueone
,
TF-KR PR-12 206번째 발표는

PointRCNN 이라는 논문입니다.

raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다.

PR-12에서 point cloud와 관련된 발표는 처음이었는데,
저 또한 이 분야에 대해 아직 잘 아는 것은 아니고 알아가는 단계라서 잘못된 표현이나 애매한 표현이 있을 수 있습니다.

혹시 이상한 부분이 있다면 유튭 댓글로 달아주시면 모두에게 도움이 될 거라 생각합니다 :) 

이 분야에 대해 궁금하신 분들이 처음 보시기에는 편할 것 같아요 ^^

영상 링크:
https://www.facebook.com/groups/TensorFlowKR/permalink/1034534186887639/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, PyTorch KR!

torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요한 경우 gluonnlp에서 word vector를 활용합니다.) 특히 자연어처리 논문을 구현할 때, 필요한 glue code들이 무엇인 지 궁금하신 분들은 Vocab, Tokenizer 등의 코드들을 보시면 좋을 것 같습니다.

아래의 repo에는 주로 sentence classification, pairwise-text classfication의 논문들이 구현되어있으며, 현재 추가적으로 named entity recognition, machine reading comprehension, neural machine translation 등을 구현 중입니다. 한국어 데이터에 대해서 현재 개발중이신 모델이 어느 정도로 구현이 잘 된 것인지 확인하실 때, 참고해주시면 좋을 것 같습니다.

[sentence classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 이전에 박은정님이 공개하신 "naver movie review corpus"입니다.
link : https://github.com/e9t/nsmc

1. Convolutional Neural Networks for Sentence Classification (https://arxiv.org/abs/1408.5882)
2. Character-level Convolutional Networks for Text Classification (https://arxiv.org/abs/1509.01626)
3. Efficient Character-level Document Classification by Combining Convolution and Recurrent Layers (https://arxiv.org/abs/1602.00367)
4. Very Deep Convolutional Networks for Text Classification (https://arxiv.org/abs/1606.01781)
5. A Structured Self-attentive Sentence Embedding
(https://arxiv.org/abs/1703.03130)
6. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (https://arxiv.org/abs/1810.04805)

[pairwise-text classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 송영숙님이 공개하신 "Question pair" 데이터입니다.
link : https://github.com/songys/Question_pair

1. Siamese recurrent architectures for learning sentence similarity (https://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/viewPaper/12195)
2. A Structured Self-attentive Sentence Embedding (https://arxiv.org/abs/1703.03130)
3. Stochastic Answer Networks for Natural Language Inference
(https://arxiv.org/abs/1804.07888)
4. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
(https://arxiv.org/abs/1810.04805)
https://www.facebook.com/groups/PyTorchKR/permalink/1527443790728630/?sfnsn=mo
Posted by uniqueone
,
안녕하세요!!!

이전 대회들의 솔루션을
캐글에서 모아줬네요!!

이러니 캐글을 안할수가 있나요!!

어여 공부 킵고잉 합시다!!
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/523044635094307/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 박찬준 입니다.

최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다.

딥러닝의 기초 인 ANN, DNN, CNN, RNN 까지 Pytorch와 Keras 코드로 기초부터 학습해볼 수 있게 만들었습니다.

Keras 같은 경우 오늘 아침에 공부하고 만든거라 조금 이상할 수도 있습니다.

해당 URL 첨부드립니다.

https://github.com/Parkchanjun/DeepLearning_Basic_Tutorial

Colab에서 Import 후 사용해주세요.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2340034552902438/?sfnsn=mo
Posted by uniqueone
,
모두의연구소 - AI COLLEGE 소식

오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습니다.


뒷부분은 너무 재밌어 몰입하느라 적지 못했지만 간단히 정리해보면,
라이다의 3세대

1 세대 : Velodyne Lidar
- 스피닝 방식. 회전을 하며 360도를 촬영함 . 단점은 내구성이 낮음

2 세대 :  Mechanical Scanning -IBEO
- 내구성이 좋아짐
- 단점 : 물체가 있다. 없다. 정도만 인식 가능

3세대 : Hybrid Scanning (SOS LAB이 쓰는 것)
- 굉장히 빠른 스캐닝
- 3cm 의 오차정확도
- 360도는 촬영을 못함
- 150도의 3D 모델링 가능

라이다 시스템 : Transmitter
- 사람의 눈에  905nm  이상은 사람의 각막에 안좋음
- 하지만 1550nm 이상은 사람 각막을 뚫지 못함
-최근 연구에 사람 각막은 뚫지 못하지만 카메라에 데이지 입힘

라이다 응용분야 :
- 항공
- 군사
- 토목,건축
- 지리 정보 시스템
- 자율주행 자동차

자율주행자동차 :
-자율주행 레벨 5 :
사람이 상상하는 진짜 자율주행을 레벨 5라고 한다.(진짜 자율주행 : 사람이 전혀 운전하지 않아도 주행)


현재 테슬라의 자율주행은 레벨3 정도
레벨 4 : 객체를 인식해서 자동으로 피하는 정도.(우버, 바이두 ,웨이모)
레벨 5 : 레벨 5와 레벨4의 다른점은 레벨4가 성숙되어 조향장치가 없는 자동차

자율주행을 위한 자동차는 센서가 굉장히 많이 필요하다. (현재의 기술로는)

자율주행 자동차를 위한 데이터 수집

- 각 회사, 나라에서 데이터셋을 구축하는데 노력을 많이 하고 있다.
- 이유는 인도에서 잘 되는 자율주행자동차가 한국에서 잘 되진 않는다.
(인도에서는 거리에서 소가 지나가님)

자율주행의 핵심 요소:

1. 개체 인식
2. 위치 추정(SLAM)
3. 센서/감지
4. 경로 계획/제어



딥러닝이 자율주행에 가장 실용적으로 적용되는 분야는 Recognition 이다.

- 딥러닝이 아무리 잘되도 input이 garbage면 예측이 어렵다.
(자율주행에서는 터널에서 나왔을때 갑자기 밝은 빛이 들어오는 경우)

-이미지 기반의 딥러닝이 아무리 잘된다고 하더라도(99%이상이더라도) 1%의 미스가 큰 사고로 이어짐
- 그래서 이미지와 라이다 등 다른 정보들을 사용해서 모델의 성능을 높이는 연구가 많이 되고 있음

자율주행에서의 객체인지란?
- 내가 주행하고 있을때 주위의 위치, 방향(X,Y,Z)
- 2D와는 다르게 3차원이어야함

라이다 point cloud를 이용한 object detection?

-라이다에서 얻어지는 포인터 클라우드는 데이터의 연관성이 전혀 없다.
-포인트 클라우드는 규칙적이지 않다.(포인트의 갯수가 항상 일정하지 않다.)
-라인다 포인트 클라우드는 덴시티가 전부 다르다. (멀리서 찍으면 포인터가 sparse하다)

궁금점 : 같은 오브젝트를 같은 각도, 같은 distance에서 두번 찍엇을때 포인터 클르우드의 포인터 갯수가 달라지나?
- > 답변 : 거의 비슷하지만 다른 객체가 배경에 있다면 Index가 달라짐

oxelization :
Voxelization + 3D CNN
- Voxel 만드는 과정에서 cost가 굉장히 많이 든다.
- 정확도에서는 장점이 있음
- Voxelization 에 딥러닝을 적용하여 가장 잘 된 논문
- Voxel NET
포인터 클라우드를 일렬로 넣고 피쳐 임베딩을 계속 시킴

내가 한 질문 : 이거 겁나 느릴것 같은데?
6~10 FPS 정도 나온다.
그러면 자율주행에서 안전하다고 기준되는 바운더리의 값은 몇이냐?
레이더에서는 10FPS 정도이다( 라이다는 200미터 앞을 측정할 수 있기에 기준이 낮다.)
카메라에서는 60 FPS 정도로 본다.

2D Projection + 2D CNN
일단 형태를 2D로 만들고  딥러닝에 넣자.

MV3D
라이다  3D 데이터를 카메라랑 똑같은
RGB, bird eye view , Front view 세가지를 CNN에 넣고 feature를 뽑은 다음 concat 함

Frustum PointNets

1. 카메라에서 먼저 2D object detection을 함
2. detection 한 부분에서만 포인트 클라우드 적용



정말 좋은 세미나 였습니다. 이용이 박사님, SOS LAB함께 모두연  AI COLLEGE  달려보겠습니다!
https://www.facebook.com/groups/modulabs/permalink/2561195253945642/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 박찬준입니다.

OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다.

기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하였습니다.

추후 Transformer 모델 Tutorial도 공개하도록 하겠습니다.

https://github.com/Parkchanjun/OpenNMT_Library_Tutorial_Using_Colab

Colab에서 실행해주세요
https://lionbridge.ai/articles/what-is-facial-recognition/
Posted by uniqueone
,
[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation

---

Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.

그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)

XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27

---

이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.

- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature

마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.

마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.

원문의 링크는 아래와 같습니다.

https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed

#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
Posted by uniqueone
,