'Deep Learning'에 해당되는 글 593건

  1. 2019.10.14 [Categorical/Tools] Category Encoders 데이터는 크게 2가지 타입으로 나뉩니다. (이 부분의 디테일 한 내용은 다음 글을 참고하면 됩니다. https://subinium.github.io/basic-of-data/) - 수치형 데이터(numerical) - ..
  2. 2019.10.13 From Satellites to 3D reconstruction! ICCV 2019: Papers that foretell the future of computer vision #computervision #futureofcomputervision #3dreconstruction
  3. 2019.10.13 ICYMI: NADS-Net: Driver and Seat Belt Detection via Convolutional Neural Network! https://www.profillic.com/paper/arxiv:1910.03695
  4. 2019.10.11 안녕하세요, 수아랩의 이호성입니다. 이번 ICCV 2019에 accept된 Object Detection 주제의 논문 "Gaussian YOLOv3. An Accurate and Fast Object Detector Using Localization Uncertainty for Autonomous Driving"을 한글로 리뷰하여 ..
  5. 2019.10.08 안녕하세요 :) 금요일에 찬성님이 공유해주신 Full Stack Deep Learning Bootcamp 강의가 너무 좋아 바로 강의를 듣고 정리했습니다 단순히 Production할 때 Serving을 어떻게 해야한다 이런 한정적 내용만 ..
  6. 2019.10.07 Hi guys, Do you want to build computer vision models for cattle monitoring? I the COCO json, masks, and images freely available here: https://nsmb.me/aw0f I'm planning on sharing more, maybe writing tutorials if anybody is interested. Would love to g..
  7. 2019.10.04 State of the art in Gait recognition: Novel AutoEncoder framework, GaitNet https://www.profillic.com/paper/arxiv:1909.03051 "With extensive experiments on CASIA-B, USF, and FVG datasets, our method demonstrates superior performance to the SOTA quantit..
  8. 2019.10.04 ICMYI: Breast Cancer Diagnosis with Transfer Learning and Global Pooling https://www.profillic.com/paper/arxiv:1909.11839 (Breast cancer is one of the most common causes of cancer-related death in women worldwide) (The proposed network architecture u..
  9. 2019.10.04 Modern problems require modern solutions: Protecting privacy using deepfakes https://www.profillic.com/paper/arxiv:1909.04538
  10. 2019.10.02 Built by Stanford researchers: TunaGAN: Modify high-resolution face images with good qualitative and quantitative performance.https://www.profillic.com/paper/arxiv:1908.06163
  11. 2019.10.02 Precisely estimating a robot’s pose in a prior, global map is a challenge in unstructured, dynamic environments.https://www.profillic.com/paper/arxiv:1909.12837Solution: SegMap: a map representation solution for localization and mapping
  12. 2019.10.02 Adam을 개선한 RAdam의 배경과 실행방법
  13. 2019.10.02 Great applications for the fashion industry-Poly-GAN: Garments are automatically placed on images of human models at an arbitrary posehttps://www.profillic.com/paper/arxiv:1909.02165
  14. 2019.10.01 안녕하세요, 수아랩의 이호성입니다.얼마전에 ICCV 2019 학회에 대한 간단한 시각화 자료를 공유드렸었는데요, 이번에는 제 관심사를 바탕으로 1077편의 논문 중에 22편을 정해서 각 논문당 2~3줄..
  15. 2019.10.01 이번 스터디에서는 BNN 학습을 Cost Function을 정의하고 최적화하여 접근하는 방식을 소개한 XNOR-Net과 1x1 Conv와 3x3 Conv의 조합을 통해 Network를 Reduction하는 SqueezeNet을 다루었습니다! 두 발표자분 모..
  16. 2019.10.01 TensorFlow Korea 논문읽기모임 PR12 197번째 논문 review입니다
  17. 2019.10.01 예전에 keras모델(SavedModel)을 tflite 모델로 변환시키는 과정에서 bn(batch normalization)이 전부 빠져서 알아보니 tflite는 bn을 지원하지 않는다는 글을 본적이 있었습니다.혹시 아직도 tflite는 bn을 지..
  18. 2019.10.01 인공지능을 공부하면서 느꼈던 점들과 공부자료들을 공유하고 싶어 이렇게 글을 남깁니다.
  19. 2019.09.30 Gaze Estimation for Assisted Living Environments https://www.profillic.com/paper/arxiv:1909.09225 Experiments on images from a real assisted living environment demonstrate the higher suitability of their model for its final application.
  20. 2019.09.26 안녕하세요? 텐플코 여러분. 어제 자정 마감이었던 ICLR 2020의 논문 제출수가 대략 2600건이 된 것 같습니다. 학회장이 에디오피아라 내심 제출건수가 좀 줄기를 기대했건만 1000건이나 더 늘었다..
  21. 2019.09.25 Great applications for the healthcare industry: 3D Mesh Reconstruction from Single 2D Image for Right Ventricle https://www.profillic.com/paper/arxiv:1909.08986 "Instantiation-Net: 3D Mesh Reconstruction from Single 2D Image for Right Ventricle"
  22. 2019.09.24 이제 저작권 없는 인물사진을 사용할 수 있다는,,
  23. 2019.09.24 안녕하세요, 수아랩의 이호성입니다. - ICCV(International Conference on Computer Vision) 학회는 컴퓨터 비전에서 최고 수준의 학회이며 올해는 서울 코엑스에서 10/27 ~ 11/2 일주일간 개최가 됩니다. - ICCV ..
  24. 2019.09.23 올해 ICCV 2019년에 게재된 YOLACT: Real-time Instance Segmentation 논문을 간단하게 슬라이드로 만들어서 정리해보았습니다. 내용이 부족한 부분에 대해서 조언해주시면 정말 감사하겠습니다! 수정 링..
  25. 2019.09.23 A machine vision technique called neural style transfer was used to retrieve the lost Picasso painting in color for the first time [https://www.profillic.com/paper/arxiv:1909.05677](https://www.profillic.com/paper/arxiv:1909.05677)
  26. 2019.09.17 최근 번역서로 출판된 "신경망과 심층학습" 이라는 책에 대한 부가적인 자료가 있는 사이트를 알게되어 공유드립니다. 원서 제목은 Neural Networks and Deep Learning: A Textbook 으로 IBM Watson 연구소의 ..
  27. 2019.08.30 약 3달간의 긴 대회 끝에, [ka.kr] Solve chem. together 팀이
  28. 2019.08.28 Reinforcement Learning KR 에서 행사가 하나 있었습니다.
  29. 2019.08.26 AI 연구원, 머신러닝이 연금술에 불과하다고 역설
  30. 2019.08.21 [Keras] GPU sync failed,
[Categorical/Tools] Category Encoders

데이터는 크게 2가지 타입으로 나뉩니다. (이 부분의 디테일 한 내용은 다음 글을 참고하면 됩니다. https://subinium.github.io/basic-of-data/)

- 수치형 데이터(numerical)
- 범주형 데이터(categorical)

그리고 대부분의 ML 모델은 categorical 데이터를 처리할 수 없고, 그렇기에 적절한 변환(encoding)을 해야 사용할 수 있습니다 .

그런 처리는 보통 map 등으로 손으로 매핑할 수 있거나 등등의 방법이 있습니다. 그 중에서도 대표적인 것은 Label Encoding과 One-Hot Encoding입니다.

하지만 그 밖에도 많은 Encoding 방법이 있고, 이를 쉽게 사용할 수 있는 툴이 있다는 거 아시나요??

scikit-learn 스타일의 transformer인 Category Encoder를 소개합니다.

- github : https://github.com/scikit-learn-contrib/categorical-encoding
- documentation : https://contrib.scikit-learn.org/categorical-encoding/

이는 아래 사진과 같은 encoding 방법을 제공하고, 사용도 매우 쉽습니다.

현재 Kaggle에서는 Categorical Data로  진행하는 Playground 대회가 진행중에 있습니다. 이 대회에서 어떤 식으로 이 툴을 사용하는지, 어떤 내용인지 간략하게 설명을 하였으니 보시면 좋을 것 같습니다.
(도움이 된다면 upvote 부탁...kernel master가 되고 싶어요ㅎㅎ)

- 코드 및 설명 커널 링크: https://www.kaggle.com/subinium/11-categorical-encoders-and-benchmark

- 대회 링크 : https://www.kaggle.com/c/cat-in-the-dat

Kaggle을 하시는 분, Kaggle 시작을 망설이시는 분들이라면 대회를 참여하는 것도 추천합니다.

#tool #Categorical #category_encoders
https://www.facebook.com/groups/1738168866424224/permalink/2422195841354853/?sfnsn=mo
Posted by uniqueone
,
From Satellites to 3D reconstruction! ICCV 2019: Papers that foretell the future of computer vision

#computervision #futureofcomputervision #3dreconstruction
https://www.facebook.com/groups/1738168866424224/permalink/2422195841354853/?sfnsn=mo
Posted by uniqueone
,
ICYMI: NADS-Net: Driver and Seat Belt Detection via Convolutional Neural Network!

https://www.profillic.com/paper/arxiv:1910.03695
https://www.facebook.com/groups/PyTorchKR/permalink/1497904133682596/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩의 이호성입니다.

이번 ICCV 2019에 accept된 Object Detection 주제의 논문
"Gaussian YOLOv3. An Accurate and Fast Object Detector Using Localization Uncertainty for Autonomous Driving"을 한글로 리뷰하여 글로 정리를 해보았습니다.

https://hoya012.github.io/blog/Tutorials-of-Object-Detection-Using-Deep-Learning-GaussianYOLOv3/

기존 YOLO를 포함하여 대부분의 Object Detection 알고리즘들이 예측하는 결과물 중 class 정보와 objectness 정보는 확률값으로 예측을 하지만 bounding box 좌표 값들은 deterministic하게 예측을 하는 문제점을 개선하기 위한 방법을 제안하고 있습니다.

또한 이러한 방법들을 통해 localization uncertainty를 예측하고 이를 활용하여 모델의 False-Positive를 줄이고 전체적인 정확도를 높이는 방법을 제안하였습니다.

자세한 리뷰는 제 블로그 글에서 확인하실 수 있습니다! 공부하시는데 도움이 되셨으면 좋겠습니다. 감사합니다!
https://www.facebook.com/groups/PyTorchKR/permalink/1497904133682596/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 :)
금요일에 찬성님이 공유해주신 Full Stack Deep Learning Bootcamp 강의가 너무 좋아 바로 강의를 듣고 정리했습니다

단순히 Production할 때 Serving을 어떻게 해야한다 이런 한정적 내용만 가르쳐주지 않고, 프로젝트 전반에 대해 생각하면 좋은 점, 딥러닝 프로젝트 트러블 슈팅 및 자주 하는 실수(Shape mitmatch, Casting issue, OOM 등)을 알려주고 있어서 매우 유익합니다

큰 그림을 잘 그려주는 강의라 생각합니다 :)

관심있으신 분들은 보시면 후회하지 않으실 강의입니다!

---

부트캠프의 목적은 Production화하기 위한 모든 것들을 가르치는 것입니다
- Problem을 명확히하고 프로젝트의 cost를 측정
- Data를 찾고, 전처리하고, 라벨링
- 적절한 Framework와 Infra를 선정
- 학습의 reproducibility 관련 트러블슈팅
- 대규모 모델 Deploy
https://www.facebook.com/groups/1738168866424224/permalink/2415463898694714/?sfnsn=mo
Posted by uniqueone
,
Hi guys,

Do you want to build computer vision models for cattle monitoring?
I the COCO json, masks, and images freely available here: https://nsmb.me/aw0f

I'm planning on sharing more, maybe writing tutorials if anybody is interested. Would love to get your feedback on this. 😊
https://www.facebook.com/groups/1738168866424224/permalink/2415463898694714/?sfnsn=mo
Posted by uniqueone
,
State of the art in Gait recognition: Novel AutoEncoder framework, GaitNet

https://www.profillic.com/paper/arxiv:1909.03051

"With extensive experiments on CASIA-B, USF, and FVG datasets, our method demonstrates superior performance to the SOTA quantitatively, the ability of feature disentanglement qualitatively, and promising computational efficiency."
https://m.facebook.com/groups/1738168866424224?view=permalink&id=2414785935429177&sfnsn=mo
Posted by uniqueone
,
ICMYI: Breast Cancer Diagnosis with Transfer Learning and Global Pooling

https://www.profillic.com/paper/arxiv:1909.11839

(Breast cancer is one of the most common causes of cancer-related death in women worldwide)

(The proposed network architecture using a pre-trained Xception model yields 92.50% average classification accuracy)
https://www.facebook.com/groups/1738168866424224/permalink/2414747192099718/?sfnsn=mo
Posted by uniqueone
,
Modern problems require modern solutions: Protecting privacy using deepfakes

https://www.profillic.com/paper/arxiv:1909.04538
https://www.facebook.com/groups/1738168866424224/permalink/2415463898694714/?sfnsn=mo
Posted by uniqueone
,

https://www.facebook.com/groups/DeepNetGroup/permalink/962998307426385/

 

Built by Stanford researchers: TunaGAN: Modify high-resolution face images with good qualitative and quantitative performance.

https://www.profillic.com/paper/arxiv:1908.06163

Posted by uniqueone
,

https://www.facebook.com/groups/1738168866424224/permalink/2414086682165769/

 

Precisely estimating a robot’s pose in a prior, global map is a challenge in unstructured, dynamic environments.

https://www.profillic.com/paper/arxiv:1909.12837

Solution: SegMap: a map representation solution for localization and mapping

Posted by uniqueone
,

https://www.facebook.com/groups/726202694419379/permalink/909151656124481/

 

Adam을 개선한 RAdam의 배경과 실행방법

- 딥러닝 과학기술 그룹

 

'그래서 결론은, 아담(Adam)' 이라며 옵티마이저 수업을 끝내도 무리가 없었을 만큼,

아담은 고급 경사하강법들 중 대표주자 격이었습니다. 그런데, 몇주 전 아담을 개선한 RAdam(Rectified Adam)이 나왔고 이게 더 좋다며 들썩이고 있습니다. 가장 좋은 것이 개선되어 새로 나왔으니 새로운 대표주자의 탄생일까요?

 

옵티마이저는 SGD, 모멘텀, 알엠에스프롭 등의 순서로 발표되었는데 나중에 발표될 수록 앞서 나온것을 참조하게되므로 나중 것이 예전 것보다 성능이 개선되는 경향이 있습니다. 따라서 RAdam을 이해하기 위해서는 먼저 그동안 나온 옵티마이저들의 흐름을 파악해 보는 것이 좋습니다. 옵티마이저의 개선 방향과 그 끝에 나온 RAdam에 관하여 간단히 정리해 보았습니다.

 

1. 경사하강법을 개선한 SGD

딥러닝을 배울 때 반드시 배우게 되는 것이 경사 하강법(Gradient Decent, GD)입니다. 미분을 이용해 가중치를 업데이트 하는 것이지요. 그런데 경사 하강법은 한번 업데이트 할 때 마다 전체 데이터를 미분해야 하므로 계산량이 매우 많았습니다. 이러한 점을 보완하기 위해 전체 데이터가 아닌, 랜덤하게 추출한 일부만을 사용하는 확률적 경사 하강법(Stochastic GD, SGD)이 나왔습니다. SGD가 기존의 GD를 대체해 감과 동시에, 이처럼 기존의 방법을 개선한 '고급 경사하강법'들이 연이어 소개되기 시작합니다.

 

2. 관성과 방향을 고려한 모멘텀

미분을 통해 기울기를 구하는 건 같지만, 오차 수정전 바로 앞 수정값과 방향(+,-)를 참고하여 같은 방향으로 일정한 비율만 수정되게 하는 방법이 모멘텀(Momentum)입니다. 이 아이디어로 인해 양의 방향과 음의 방향으로 지그재그가 크게 반복되며 수정 되는 현상이 개선되었고 이전 이동값을 고려하여 일정 비율 만큼만 다음값을 결정하므로 관성의 효과를 낼 수 있었습니다.

 

3. 모멘텀을 개선한 네스테로프 모멘텀

모멘텀이 이동시킬 방향을 정하면, 그 방향으로 미리 이동해서 기울기를 계산, 불필요한 계산량을 줄이고 정확도를 향상시키는 방법이 제안 되었습니다. 네스테로프 모멘텀(Nesterov momentum)이라고 불리우는 고급 경사 하강법입니다.

 

4. 보폭의 크기를 개선한 아다그라드와 아다그라드를 개선한 알엠에스프롭

이어서 변수의 업데이트가 잦으면 학습률을 적게 하여 이동 보폭을 조절하는 아이디어를 담은 아다그라드(Adagrad)가 소개되었고, 이 아다그라드의 보폭 민감도를 보완한 알엠에스프롭(RMSprop)이 등장했습니다.

 

6. 모멘텀과 알엠에스 프롭의 장점을 합친 아담

아담은 모멘텀을 사용해 정확도를 향상시키고 알엠에스프롭를 이용해 보폭 민감도를 보완한 방법입니다. '결론은 아담'이었던 이유는 아담이 그동안 나온 고급 경사하강법들의 장점을 모아 만들어 졌기 때문입니다.

 

7. 그 아담을 개선한 RAdam

드디어 RAdam의 등장입니다. 일리노이즈 대학, 조지아텍 그리고 마이크로소프트에 소속된 멤버들이 아담을 연구하던 중, 초기에 낮은 학습률로 warmup을 해주거나, 모멘텀을 잠시 꺼주면 아담의 성능이 향상되는 이유를 조사했습니다. 이를 정리해 발표한 논문 (참고자료 2)에 등장한 것이 RAdam입니다.

 

[RAdam의 실행]

케라스를 사용하는 경우, 다음과 같이 자신의 프로젝트에 적용할 수 있습니다.

 

1. pip install keras-rectified-adam 로 인스톨 후,

2. from keras_radam import RAdam 로 불러와서,

3. model.compile(RAdam(), loss="sparse_categorical_crossentropy", metrics=["accuracy"]) 이런식으로 컴파일 할때 옵티마이저 부분을 대체해 줍니다.

 

파이토치로 만들어진 공식 깃헙은 아래 주소입니다.
https://github.com/LiyuanLucasLiu/RAdam

 

아래 참고자료(3)은 RAdam의 원리에 대한 간단한 소개 및 Adam과의 결과를 비교하는 것을 보여줍니다. (수정/추가) 여기 실린 두개의 결과 그림을 가져와 첨부했었는데, RAdam의 loss가 Adam보다 더 낮지 않은 예시였고, 여러 데이터 집합의 결과를 검토해 한번 더 올리겠다고 예고된 바, RAdam 논문에 실린 그림으로 대체하였습니다.

 

 

참고 자료

1. 모두의 딥러닝, 길벗 (pp 116~119, "속도와 정확도 문제를 해결하는 고급 경사 하강법"편)

2. Liu, Liyuan, et al. "On the variance of the adaptive learning rate and beyond." arXiv preprint arXiv:1908.03265 (2019). https://arxiv.org/pdf/1908.03265.pdf

3. "Rectified Adam (RAdam) optimizer with Keras" https://www.pyimagesearch.com/2019/09/30/rectified-adam-radam-optimizer-with-keras/

 

Posted by uniqueone
,

https://www.facebook.com/groups/DeepAI/permalink/2280373625587435/

 

Great applications for the fashion industry-

Poly-GAN: Garments are automatically placed on images of human models at an arbitrary pose

https://www.profillic.com/paper/arxiv:1909.02165

Posted by uniqueone
,
안녕하세요, 수아랩의 이호성입니다.
얼마전에 ICCV 2019 학회에 대한 간단한 시각화 자료를 공유드렸었는데요, 이번에는 제 관심사를 바탕으로 1077편의 논문 중에 22편을 정해서 각 논문당 2~3줄 정도로 핵심 내용을 요약하여 글로 작성을 해보았습니다.

https://hoya012.github.io/blog/ICCV-2019-paper-preview/

Image Classification, Object Detection, Segmentation, Generative Model, Super-Resolution, Adversarial Attack 등의 주제의 논문들로 선정을 하였으니 어떤 논문을 읽을지 고민이 되시는 분들은 참고하시면 좋을 것 같습니다!
공부하시는데 도움이 되었으면 좋겠습니다. 감사합니다!

https://www.facebook.com/groups/PyTorchKR/permalink/1487343908071952/?sfnsn=mo



“ICCV 2019 paper preview”

October 01, 2019 | 12 Minute Read

안녕하세요, 이번 포스팅에서는 2019년 10월 27일 ~ 11월 2일 우리나라 서울에서 개최될 ICCV 2019 학회의 accepted paper들에 대해 분석하여 시각화한 자료를 보여드리고, accepted paper 중에 제 관심사를 바탕으로 22편의 논문을 간단하게 리뷰를 할 예정입니다. 최근 모든 학회들이 다 그렇듯이 전체 accepted paper가 폭발적으로 많아지고 있습니다. 논문 수가 많다 보니 하나하나 읽기에는 시간이 많이 소요가 되어서 제목만 보고 논문 리스트를 추리게 되었습니다.

당부드리는 말씀은 제가 정리한 논문 리스트에 없다고 재미 없거나 추천하지 않는 논문은 절대 아니고 단지 제 주관에 의해 정리된 것임을 강조 드리고 싶습니다.!!

ICCV 2019 Paper Statistics

메이저 학회에 대한 미리보기 형식의 블로그 글들을 여러 편 썼는데 이번에는 5번째 글을 작성하게 되었습니다.

매번 하던 것처럼 이번에도 ICCV 2019에 몇 편의 논문이 submit되고 accept되는 지 경향을 시각화하였습니다.

[최근 6년간 ICCV acceptance rate]

격년으로 진행되어오는 학회인데 2017년까지만 해도 학회에 제출되는 논문의 규모가 약간씩 상승하는 경향을 보였습니다. 그런데 올해에는 2년전에 비해 제출된 논문의 수가 약 2배가량 커졌으며 이에 따라 acceptance rate도 25%대로 크게 떨어진 것을 확인할 수 있습니다. 이러한 경향은 CVPR 2019과도 거의 동일한 것이 흥미로운 점입니다. (2017년 대비 제출된 논문 2배 증가, acceptance rate 30%  25% 감소)

또한 어떤 키워드의 논문들이 많이 제출되는지 경향을 분석하기위해 간단한 python script를 작성해보았습니다.

단순하게 논문 제목에 포함된 키워드를 분석하여 시각화를 하였으며, 코드는 해당 repository 에서 확인하실 수 있습니다. (Star는 저에게 큰 힘이됩니다!)

[2019 ICCV top keywords]

Computer Vision 학회이다 보니 imagevideoobject 등 general한 키워드들이 주를 이루고 있고, attentionunsupervisedre-identification 등의 키워드를 가진 논문들이 빈도가 증가하였습니다. 이러한 키워드 정보를 참고하면 최근 학회에 제출되는 논문들의 트렌드를 파악하는데 도움이 될 수 있습니다.

참고로 올해는 총 1077편의 논문이 accept 되었고 저는 이 논문들 중 22편을 선정해서 간단하게 소개를 드릴 예정입니다.

ICCV 2019 주요 논문 소개

앞서 말씀드렸듯이 accept된 논문을 모두 다 확인하기엔 시간과 체력이 부족하여서, 간단하게 훑어보면서 재미가 있을 것 같은 논문들을 추려보았습니다. 총 22편의 논문이며, 8편의 oral paper, 14편의 poster paper로 준비를 해보았습니다. 각 논문에서 제안한 방법들을 그림과 함께 간략하게 소개드릴 예정이며, 논문의 디테일한 내용은 직접 논문을 읽어 보시는 것을 추천 드립니다.

1. Human uncertainty makes classification more robust

  • Topic: Image Classification, Robustness
  • CIFAR-10 데이터셋을 기반으로 사람의 label을 취득하여 얻은 CIFAR-10H soft label 데이터셋을 제작하였고, 이를 이용하여 학습을 시키면 모델의 일반화 성능이 좋아짐을 실험적으로 증명함.
  • 논문의 내용을 요약하여 ppt로 제작하였습니다. 자세한 내용은 해당 ppt를 참고하시면 될 것 같습니다.
  • 논문 리뷰 PPT

2. Exploring Randomly Wired Neural Networks for Image Recognition (Oral)

  • Topic: Image Classification
  • Neural Architecture Search(NAS)에서 human이 설정한 constraint에 의존하지 않고 모든 layer를 random하게 생성하는 Randomly Wired Neural Network 구조를 제안함.
  • 3가지의 Random graph model (ER, BA, WS)를 이용하여 Random하게 wiring하는 network 구조를 생성하였고 우수한 성능을 보이는 것을 확인함.
  • PR-12 이진원님 한글 리뷰 영상
[본 논문의 Main Idea]
[본 논문의 성능 표]

3. Searching for MobileNetV3 (Oral)

  • Topic: Image Classification
  • Efficient-Oriented CNN의 대표격인 MobileNet의 3번째 버전. MobileNet V2과 MnasNet 등에서 사용된 layer 들을 기반으로 한 구조를 제안하였고, swish nonlinearity를 fixed point 연산에 최적화시킨 hard-swish activation function을 제안함.
  • 기존 방법들 대비 우수한 성능을 보였고, classification 외에 object detection, semantic segmentation에도 적용하면 좋은 성능을 보임. 또한 efficient segmentation을 위한 decoder 구조인 Lite Reduced Atrous Spatial Pyramid Pooling(LR-ASPP) 도 제안함.
[MobileNetV3 block]
[h-swish, 성능 표]

4. Universally Slimmable Networks and Improved Training Techniques

  • Topic: Image Classification
  • 지난 ICLR 2019 image recognition paper list guide 게시물 에서 다루었던 Slimmable neural network 논문의 후속 논문
  • 기존 Slimmable network에서는 미리 지정한 width에 대해서만 동작할 수 있었는데 이러한 문제를 개선하여 임의의 width에서도 동작이 가능한 universally slimmable networks(US-Nets) 구조를 제안하였고, 이를 잘 학습시키기 위한 sandwich rule, inplace distillation 방식을 제안함.
[본 논문에서 제안하는 구조 예시]
[학습 알고리즘, 성능 표]

5. Unsupervised Pre-Training of Image Features on Non-Curated Data (Oral)

  • Topic: Image Classification, Unsupervised learning
  • Annotation이 존재하지 않는(Non-Curated Data) 대량의 데이터셋을 이용하여 ImageNet과같은curated data를 이용하여 pre-training을 하는 것과 비슷한 성능을 내기위한 unsupervised pre-training 기법을 제안함. Self-supervision, clustering이 주된 방법임.
[본 논문에서 제안하는 방법론, 성능 표]

6. Understanding Deep Networks via Extremal Perturbations and Smooth Masks (Oral)

  • Topic: Image attribution
  • 모델이 input의 어느 부분을 보고 output을 출력하는지 확인하는 문제를 attribution 문제라 하는데 널리 사용되는 back-propagation 방식 대신 perturbation 방식인 Extremal perturbation 을 제안함.
  • mask의 넓이와 smoothness에 constraint를 가하는 방식을 이용하며 image 뿐만 아니라 네트워크의 intermediate layer에도 적용 가능함을 보임.
[본 논문에서 제안하는 결과 예시]

7. CutMix: Regularization Strategy to Train Strong Classifiers With Localizable Features (Oral)

  • Topic: Image Classification, Data augmentation
  • Region 기반 dropout 방식이 모델의 분류 성능을 높이는데 기여하는데 이 때 정보의 손실이 발생하는 단점이 있었음. 이를 개선하기 위해 Mixup 방식을 접목시킨 CutMix augmentation 기법을 제안함.
  • Official Code (PyTorch)
[본 논문에서 제안하는 방법론과 결과 예시]

8. Online Hyper-Parameter Learning for Auto-Augmentation Strategy

  • Topic: Image Classification, Data augmentation
  • Data Auto augmentation을 위한 Online Hyper-parameter learning(OHL-Auto-Aug) 방식을 제안함.
  • 기존 Auto augmentation 방식들은 offline 방식이라 search & 재학습을 반복해야 하는데 제안하는 방법은 online 방식으로 진행되고 결과적으로 search cost를 크게 감소시킬 수 있음.
[본 논문에서 제안하는 framework]
[본 논문에서 제안하는 실험 결과]

9. Unsupervised Out-of-Distribution Detection by Maximum Classifier Discrepancy

  • Topic: Image Classification, Out-of-distribution detection, Anomaly detection
  • 이미지 분류 문제에서 정해진 class 외에 아예 생뚱맞은 class의 이미지가 입력으로 들어왔을 때 이를 걸러내는 문제를 out-of-distribution detection 이라고 부름. 본 논문에서는 기존 방식들과는 다르게 unlabeled data를 활용하는 unsupervised setting을 따르며 기존 방식들 대비 우수한 성능을 보임.
  • 하나의 feature extractor와 2개의 classifier로 구성이 되어있으며 각각 다른 decision boundary를 갖도록 하는 Discrepancy Loss 를 통해 unsupervised training을 수행함.
[본 논문에서 제안하는 방법론 요약]
[본 논문에서 제안하는 실험 결과]

10. FCOS: Fully Convolutional One-Stage Object Detection

  • Topic: Object Detection
  • 기존 object detection에서 주로 사용되던 anchor box 기반 방식이나 proposal 기반 방식에서 벗어나 pixelwise로 prediction을 하는 Fully-Convolutional one-stage detector(FCOS)를 제안함.
  • Anchor box를 사용하면서 생기는 여러 부작용들(training 계산량, hyper-parameter에 민감한 성능 등)을 해결할 수 있으며 기존 방법들 대비 좋은 성능을 보임.
  • Official Code (PyTorch)
[FCOS architecture]
[본 논문에서 제안하는 실험 결과]

11. AutoFocus: Efficient Multi-Scale Inference

  • Topic: Object Detection
  • 지난 NeurIPS 2018 image recognition paper guide 게시물 에서 다루었던 SNIPER 논문의 inference 과정에서 발생하는 문제를 개선하기 위한 방법론을 제안함.
  • Small object가 존재할 법한 위치를 추출한 결과물인 FocusPixels과 이를 둘러싼 FocusChips를 생성하고 FocusChips에 대해 한 번 더 detect를 수행하여 검출 성능을 높이는 Multi-scale inference 방법을 제안함.
  • SNIPER보다 빠른 처리 속도로 비슷한 성능을 낼 수 있는 것이 장점.
[본 논문에서 제안하는 AutoFocus의 동작 과정]
[본 논문에서 제안하는 성능 표]

12. Where Is My Mirror?

  • Topic: Semantic Segmentation
  • 그동안 대부분 Computer Vision 문제에서 거울은 잘 다루지 않아 왔음. 하지만 거울은 일상생활에서 자주 볼 수 있는 물건이며 보이는 것을 반사한다는 특징이 있음.
  • 본 논문에서는 이미지로부터 거울 영역을 segmentation하기 위한 데이터셋을 제작하고 MirrorNet 이라는 네트워크 구조를 제안함.
  • 최초의 mirror dataset인 MSD는 4,018장의 이미지와 mask로 구성이 되어있음. 참신한 문제 상황이 흥미로운 논문임.
[본 논문의 결과 예시]
[MirrorNet 구조]

13. YOLACT: Real-Time Instance Segmentation (Oral)

  • Topic: Instance Segmentation
  • 실시간 instance segmenation을 위한 YOLACT 라는 방법론을 제안함. YOLO 논문과 유사하게 기존 방법들 대비 정확도는 떨어지지만 single GPU로 실시간(30fps 이상) 동작하는 것을 main contribution으로 삼고 있음.
  • 약간의 정확도 손실이 발생하는 대신 처리 속도를 늘릴 수 있는 FastNMS 방식도 제안함.
  • Official Code (PyTorch)
[YOLACT architecture]
[본 논문에서 제안하는 실험 결과 표]

14. Joint Learning of Saliency Detection and Weakly Supervised Semantic Segmentation

  • Topic: Semantic Segmentation
  • 기존 Weakly Supervised Semantic Segmentation(WSSS) 연구들은 대체로 학습된 Saliency Detection(SD)의 결과물을 이용하는 방식을 사용 해왔음.
  • WSSS와 SD를 하나의 network(SS-Net)를 이용하여 동시에 학습시키는 multi-task learning 방식을 제안함.
[본 논문에서 제안하는 방법론]
[본 논문에서 제안하는 실험 결과]

15. SC-FEGAN: Face Editing Generative Adversarial Network With User’s Sketch and Color

  • Topic: Generative Model
  • 데모 이미지에서 알 수 있듯이 원하는 영역에 스케치를 그려주면 스케치와 주변 context를 보고 그럴싸한 이미지를 그려주는 GAN 구조를 제안함.
  • 컬러 이미지, 수정하고자 하는 영역의 mask, HED edge detector를 이용하여 얻은 sketch 등을 이용하며, PartialConv based padding 과 per-pixel loss, perceptual loss, style loss, total variance loss 등을 이용하여 안정적인 학습을 수행함.
  • Official Code (TensorFlow)
[SC-FEGAN architecture]
[본 논문에서 제안하는 실험 결과 예시]

16. AutoGAN: Neural Architecture Search for Generative Adversarial Networks

  • Topic: Generative Model, AutoML
  • AutoML의 Neural Architecture Search를 GAN에 적용하는 방법론을 제안함.
  • Inception score를 reward로 사용하였고 Multi-level architecture search(MLAS)를 적용하여 단계적으로 NAS를 수행함.
  • Official Code (PyTorch)
[AutoGAN 방법론 요약 및 CIFAR-10에 대한 GAN 구조]
[본 논문에서 제안하는 실험 결과 표]

17. Seeing What a GAN Cannot Generate (Oral)

  • Topic: Generative Model
  • GAN의 고질적인 문제인 mode collapse를 분석하기 위해 distribution level 과 instance level에서 mode collapse를 시각화하는 방법을 제안함. 즉 GAN generator가 생성하지 못하는 것이 무엇인지를 파악하는 것을 목표로 함.
  • Target image와 generated image의 object들의 distribution을 확인하기 위해 semantic segmentation network를 사용하여 Generated Image Segmentation Statistics 지표를 측정하고, 이를 토대로 GAN을 분석함. (distribution level)
  • 또한 이미지 단위로 특정 클래스가 누락된 GAN으로 생성한 이미지와 실제 이미지를 비교하며 실패 case를 분석하는 instance level의 분석도 수행함.
[본 논문의 핵심 내용 요약]

18. Everybody Dance Now

  • Topic: Generative Model,
  • Video로부터 Pose를 얻고 이를 통해 다시 Video를 생성하는 과정에서 원본 동영상의 춤 Style을 Transfer 하는 것을 GAN을 통해 수행함.
  • 또한 얼굴 합성의 퀄리티를 높이기 위해 별도의 FaceGAN 구조도 사용하여 전반적인 생성된 영상의 품질을 높임.
  • Demo Video
[본 논문의 핵심 내용 요약]

19. SROBB: Targeted Perceptual Loss for Single Image Super-Resolution

  • Topic: Single Image Super-Resolution
  • 17번 논문과 유사하게 segmentation 정보를 사용하는 것이 특징이며 segmentation label로부터 Object, Background, Boundary(OBB) label을 얻은 뒤 이를 이용하여 perceptual loss를 효과적으로 주는 방법을 제안함.
  • 실제로 사람이 민감하게 열화를 느끼는 edge 부분에 loss를 반영하는 점이 인상깊으며 실제 Super-Resolution을 통해 얻은 이미지의 퀄리티도 우수한 것을 확인할 수 있음.
[본 논문의 핵심 내용 요약]
[본 논문에서 제안하는 architecture]

20. Toward Real-World Single Image Super-Resolution: A New Benchmark and a New Model (Oral)

  • Topic: Single Image Super-Resolution
  • 현존하는 대부분의 Single Image Super-Resolution 논문들은 “Single Image Super Resolution using Deep Learning Overview” 게시물 에서 제기했던 문제점처럼 simulated datasets에 대해 학습이 되고 있음.
  • 하지만 실제 LR image의 degradations은 단순한 bicubic downsampling 등의 방식보다 훨씬 복잡한 특징을 가지고 있음. 이러한 문제점을 해결하기 위해 디지털 카메라의 focal length를 조절하며 같은 scene에서 LR-HR pair image를 취득하여 얻은 RealSR 데이터셋을 제작하고, 새로운 모델인 Laplacian pyramid based kernel prediction network (LP-KPN) 을 제안함.
[RealSR 데이터셋 제작 과정]
[본 논문에서 제안하는 architecture]

21. Evaluating Robustness of Deep Image Super-Resolution Against Adversarial Attacks

  • Topic: Single Image Super-Resolution, Adversarial attack
  • 딥러닝 기반 Single image Super-Resolution의 adversarial attack에 대한 Robustness를 분석한 논문. LR image에 약간의 perturbation을 넣어주며 attack을 시도하는 방법을 사용함.
  • 3가지 attack method를 제안하였고, state-of-the-art deep super-resolution model들이 adversarial attack에 취약함을 가지고 있음을 입증하고 여러 방법들의 robustness를 이론적, 실험적으로 분석함.
[여러 Deep SR 모델에 대한 adversarial attack 결과]

22. Adversarial Robustness vs. Model Compression, or Both?

  • Topic: Adversarial attack, Model Compression, Network Pruning
  • Deep neural network가 adversarial attack에 취약한 건 잘 알려진 사실이며, Min-max robust optimization 기반 adversarial training을 이용하면 adversarial robustness를 높일 수 있음. 하지만 큰 capacity를 갖는 network를 필요로 함.
  • 본 논문에서는 adversarial robustness를 유지하며 모델을 경량화하는 concurrent adversarial training & weight pruning 기법을 제안함.
[본 논문의 실험 셋팅 및 결과 요약]
결론

이번 포스팅에서는 ICCV 2019에 대한 분석 및 주요 논문 22편에 대한 간단한 리뷰를 글로 작성해보았습니다.
제가 정리한 논문 외에도 이번 ICCV 2019에는 양질의 논문들이 많이 제출되었으니 관심있으신 분들은 다른 논문들도 읽어 보시는 것을 권장 드리며 이상으로 글을 마치겠습니다. 감사합니다!



Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/997362213938170/

AI Robotics KR Neural Network Quantization & Compact Network Design Study

WEEK4: XNOR-NET & SQUEEZENET !!

Paper: XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks
Paper: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and < 0.5MB model size

Description :

지난 9월 29일 일요일에 Neural Network Quantization & Compact Network Design Study의 4번째 모임이 있었습니다.

이번 스터디에서는 BNN 학습을 Cost Function을 정의하고 최적화하여 접근하는 방식을 소개한 XNOR-Net과 1x1 Conv와 3x3 Conv의 조합을 통해 Network를 Reduction하는 SqueezeNet을 다루었습니다! 두 발표자분 모두 좋은 발표해주셔서 유익한 시간이었습니다 📷

:)

진행한 영상과 자료를 공유드립니다! 📷
즐거운 한 주 되세요! 🤩

 

Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/997406130600445/

#PR12 #197번째논문

TensorFlow Korea 논문읽기모임 PR12 197번째 논문 review입니다

(2기 목표 200편까지 이제 3편이 남았습니다!!)

이번에 제가 발표한 논문은 FAIR(Facebook AI Research)에서 나온 One ticket to win them all: generalizing lottery ticket initializations across datasets and optimizers 입니다

한 장의 ticket으로 모든 복권에서 1등을 할 수 있다면 얼마나 좋을까요?

일반적인 network pruning 방법은 pruning 하기 이전에 학습된 network weight를 그대로 사용하면서 fine tuning하는 방법을 사용해왔습니다

pruning한 이후에 network에 weight를 random intialization한 후 학습하면 성능이 잘 나오지 않는 문제가 있었는데요

작년 MIT에서 나온 Lottery ticket hypothesis라는 논문에서는 이렇게 pruning된 이후의 network를 어떻게 random intialization하면 높은 성능을 낼 수 있는지

이 intialization 방법을 공개하며 lottery ticket의 winning ticket이라고 이름붙였습니다.

그런데 이 winning ticket이 혹시 다른 dataset이나 다른 optimizer를 사용하는 경우에도 잘 동작할 수 있을까요?

예를 들어 CIFAR10에서 찾은 winning ticket이 ImageNet에서도 winning ticket의 성능을 나타낼 수 있을까요?

이 논문은 이러한 질문에 대한 답을 실험을 통해서 확인하였고, initialization에 대한 여러가지 insight를 담고 있습니다.

자세한 내용은 발표 영상을 참고해주세요~!

영상링크: https://youtu.be/YmTNpF2OOjA

발표자료링크: https://www.slideshare.net/…/pr197-one-ticket-to-win-them-a…

논문링크: https://arxiv.org/abs/1906.02773

 

Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/997343660606692/

안녕하세요 TF-KR 여러분

이번에는 tflite 및 모바일 딥러닝 관련 질문입니다.

예전에 keras모델(SavedModel)을 tflite 모델로 변환시키는 과정에서 bn(batch normalization)이 전부 빠져서 알아보니 tflite는 bn을 지원하지 않는다는 글을 본적이 있었습니다.

혹시 아직도 tflite는 bn을 지원하지 않는건가요?

그러면 혹시 bn이 포함되어 있는 tensorflow 모델을 안드로이드 혹은 IOS 에서 구동할 수 있는 방법은 없는건가요?

추론시간이 빠르지 않아도 괜찮아서(뭐.. 10초 기다려도 괜찮습니다 ㅠㅠ) 한번 구동하셔 보고 싶어서 자료를 찾는데 보이질 않아 질문합니다.

 

이승현 tflite에서 batchnorm을 지원하지 않는 것은 제가 사용해보지 않아서 정확하지 않지만
convolutional layer와 batch normalization의 parameter를 합쳐서 하나의 layer로 만들 수 있기 때문인 것 같습니다.

 

 

Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/997795710561487/

 

텐서플로우 코리아 님들 안녕하세요!

2017년 8월에 인공지능을 처음 입문하였는데, 어느덧 2년이 지나 학교를 졸업했네요. 잠시 백수 라이프를 즐기고 있는데, 인공지능을 공부하면서 느꼈던 점들과 공부자료들을 공유하고 싶어 이렇게 글을 남깁니다.

 

1. 주변의 변화

저보다 더 오래되신 분들도 많으시겠지만, 2년 전만 하더라도 주변에 딥러닝을 하는 사람들이 많이 없었습니다. 그런데 요즘에는 기계/ 재료/ 화학 등 여러 학과에서 딥러닝을 많이 하고 있고, 딥러닝/ 데이터 사이언티스트로 취직하기위한 허들도 조금씩 낮아지고 있는 것 같습니다. 당장 저희 학교/ 학과만 보더라도 다들 딥러닝 한다고(작년이랑 올해 캡스톤 디자인 수상한 팀이 다 딥러닝을 사용한 팀이네요 ㅋㅋ)하고 있고, 대학교 마지막 학기인 저의 친형은 재료 물성치를 예측하는 딥러닝 모델을 만드는 데 도와달라고 하네요 ㅋㅋ. 정말 재미있는 현상 같습니다.

 

2. 수학 vs 코딩

6개월 전까지만 하더라도 저는 수학 파였는데, 요즘은 균형 잡힌 인재가 더 필요한 것 같습니다. 또한, 코딩보다 수학을 위주로 공부하여 취직하고 싶다면 석사 또는 박사의 학력이 필요한 것 같습니다. 이 부분에 대해서 결정을 하기위해서는 사이언티스트로 취업을 할지 엔지니어로 취직을 할지 먼저 결정하는게 좋을 것 같네요. 일반적으로 사이언티스트는 수학을 좀 더 공부하면 좋을 것 같고, 엔지니어는 전산과목을 좀 더 공부하면 좋을 것 같습니다. 인공지능에는 많은 통계/수학적 지식이 필요합니다. 물론 몰라도 코딩은 할 수 있고, 이를 응용하여 사용할 수 있지만, 수학을 모르고는 그 한계가 분명합니다. 반면에 수학을 잘하더라도, 이를 구현하지 못 하면 소용 없음으로, 둘 중에 하나를 정하여 집중하되 다른 한 쪽도 기초는 공부하는게 좋을 것 같네요ㅎ

 

개인적으로 수학은 선형대수학, 수리통계학, 회귀분석은 수강하는 게 좋다고 생각하며,

전산 과목은(잘 모르지만) 자료구조, 알고리즘, 컴퓨터 구조 정도는 알고 있어야 한다고 생각합니다(물론 제가 다 들었다는 것은 아닙니다. ㅋㅋ)

 

3. 텐서플로우 VS 파이토치

저는 지금도 텐서플로우를 사용하여 코딩하고 있습니다. 텐서플로우는 빠르고, 오픈 소스가 많다는 장점이 있지만, GPU버전을 설치하기가 힘들며, 병렬처리를 하기 힘들다는 단점을 가지고 있습니다. 반면 파이토치는 병렬처리가 텐서플로우에 비해서는 정말 쉽고 코드를 짜는 것도 편하다는 장점이 있습니다. 개인적으로는 한 라이브러리를 깊이 있게 공부하고, 나머지 다른 라이브러리는 읽을 수 있는 정도만 공부하면 될 것 같습니다.

 

4. 컴퓨터 비전 vs 자연어 처리 vs 강화학습

아주 예민한 주제인데, 저의 생각은 자신이 하고 싶은 거로 하되 각 분야의 유명 모델 정도는 공부하자 입니다(너무 식상한가요? ㅎ). 여기는 학생분들도 많이 계시니까 취업을 기준으로 먼저 말하면 현재 기준 자연어 처리 > 컴퓨터 비전 > 강화학습 순으로 일자리가 많지만, 각 분야에서 두각을 드러낸다면 이는 문제 될 일이 없는 것 같습니다. GAN은 컴퓨터 비전에서 유명한 모델입니다. 하지만 데이터의 확률분포를 학습하기 위한 방법으로 자연어처리 분야의 음성 합성 부분에서 자주 등장하며, 최근 자연어 처리의 핫 모델 BERT는 컴퓨터 비전의 SELFIE라는 사전학습 방법으로 응용되어 제안되기도 했습니다. 이처럼 자신이 원하는 도메인을 잡아 공부하되, 다른 분야의 핫 모델들도 같이 공부한다면 이를 응용하여 좋은 결과를 낼 수도 있다고 생각합니다.

 

5. 구현에 관한 생각

우리는 머신러닝 모델을 공부할 때 깃허브에서 “Generative adversarial networks tensorflow”라고 검색하여 나온 코드를 사용하곤 합니다. 하지만 공부를 하면서 느꼈던 것은 가짜 구현이 정말 많다는 것 이였습니다. 실제로 저의 경우, Spectral Normalization GANs의 코드가 필요해 깃허브 스타가 좀 있는 분의 구현을 다운받아서 연구에 사용했습니다. 나중에 안 사실이지만 이는 가짜 구현이었고, FID와 Inception score를 찍어본 결과 논문에서 제시하는 값들에 한 참 못 미치는 결과가 나왔습니다. 이처럼 다른 사람의 코드를 가지고 오거나 직접 코드를 짜서 연구할 때는 철저한 검증 절차가 필수적이라고 생각합니다.

 

6. 머신러닝 및 딥러닝 강의 목록

최근에는 영어만 잘한다면 들을 수 있는 명강의들이 정말 많습니다. 영어를 잘 못 하는 저는 눈물만 나지만 ㅠㅠ, 주제별로 괜찮다 싶은 강의들을 모아봤습니다.

 

모두를 위한 딥러닝 시즌 2

(제작해주신 모든 분들 정말 감사합니다. 딥러닝 입문 한국어 강좌들 중 원톱!)

https://www.youtube.com/watch?v=7eldOrjQVi0&list=PLQ28Nx3M4Jrguyuwg4xe9d9t2XE639e5C

 

머신러닝을 위한 Python 워밍업(한국어)

https://www.edwith.org/aipython

 

머신러닝을 위한 선형대수(한국어)

https://www.edwith.org/linearalgebra4ai

 

데이터 구조 및 분석(문일철 교수님)

https://kaist.edwith.org/datastructure-2019s

 

인공지능 및 기계학습 개론(문일철 교수님)

https://kaist.edwith.org/machinelearning1_17

 

영상이해를 위한 최적화 기법(김창익 교수님)

https://kaist.edwith.org/optimization2017

 

<영어>

UC Berkley 인공지능 강좌

https://www.youtube.com/watch?v=Va8WWRfw7Og&list=PLZSO_6-bSqHQHBCoGaObUljoXAyyqhpFW

 

CS231n

https://www.youtube.com/results?search_query=cs213n

 

Toronto Machine Learning course

https://www.youtube.com/watch?v=FvAibtlARQ8&list=PL-Mfq5QS-s8iS9XqKuApPE1TSlnZblFHF

 

CS224N(NLP 강좌)

https://www.youtube.com/playlist?list=PLoROMvodv4rOhcuXMZkNm7j3fVwBBY42z

 

Deep Learning for Natural Language Processing(Oxford, DeepMind)

https://www.youtube.com/watch?v=RP3tZFcC2e8&list=PL613dYIGMXoZBtZhbyiBqb0QtgK6oJbpm

 

Advanced Deep Learning, Reinforcement Learning(DeepMind)

https://www.youtube.com/watch?v=iOh7QUZGyiU&list=PLqYmG7hTraZDNJre23vqCGIVpfZ_K2RZs&index=1

 

다들 즐거운 하루되세요 ㅎㅎ!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,
Gaze Estimation for Assisted Living Environments https://www.profillic.com/paper/arxiv:1909.09225

Experiments on images from a real assisted living environment demonstrate the higher suitability of their model for its final application.
https://www.facebook.com/groups/1738168866424224/permalink/2412130935694677/?sfnsn=mo
Posted by uniqueone
,
안녕하세요? 텐플코 여러분. 어제 자정 마감이었던 ICLR 2020의 논문 제출수가 대략 2600건이 된 것 같습니다. 학회장이 에디오피아라 내심 제출건수가 좀 줄기를 기대했건만 1000건이나 더 늘었다는 ㅠㅠ. 오픈리뷰라 재밌는 논문들 바로 보실 수 있는데요. 일단 저는 올초 많은 NLP연구자들을 짜증 나게 했던 바로 이논문이 눈에 띄네요.

Large Batch Optimization for Deep Learning: Training BERT in 76 minutes
https://openreview.net/forum?id=Syx4wnEtvH

사실 건수 세러 봤더니 가장 마지막 논문이더라는 ㅎㅎ

여러분들도 훑어보시다 재밌는 논문 공유해주시면 감사하겠습니다. ㅎㅎ

#ICLR2020 #논문왜이리많냐
https://www.facebook.com/groups/TensorFlowKR/permalink/994510107556714/?sfnsn=mo
Posted by uniqueone
,

https://www.facebook.com/groups/DeepNetGroup/permalink/955715264821356/?sfnsn=mo

Great applications for the healthcare industry: 3D Mesh Reconstruction from Single 2D Image for Right Ventricle

https://www.profillic.com/paper/arxiv:1909.08986

"Instantiation-Net: 3D Mesh Reconstruction from Single 2D Image for Right Ventricle"
Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/992502631090795/?sfnsn=mo

Generative Modeling
100,000 Faces Imagined by a GAN (generative adversarial network): https://generated.photos
#DeepLearning #GAN #GenerativeAdversarialNetwork
Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/992561731084885/?sfnsn=mo

안녕하세요, 수아랩의 이호성입니다.
- ICCV(International Conference on Computer Vision) 학회는 컴퓨터 비전에서 최고 수준의 학회이며 올해는 서울 코엑스에서 10/27 ~ 11/2 일주일간 개최가 됩니다.

- ICCV 2019 통계
올해 총 4303편의 논문이 submit 되었고 그 중 25%의 1077편만이 accept이 되었다고 합니다. 2017년에 비해 submit된 논문의 편수가 거의 2배가 되었습니다.

- accepted paper list   http://iccv2019.thecvf.com/program/main_conference
에서 확인하실 수 있습니다.

- 키워드 분석
올해는 어떤 키워드로 논문이 많이 제출되었는지도 분석을 해보았습니다.
컴퓨터비전 학회답게 image, object, detection, video, segmentation, 3d 등 general한 키워드들이 주를 이루었고, "attention", "unsupervised", "re-identification" 등 특징적인 키워드들이 늘어난 점이 인상깊습니다.

- 코드 및 이미지 자료
시각화에 사용한 코드와 이미지들은 제 github repository에서 확인하실 수 있습니다.
https://github.com/hoya012/ICCV-2019-Paper-Statistics

공부하시는데 도움이 되셨으면 좋겠습니다. 감사합니다!😆
Posted by uniqueone
,

https://www.facebook.com/groups/PyTorchKR/permalink/1480286152111061/?sfnsn=mo

올해 ICCV 2019년에 게재된 YOLACT: Real-time Instance Segmentation 논문을 간단하게 슬라이드로 만들어서 정리해보았습니다. 내용이 부족한 부분에 대해서 조언해주시면 정말 감사하겠습니다!

수정 링크 :

https://www.slideshare.net/BrianKim244/20190708-bumsookim-yolact?qid=02434b80-8281-426f-b431-dfbff64694ac&v=&b=&from_search=1
Posted by uniqueone
,

https://www.facebook.com/groups/DeepNetGroup/permalink/955715264821356/?sfnsn=mo

A machine vision technique called neural style transfer was used to retrieve the lost Picasso painting in color for the first time

[https://www.profillic.com/paper/arxiv:1909.05677](https://www.profillic.com/paper/arxiv:1909.05677)
Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/987881208219604/?sfnsn=mo

최근 번역서로 출판된 "신경망과 심층학습" 이라는 책에 대한 부가적인 자료가 있는 사이트를 알게되어 공유드립니다.

원서 제목은 Neural Networks and Deep Learning: A Textbook 으로 IBM Watson 연구소의 Distinguished 연구자이신 Charu C. Aggarwal 님이 저술한 책입니다.

책 내용 자체도 Amazon 리뷰를 보면 꽤 좋다는것을 알 수 있는데요, 이론과 실습 두 가지를 적절하게 설명하는 책으로 판단됩니다.

우선 Charu 님이 운영하는 유투브 채널을 가 보면, 일부 챕터에 대한 비디오 강의도 존재합니다 (27개의 비디오).

그리고, Charu 님이 운영하는 홈페이지가 있는것을 알게 되었는데요, 이 사이트에 가면 각 챕터별 내용을 설명하는 PDF 슬라이드가 함께 제공됩니다. 추가적으로, PDF 슬라이드의 LaTex 버전과 자료에 삽입된 그림을 모두 LaTex 파일(*.dvi) 로도 제공합니다.

본 책으로 공부를 하시는분들께 도움이 되었으면 싶은 생각이 들어서 공유드리오니 참고 되면 좋을것 같습니다 :)

유투브: https://www.youtube.com/playlist?list=PLLo1RD8Vbbb_6gCyqxG_qzCLOj9EKubw7
홈페이지: http://www.charuaggarwal.net/neural.htm
Posted by uniqueone
,

https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/474777576587680/?sfnsn=mo

안녕하세요!

약 3달간의 긴 대회 끝에, [ka.kr] Solve chem. together 팀이
3등의 어마어마한 성적을 거두었습니다.


대회가 첫 시작했을 때, 친근한 화학 분야 관련 대회라서 매우 들떴었습니다만, 대회가 워낙 새로워서 힘들었었네요.

Graph neural network (GNN) 도 처음인데, 이걸 가지고 대회에서 이기려고 하니 너무 힘들었습니다. 자료도 너무 없었구요!

그래도 좋은 팀원들과 함께 포기하지 않고 해나갔네요.

그러던 중, 갓상훈!!님께서 한줄기 희망을 주셨습니다.
Transformer 를 사용하셔서 해결하시다니, 아직도 그 충격(?)이 가시지 않습니다.

이번 대회를 통해서, 딥러닝을 이용한 화학 분야에 캐글러들이 많은 contribution을 한 것 같군요. 앞으론 GNN 자료를 구하기가 훨씬 수월해질 것 같습니다.

이번 대회가 끝나면서,
총 4분의 컴퍼티션 마스터가 생겼습니다.
이제 국내에도 두자릿수 master 가 있네요 ㅎ (열몇명 되는걸로 압니다.)

점점 한국 캐글러가 많아지고, 좋은 성적을 거두시는 분들이 많아지는 것을 봅니다.

향후 Aptos, IEEE, steel 등의 대회에서 좋은 성적을 거두는 한국 캐글러들이 생기길 바랍니다.

캐글하며 환자들의 눈을 구하고,
캐글하며 transaction anomaly 찾고,
캐글하며 steel defect detection 을 해서
각 분야에 contribution 해봅시다 :)

아래는 각 팀원별 후기입니다 :)

정말 Amazing 한 솔루션을 제시해주시고, 엄청난 개발능력으로 빛을 내려주신 상훈님,
끊임없는 EDA로 갓원호하시는 원호님
열정적인 탐구심으로 논문으로 계속 아이디어를 제시해주신 영수님,
지적으로 도메인 지식을 풍성히 제공해주신 성환님
(밥도 사주신다는!!!!)
함께해서 영광입니다.

저희 솔루션 링크는 아래와 같습니다
한번 읽어보셔용 ㅎㅎ

https://www.kaggle.com/c/champs-scalar-coupling/discussion/106572

## 김상훈
'빨리 가려면 혼자가고 멀리 가려면 함께 가라' - 아프리카 속담
여러분과 함께해서 여기까지 올 수 있었던 것 같습니다. 함께하면서 많이 배웠습니다!
재미있었고, 즐거웠으며, 결과까지 좋아서 +알파가 되는 행복한 경험이었습니다.

## 송원호
Aptos 열심하겠습니다
팀 여러분 감사합니다. 영광입니다 !!!!

## 이영수
함께해서 영광이었고, 많이 배웠습니다. GNN을 배우러 참가하였다가 화학domain에서 End-to-End Bert를 영접하는 재미있는 경험을 했습니다. 대회기간내내 즐거웠고, 모두 감사합니다!

## 이유한
그저...행복할 따름입니다. 처음부터 끝까지 좋은 팀원들과 함께 너무나 즐겁게 문제를 풀어갔네요 ㅎ 한 분야를 다양한 사람들이 풀어가니, 정말 새로운 접근이 계속 나왔던 거 같습니다. 제 첫 금메달을 함께 해주셔서 너무나 감사드립니다!

## 최성환
처음 이 대회 나가게 될때 절대 5등 안으로 못들어간다고 그랬었는데 (그렇죠 유한님? ㅎ) 머리를 맞대니 정말 신기한 마법들이 생겨나더군요. 좋은 팀원들에게 좋은 자극 좋은 정보 많이 받았습니다.

####
끝으로, 다른 한국 캐글러도분들도 많으셨습니다 혼자서 9등, 31등하신 분들도 계셨군요 !! 모두 고생하셨습니다
Posted by uniqueone
,

https://m.facebook.com/groups/245664385452646?view=permalink&id=2694782997207427&sfnsn=mo

#RLKorea행사 #RL_RealWorld #발표자료
안녕하세요! 지난 8월 26일 월요일에 Reinforcement Learning KR 에서 행사가 하나 있었습니다.
제목은 "이쯤 되면 RL도 Real World로 나가봐야지!" 였는데요🙂

행사에서 연사자분들이 발표하셨던 자료를 공유하고자 합니다~!!!🤩🤩

- Game: <하스스톤> 강화학습 환경 개발기 (Nexon Korea 옥찬호 (Chan-Ho Chris Ohk))
--> https://www.slideshare.net/utilforever/rlkorea-166558013/utilforever/rlkorea-166558013

- Recommender System: Atari는 더 이상 Naver... (NAVER Search&Clova Dialog 주찬웅)
--> https://www.slideshare.net/w0ong/atari-naver

- Control: Rainbow의 혈관 속 탐험 (Medipixel 김경환)
--> https://www.slideshare.net/KyunghwanKim27/rainbow-the-rainbows-adventure-in-the-vessel-rl-korea-166819765

끝으로, 본 행사를 빛내주신 연사자분들, 참석자분들께 감사드립니다!

올해 11월이나 12월 쯤에 좀 더 큰 공간에서 다양한 도메인에 계시는 연사자분들을 모시고 행사를 할 예정입니다. 못오신 분들은 그 때 뵈어요!🙌🙌
감사합니다~!😁
Posted by uniqueone
,

https://github.com/jehyunlee/texts/blob/master/AI_researchers_allege_that_machine_learning_is_alchemy/text.md?fbclid=IwAR0xKKFftD-uPn06lIDoGvtBoqP7FGD5lSXuuyzxqW8js7kNJ0VObeppxZI

AI 연구원, 머신러닝이 연금술에 불과하다고 역설

원본 주소 : https://www.sciencemag.org/news/2018/05/ai-researchers-allege-machine-learning-alchemy
번역 철학 : 매끄럽게 읽으실 수 있는 적절한 의역을 지향합니다.
전문 용어 : 가급적 우리말 용어를 사용하고자 하며, 원어를 병기합니다.



3D 공간의 최소값을 찾는 알고리즘에서, 경사하강법은 시행착오에 기반한 최적화를 수행한다.


지난 12월, 캘리포니아의 샌프란시스코에 있는 구글(Google)에서 AI 연구원으로 일하는 Ali Rahimi가 날린 한 방에 박수세례가 40초간 이어졌다. 한 AI 컨퍼런스에서 머신러닝 알고리즘이 시행착오를 통해 학습하는 일종의 연금술이 되었음을 폭로한 것이다(본 글에서는 연금술이라는 단어가 '체계적인 지식이나 접근법 없이, 되면 좋고 안되면 말고 식으로 결과를 운에 맡기고 이런 저런 시도를 반복하는 행태'를 가리키는 데 쓰였다: 역자 註). Rahimi에 따르면 연구원들은 왜 어떤 알고리즘은 작동하고 다른 알고리즘은 작동하지 않는지 알지 못하며, 다른 것들을 제치고 특정한 AI 아키텍처를 선정하는 견고한 기준선이 없다. 4월 30일 캐나다 밴쿠버에서 열린 International Conference on Learning Representations에서 Rahimi와 동료들은 그들이 어떤 행위들을 연금술로 간주하는지에 대한 사례를 공개하고, AI의 신뢰성을 강화하는 방법을 제시했다.

Rahimi는 이렇게 말했다.
"이 분야는 고뇌를 피할 수 없습니다. 우리 중 대다수가 외계 기술을 다루는 것 같은 느낌을 받아요."

이 이슈는 AI의 재현성 문제(실험 및 출판 사례에서 일관성이 결여되어 서로의 연구를 재현하지 못하는 문제)와는 별개의 것이고, 흔히 말하는 머신 러닝의 '블랙 박스' 또는 '설명력' 문제(특정 AI가 어떻게 이 결론에 이르렀는지 설명하는데 어려움을 겪는 문제)와도 다르다. Rahimi가 말하듯, "블랙 박스인 머신 러닝과 블랙 박스가 되어버린 어떤 총체적 분야 사이에 경계선을 긋고자 한" 것이다.

Rahimi는 연구자들이 마치 중세의 연금술사들처럼 새로운 알고리즘을 구축하고 훈련시키는데 필요한 기본 도구에 대한 깊은 이해 없이 AI를 만들어내고 있다고 말한다. 캘리포니아 마운틴 뷰에 있는 구글의 컴퓨터 과학자 프랑소와 숄레(François Chollet)는 이렇게 덧붙인다. "사람들은 화물 숭배(caro-cult: 동남아 원주민들이 2차 세계대전 중 미국과 일본의 전투기가 화물을 나르는 것을 보고, 죽은 조상들이 특별한 화물을 가지고 올 것이라고 믿는 현상: 역자 註) 같은 것에 끌립니다. 전통 신앙이나 마법의 주문 같은 것 말입니다." 예를 들면, 연구원들은 AI의 학습률(learning rate)를 조정하기 위해 일단 뭐라도 시도해보고, 결과가 신통찮으면 값을 바꿔보는 식의 방법을 사용한다. 이 때 왜 어떤 값이 다른 값보다 좋은지에 대한 이해는 없다. 한편으로는 AI 연구원들은 그들의 알고리즘을 어둠 속에서 더듬거리며 학습시키기도 한다. 실패를 최소화하기 위해 알고리즘의 파라미터에 소위 "확률적 경사하강법(stochastic gradient descent)"이라는 것을 적용하는 식이다. 해당 주제에 대한 수천건의 학술 논문과 그 방법들을 적용하기 위한 셀 수 없는 방법들이 있음에도 불구하고, 여전히 시행착오에 의존하고 있는 것이다.

Rahimi의 논문은 발생할 수 있는 노력의 낭비와 최적화 실패에 집중하고 있다. 예를 들어, 첨단(state-of-the-art)의 번역 알고리즘에서 대부분의 복잡성을 벗겨내면, 결론은 영어를 독일어로 또는 프랑스어로 더 잘, 그리고 효율적으로 번역한다는 것 뿐이고 논문의 저자들은 부가적인 부분들이 어디에 좋은지 완전히 파악하지는 못하고 있다. 역으로 말하자면, 논문에 소위 있어 보이려고 덧붙인 부분들이 그 논문에서 유일하게 좋은 부분이라고 Ferenc Huszár (런던의 트위터 머신러닝 연구원)은 말하고 있다. 어떤 경우에 알고리즘의 코어 부분은 기술적으로 결함이 있는데 "순전히 여기 들러붙은 잔기술들 덕택에" 좋은 결론이 나온다는 것이다.

Rahimi는 언제 어떤 알고리즘이 가장 잘 작동하는지에 대한 몇 가지의 제안을 하고 있다. 초심자들에게는 앞서 언급한 번역 알고리즘의 경우와 같이 "어블레이션 연구(ablation studies)"를 적용해야 한다고 한다. 각 부분의 기능을 확인하기 위해 알고리즘을 한 부분 한 부분 제거하면서 실행하는 방식을 말한다. 한편 알고리즘의 성능을 상세하게 분석해서 어떤 부분에서의 개선이 다른 곳에서는 비용으로 작용하는지 들여다보는 "분할 분석(sliced analysis)"을 요구한다. 또한 연구자들이 자신의 알고리즘을 많은 경우의 조건과 세팅에서 시험하고 그 성능을 모두 보고해야 한다고 주장하기도 한다.

University of California, Berkeley의 컴퓨터 과학자이자 Rahimi의 연금술 기조 강연의 공저자인 Ben Recht는, AI는 문제를 작은 'toy problem'으로 축소해서 고민하는 기법을 물리학자들에게서 빌려올 필요가 있다고 한다. "물리학자들이 현상에 대한 설명을 이끌어내기 위한 간단한 시험을 창안하는 것을 보면 놀랍습니다". 어떤 AI 연구자들은 이미 이런 방법에 대해 논의를 시작하고, 영상 인식 알고리즘의 내부 작동원리를 더 잘 이해하기 위해 손으로 쓴 작은 흑백 글자를 대용량 컬러 사진에 앞서 넣어보기도 한다.

런던의 DeepMind 컴퓨터 과학자인 Csaba Szepesvári는 테스트 경쟁을 좀 완화할 필요가 있다고 말한다. 그는 현재 새 알고리즘이 다른 벤치마크를 능가했을 때가 소프트웨어의 내부 알고리즘을 강조했을 때보다 더 쉽게 출판되고 있다고 꼬집는다. "과학의 목적은 지식의 생성입니다. 여러분은 다른 이들이 가져다가 반석으로 삼고 싶은 뭔가를 만들고 싶을 겁니다."

Rahimi와 Recht의 비판에 모두가 동의하는 것은 아니다. 뉴욕의 Facebook 최고위 AI 과학자인 Yann LeCun은 너무 많은 관심이 최첨단의 기술에서 핵심(core)으로 옮겨가는 것은 혁신을 늦추고 AI의 실제 적용을 위축시킬 수 있다고 지적한다. "연금술이 아닙니다. 엔지니어링이죠. 엔지니어링은 원래 지저분한 겁니다."

Recht는 체계적인 연구와 모험적인 연구가 공존하는 곳을 추구한다. "우리에겐 모두가 필요합니다." "우리가 튼튼한 시스템을 만들려면 어디에서 실패가 일어나는지 이해해야 하고, 더 인상적인 시스템을 만들려면 기술의 최전선을 더 앞으로 밀고 가야 합니다."


Posted by uniqueone
,

1. https://m.blog.naver.com/wideeyed/221329619056

GPU기반 Keras로 코드를 작성하다보면 아래와 같은 오류 메시지에 직면할 때가 있다.

InternalError: Blas GEMM launch failed
CUDA_ERROR_OUT_OF_MEMORY
InternalError: GPU sync failed

GPU에 할당된 메모리를 다른 세션이 점유하고 있어서 발생할 가능성이 높다.
1) 점유하고 있는 세션을 중단하고 메모리를 회수한다.
2) Keras가 사용하는 Backend엔진(ex.Tensorflow)의 메모리 추가 사용을 허락한다.

이 문제를 해결한 후 오류가 발생한 세션을 다시 시작해야한다. 
그렇지 않으면 "InternalError: GPU sync failed"가 발생할 수 있다.


[Tensorflow Backand 엔진 설정 방법]

from keras.backend import tensorflow_backend as K config = tf.ConfigProto() config.gpu_options.allow_growth = True K.set_session(tf.Session(config=config))



전체 소스코드는 아래 포스트를 참고하세요.

[Keras] IRIS데이터 이용한 DNN

IRIS데이터를 이용한 간단한 DNN 학습 및 추론을 해보자. 데이터를 Train/Test로 구분한 후 학습...

blog.naver.com

끝.

--------------------------------------------------------------------------------------

2. https://zereight.tistory.com/228

GPU 동기화 오류이다.

다음 코드를 돌려서 해결하자

import tensorflow as tf

config = tf.ConfigProto()

config.gpu_options.per_process_gpu_memory_fraction = 0.4

session = tf.Session(config=config)

session.close()

--------------------------------------------------------------------------------------

3. https://emmadeveloper.tistory.com/27

GPU sync failed 에러가 떴다.

 

 

 

러닝 시작한 것 확인하고 잤는데 에러 떠 있어서

확인해보니 전용 GPU메모리의 50% 정도를 이미 다른 곳에서 점유하고 있었다.

 

나머지 것들을 shutdown시켰다.

다시 실행해보려는데 안 됨.

그냥 jupyter notebook을 재실행했더니 다시 잘 된다.

 

이제 돌리기 전에 전용 GPU 메모리 사용량을 미리 확인하고, 깔끔하게 낮춘 후, 돌려야겠다.

--------------------------------------------------------------------------------------
4. https://stackoverflow.com/questions/51112126/gpu-sync-failed-while-using-tensorflow

TLDR: If you find that tensorflow is throwing a GPU sync failed Error, it may be because the model's inputs are too large (as was my case when first running into this problem) or you don't have cuDNN installed properly. Verify that cuDNN is installed correctly and reset your nvidia caches (ie. sudo -rf $HOME/.nv/) (if you have no yet done so after initially installing CUDA and cuDNN) and restart your machine.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,