'Deep Learning'에 해당되는 글 427건

  1. 2020.04.04 안녕하세요, 캐글 마스터, 캐글 중독자 이유한입니다. 앞으로 제가 여지껏 메달을 획득했던 대회에서 썼던 여러 팁들을 계속 공유하려고 합니다.
  2. 2020.03.27 We decided to make most of our Deep Learning Teaching Materials freely available
  3. 2020.03.18 Get started with PyTorch, Cloud TPUs, and Colab Joe Spisak : https://medium.com/
  4. 2020.03.18 Softmax Splatting for Video Frame Interpolation (AI Short Paper Summary) Paper:
  5. 2020.03.18 역시 #TFDevSummitKR 키노트에 소개될 만큼 TensorFlow KR 그룹의 저력을 느낄 수 있었습니다. 이 자리를 빌어 하루만에 조회
  6. 2020.03.18 안녕하세요! 어제 부로 캐글 Bengaliai 대회가 마무리되었습니다. 총 2,059 팀의 참여한 대회였고, 정말 다양한 딥러닝 기반 컴퓨
  7. 2020.03.18 [GAN] GAN — GAN Series (from the beginning to the end) GAN zoo 등은 GAN이 너무 많아 어떤
  8. 2020.03.17 손과 얼굴 트래킹은 이제 웹에서 아주 쉽게 할 수 있는 것 같습니다. MediaPipe와 TensorFlow.js 를 이용해서 하는 방법을 잘
  9. 2020.03.17 11 Making the most of Colab (TF Dev Summit '20) - 코랩 소개(주피터 노트북) - 2012년부터 시작
  10. 2020.03.16 안녕하세요! 캐글의 중요성은, 캐글러들의 커리어를 추적하면 바로 알 수 있습니다. 최근 제가 소개드린 albumentations 의 개발자
  11. 2020.03.13 Handwritten word generation with GANs! https://www.profillic.com/paper/arxiv:20
  12. 2020.03.13 안녕하세요, Cognex Deep Learning Lab KR(수아랩) Research Engineer 이호성입니다. 오늘 커뮤니티를 뜨겁게
  13. 2020.03.09 안녕하세요 PyTorch를 시작한지 얼마 안되는 뉴비입니다. PyTorch로 대표적인 논문 모델들을 구현하며 처음 겪었던 어려웠던 점은 '레
  14. 2020.03.08 [Pytorch] 초보가 초보에게 : 어떻게 파일을 나눠야할까? Kaggle로 ML과 시각화를 하던 저에게 Pytorch는 조금 큰 장벽이었습
  15. 2020.03.05 Alexandre Devaux coded an experiment that extract people from photo using deep l
  16. 2020.03.04 안녕하세요 Bengali.AI 대회에 대해 영상을 3개 더 찍었네요 Multi label 일 때, stratified folding 을 할
  17. 2020.03.03 깃허브에서 1만 스타 받은 한국의 오픈소스들(Byline Network 심재석 기자) 깃허브는 세계에서 가장 유명한 소스코드 공유 사이트입니다
  18. 2020.02.28 👨‍🏫 안녕하세요 데이콘의 경진대회 수상작들 중에 PDF로 만들어진 내용을 슬라이드 쉐어에 모아 봤습니다. 🥳특히 시각화 대회 수상작들을
  19. 2020.02.27 안녕하세요. 작년 이맘 때즈음 강화학습을 처음 공부하면서 정리해 놓았던 노트를 공유합니다. 완벽하진 않지만, 처음 공부하시는 분들께 조금이
  20. 2020.02.26 CS330 전과정 강의비디오가 유튜브에 업로드되었습니다. https://www.youtube.com/playlist?list=PLoROMvod
  21. 2020.02.12 Latest Deep Learning Projects You Need to Know About in 2019
  22. 2020.02.11 Video from 1896 changed to 60fps and 4K! The paper that was used to bring to 60
  23. 2020.02.11 State of the art in image inpainting (see example in the picture!) https://www.
  24. 2020.02.10 Machine Learning From Scratch GitHub, by Erik Linder-Norén : https://github.com
  25. 2020.02.10 안녕하세요! 최근 ImageNet 에 SOTA 를 찍은 논문입니다. https://arxiv.org/abs/1911.04252 캐글에서 많
  26. 2020.02.10 Pytorch로 image classification 작업하는 분들을 위해 좋은 github을 소개합니다. https://github.com/
  27. 2020.02.08 State of the art in image translation (guided) https://www.profillic.com/paper/
  28. 2020.02.07 KB금융그룹 문자 분석 경진대회의 수상자가 가려졌습니다. 수고하셨습니다. 코로나 때문에 아쉽게 시상식은 열리지 못했지만 데이콘에서 2주 후
  29. 2020.02.06 Sound Classification with Machine Learning: A demo of a Neural Network trained t
  30. 2020.02.06 안녕하세요! deepfake 대회가 진행되고 있지만, 쉽지 않은 대회인 것 같습니다. 저어어엉~말 간단하게 프로세스를 정리해봤습니다.

안녕하세요,

캐글 마스터, 캐글 중독자 이유한입니다.

앞으로 제가 여지껏 메달을 획득했던 대회에서 썼던 여러 팁들을 계속 공유하려고 합니다.

가장 처음으로, 최근에 bengaliai 대회에서 금메달을 따는 데 큰 도움이된 cutmix 소개 영상을 찍었습니다.

https://youtu.be/Haj-SRL72LY

좋은 연구해주신 Naver clova ai 팀에게 진심으로 감사드립니다 :)

논문은 여기 링크입니다.

https://arxiv.org/abs/1905.04899

그리고, 현재 Uber Sr. Data Scientist II Tech Lead Manager 이신 Jeong-Yoon Lee 님께서 운영하고 계시는

Kaggler.TV 에 본 영상의 영어버젼을 업로드 합니다.

cutmix 영어버젼은 아래와 같으니, 많은 응원 부탁드립니다 :)

https://youtu.be/NYPjruSyD9I

## 많은 피드백 부탁드려요

Posted by saveone

댓글을 달아 주세요

We decided to make most of our Deep Learning Teaching Materials freely available online:
https://lme.tf.fau.de/teaching/free-deep-learning-resources/
I hope this is useful for some of you. Most of it is CC 4.0 BY, so it might also be useful to everybody who teaches her- or himself.

Posted by saveone

댓글을 달아 주세요

Get started with PyTorch, Cloud TPUs, and Colab
Joe Spisak : https://medium.com/pytorch/get-started-with-pytorch-cloud-tpus-and-colab-a24757b8f7fc
#PyTorch #Colab #DeepLearning

Posted by saveone

댓글을 달아 주세요

Softmax Splatting for Video Frame Interpolation (AI Short Paper Summary)
Paper: https://arxiv.org/pdf/2003.05534.pdf
Github: https://github.com/sniklaus/softmax-splatting
Short Summary: https://www.marktechpost.com/2020/03/14/softmax-splatting-for-video-frame-interpolation/

Posted by saveone

댓글을 달아 주세요

역시 #TFDevSummitKR 키노트에 소개될 만큼 TensorFlow KR 그룹의 저력을 느낄 수 있었습니다. 이 자리를 빌어 하루만에 조회수가 1천회가 넘고, 1백회 이상 공유가 된 것에 대해 감사드립니다. 아울러 여러분들이 스터디 혹은 연구 하는데 도움이 되었으면 합니다.

어제 1부에 이어서 2부에서는 구글의 책임성 있는(Responsible) AI와 텐서플로우 교육 및 새로운 텐서플로우 개발자 인증, 개발자 커뮤니티 활동, 특히 박해선님과 같은 한국 분들이 키노트에 소개되어 "주모!"를 부르지 않을 수 없었습니다. 그외에도 유투브 플레이리스트에 올라와 있는 테크 세션들에 대해 어떤 내용이 발표 되는지 요약했습니다.

그럼 재택근무(WFH) 하시는 분들이 많으실텐데 맛있는 점심들 하시고 COVID19 예방 잘 하세요!

[#TFDevSummitKR](https://www.facebook.com/hashtag/tfdevsummitkr?source=feed_text&epa=HASHTAG&__xts__%5B0%5D=68.ARBejebBJFqAKlP15BF3BuJaqxNvi36oA2Xcwqbg_Cu5EYlpxCCLqpkjriTI-6oYkCmfpyTKFdneEbOZjtghMgw9w1hMfnQdlTjjI23nSI136Xf4cTA1DrXkAAaJX5UoFFMZJ3QialNjSgCwcwNHA8mAsdPW41vdnmDemqrUmIXvVyWAgCauLIObq0udnMnO-QCbo5qwISJ507HL3qfIxx-3jgFfnxBAE0BUTgULX2HTNaWsxjOijg6qgZ-6TfaF-QzI3aHKerbyHnMtgx2GSLRjUgr1k_cDx3cbgfIjR-2r8BZ8Nt6pHUbAlRUmIo-XTjl2XCE&__tn__=%2ANK-R-R)

[https://brunch.co.kr/@synabreu/54](https://l.facebook.com/l.php?u=https%3A%2F%2Fbrunch.co.kr%2F%40synabreu%2F54%3Ffbclid%3DIwAR3oP16PUIpRQV0s865wiy_NwawINHVcScSC4BxYsxl3n8JXBcHMeP18B84&h=AT2soJ-cH94a3l4MHALpnHX7n4z5C3RkNZqED4xhJ8UwvrkkS6npSXT_AkqOWTHqBrMOVGnlFLclwbUrMIpBjGRyCIZLOxG0gxWjqZMKw_s58uHU-TUHxETVAe-iljhWwZBzbkMiNEY2ge824k8Y3KSsxuhkKOJyGegaeo_WFPqp6lVD2XxxxDgDIvC4CtkvTvcdOFTSjIgwhrMz-yG_9JZftMtJW3JIZA6OxpvvXLU5egEQzrYoQJbricy6qrS66nW2bqYpL6Ne9GAfoQS39QYmmYP6dHe1zsSD9pXY6jJIKw2rQ6dbtm1H8fl4qg1pQc_gaTEbnY9PvRfQzp4a2DSTEOd9PqxGT07UhHi6ceFLPNL_CMuIcQkiZvUKqyvPFO8NhM5jQ5IrPM8OGGMI0Js1nSzfAk5Ux8CEIlkF4iEZm0P5OVk7gMbSNiLkaXa248IQj--EM8UsJCqlNjzx2iaFBXao_a-ed7Y4ulJfr02LwMuFygLgEzRF0JLQ_TlhbstzPlvOR_kNnYhkE4lpLbT2UWei8v06k0-8P1MUwB1h7J9xTUzTbNjJmLCLQlFewI7r25uD5rC6VSvBxYMN68xN7Ftm2hhuIvuEsxdoLoyWZFHcXg)

Posted by saveone

댓글을 달아 주세요

안녕하세요!

어제 부로 캐글 Bengaliai 대회가 마무리되었습니다.

총 2,059 팀의 참여한 대회였고,

정말 다양한 딥러닝 기반 컴퓨터 비젼 기술들이 소개되었습니다.

아래는 대략적인 정리입니다.

학습 기법: Multi label classification, auxiliary target, metric learning(arcface)

데이터 생성: data generation with cycleGAN, fonts

Metric trick: Postprocessing for recall metric

augmentation 기법: cutmix, mixup, augmix, autoaug, cutout, gridmask 등

벌써 상위 솔루션들이 소개되고 있네요

https://www.kaggle.com/c/bengaliai-cv19/discussion

1st. https://www.kaggle.com/c/bengaliai-cv19/discussion/135984

2nd. https://www.kaggle.com/c/bengaliai-cv19/discussion/135966

3rd. https://www.kaggle.com/c/bengaliai-cv19/discussion/135982

5th. https://www.kaggle.com/c/bengaliai-cv19/discussion/136129

6th. https://www.kaggle.com/c/bengaliai-cv19/discussion/136011

7th. https://www.kaggle.com/c/bengaliai-cv19/discussion/135960

8th. https://www.kaggle.com/c/bengaliai-cv19/discussion/135990

9th. https://www.kaggle.com/c/bengaliai-cv19/discussion/135985

14th. https://www.kaggle.com/c/bengaliai-cv19/discussion/136021

정말 DS, ML, DL 공부하는 데 캐글만한 게 없습니다.

최근들어 fast.ai 로 캐글에서 좋은 성적 내는 분들이 많더군요 ㅎ

fast.ai 좋아요!

Posted by saveone

댓글을 달아 주세요

[GAN] GAN — GAN Series (from the beginning to the end)

GAN zoo 등은 GAN이 너무 많아 어떤 내용부터 봐야할지 모르겠다면, 이 글을 추천합니다.

- GAN 개요
- GAN 프로젝트 예시
- GAN | Improving network design
- GAN | Improving cost function
- 그외 여러 GAN Issue

라는 큰 주제로 글을 잘 정리해두었습니다. 저도 이 순서와 Jaejun Yoo's Playground님의 자료(http://jaejunyoo.blogspot.com/search/label/GAN)를 바탕으로 Keynote를 만들고 있습니다.

매일 읽으면 해당 논문들을 2020상반기까지 읽을 수 있겠죠?? :)
함께 Keep Going 합시다!!

link : https://medium.com/@jonathan_hui/gan-gan-series-2d279f906e7b

Posted by saveone

댓글을 달아 주세요

손과 얼굴 트래킹은 이제 웹에서 아주 쉽게 할 수 있는 것 같습니다. MediaPipe와 TensorFlow.js 를 이용해서 하는 방법을 잘 소개하고 있네요. 이를 위해 facemesh / handpose 라는 패키지들이 공개되었습니다. 당장 적용해서 써먹어 볼 수 있는 앱들이 많을 것 같습니다.

[https://blog.tensorflow.org/2020/03/face-and-hand-tracking-in-browser-with-mediapipe-and-tensorflowjs.html?linkId=83996111](https://blog.tensorflow.org/2020/03/face-and-hand-tracking-in-browser-with-mediapipe-and-tensorflowjs.html?linkId=83996111)

Posted by saveone

댓글을 달아 주세요

11 Making the most of Colab (TF Dev Summit '20)

- 코랩 소개(주피터 노트북)

- 2012년부터 시작 : 와우~~ 이것은 몰랐네요. 2017년에 공개되었죠.

- 코랩 노트북에서 가상머신으로의 쉬운 연결, 최신 파이썬 버전 설치되어 있음, 수백개의 유명한 라이브러리 설치.

10가지 유용한 팁

(1) 텐서플로 2.x 버전대 지정하기(사용 가능)

(2) 텐서보드 사용

(3) TFLite? 사용가능 - 코랩에서 훈련하고, 모바일로 배포

(4) TPU - 무료 : 와우~, 런타임 변경 필요.

(5) 로컬 런타임 : 본인 GPU 사용 가능

(6) 코랩 scratchpad ??

(7) 데이터를 코랩 vm에 복사하기 - 속도 향상

(8) 메모리 관리

(9) 작업 종료후 탭 닫기

(10) 필요시에만 - GPU 사용(자원 관리)

코랩 프로 출시

그냥 아무 생각없이 코랩 사용하고 있었는데, 새로 알게된 기능들이 있네요. 코랩을 더 잘 사용할 수 있을 것 같아요. 개인적으로는 데이터를 가상머신에 복사하는 기능의 성능 향상이 궁금하네요. 기존 코랩 사용할 때, 데이터가 크면 로컬에서, 구글드라이브에서 불러올때 성능 차이가 좀 많이 났거든요.

[#TFDevSummitKR](https://www.facebook.com/hashtag/tfdevsummitkr?source=feed_text&epa=HASHTAG)

Posted by saveone

댓글을 달아 주세요

안녕하세요!

캐글의 중요성은,

캐글러들의 커리어를 추적하면 바로 알 수 있습니다.

최근 제가 소개드린 albumentations 의 개발자이며,

현재 lyft 의 시니어 비젼 엔지니어인 Vladimir Iglovikov 의

lyft3d 대회 후기입니다.

https://www.kaggle.com/c/3d-object-detection-for-autonomous-vehicles/discussion/133895

그랜드마스터가 되면 어떤 삶이 펼쳐지는 지에 대해서도

친절히 답변해주었네요

캐글로 정말 무언가 하고싶으시다면

꼭 읽어봅시다

https://towardsdatascience.com/ask-me-anything-session-with-a-kaggle-grandmaster-vladimir-i-iglovikov-942ad6a06acd

Posted by saveone

댓글을 달아 주세요

Handwritten word generation with GANs!

https://www.profillic.com/paper/arxiv:2003.02567

They are significantly advanced over prior art and demonstrate with qualitative, quantitative and human-based evaluations the realistic aspect of synthetically produced images.

Posted by saveone

댓글을 달아 주세요

안녕하세요, Cognex Deep Learning Lab KR(수아랩) Research Engineer 이호성입니다.

오늘 커뮤니티를 뜨겁게 달궜던 AutoML-Zero 논문은 3월 6일 아카이브에 올라온 논문인데요,

이 논문을 읽고 블로그에 리뷰글로 작성하여 공유드립니다. (Sung Kim 김성훈 교수님 재미있는 논문 소개해주셔서 감사합니다!!)

블로그 글: https://hoya012.github.io/blog/automl-zero-review/

내용이 너무 참신하면서도 신기한 부분이 많아서 오랜만에 논문을 재밌게 읽은 것 같습니다. 최대한 어려운 내용을 제외하고 정리를 하였으니 공부하시는데 도움이 되셨으면 좋겠습니다! 감사합니다!

Posted by saveone

댓글을 달아 주세요

안녕하세요

PyTorch를 시작한지 얼마 안되는 뉴비입니다.

PyTorch로 대표적인 논문 모델들을 구현하며 처음 겪었던 어려웠던 점은 '레포 구조 파악'이었습니다.

그래서 가볍게나마 저와 같은 뉴비들을 위해 가벼운 자료를 만들어봤습니다. PyTorch로 구현을 할 때, 파일 명과 그 용도를 가볍게 정리해봤습니다.

부족한만큼 틀린 내용은 호되게 댓글로 혼내주시면 감사하겠습니다. 제가 알면 더 좋을 내용들도 알려주시면 감사하겠습니다.

항상 커뮤니티에서 많이 배워갑니다. 감사합니다.

[https://web.facebook.com/AI.Lookbook/posts/492964571384277](https://web.facebook.com/AI.Lookbook/posts/492964571384277)

Posted by saveone

댓글을 달아 주세요

[Pytorch] 초보가 초보에게 : 어떻게 파일을 나눠야할까?

Kaggle로 ML과 시각화를 하던 저에게 Pytorch는 조금 큰 장벽이었습니다. Jupyter로 모든 파일을 작성하기는 어렵고, 그런데 오픈소스 깃헙 레포에는 파일이 너무 많고...

그래서 한 동안 일반적인 딥러닝 레포 구조 파악도 힘들었던 얼마전의 저를 떠올리며 새벽감성으로 가볍게 자료를 만들었습니다.

Simple하게 슥 읽어볼 수 있는 정도로 만들었습니다. Pytorch 초심자분들 모두 힘냅시다!!

slideshare : https://www.slideshare.net/SubinAn1/pytorch-implementation

---

무급으로 이렇게 심플템플릿+강의자료 만들다니...좀 더 실력을 키워 Pytorch 강의를 가야겠습니다. 아니면 조만간 유튜브 재시작은 어떨까요?? ㅎㅎ

#Pytorch #subinium #AI_Lookbook

Posted by saveone

댓글을 달아 주세요

Alexandre Devaux coded an experiment that extract people from photo using deep learning and make them appear as holograms: https://twitter.com/AlexandreDevaux/status/1234460583552049152

#webgl #WebXR #TensorFlowJS

Posted by saveone

댓글을 달아 주세요

안녕하세요

Bengali.AI 대회에 대해 영상을 3개 더 찍었네요

Multi label 일 때, stratified folding 을 할 수 있는 방법,

효율적으로 학습을 진행할 수 있는 방법,

파이토치로 데이터셋을 어떻게 만드는지에 대해서 다뤘습니당 ㅎ

대회가 2주밖에 안남아서 빨리 베이스라인만드는거 까지 만들어보겠습니다.

Ch.2-2 https://youtu.be/HYZ7vZmFiCg

Ch.2-3 Efficient learning process https://youtu.be/pLRXu1eT8gU

Ch.3 Pytorch dataset https://youtu.be/_rcPfVuRScU

Posted by saveone

댓글을 달아 주세요

깃허브에서 1만 스타 받은 한국의 오픈소스들(Byline Network 심재석 기자)

깃허브는 세계에서 가장 유명한 소스코드 공유 사이트입니다. 깃허브의 ‘스타’는 일종의 즐겨찾기 같은 건데, 스타가 많을수록 개발자들이 많이 찾는 오픈소스 프로젝트라는 의미가 되겠죠.

NHN의 발표대로 국내 기업이 공개한 오픈소스 프로젝트 중에 1만 스타를 기록한 것은 이번이 처음입니다. 그러나 ‘기업’이라는 수식어가 붙었을 때만 이 문장이 팩트입니다. 개인의 소스코드 중에는 이미 1만 스타를 넘은 소스코드가 여럿 있기 때문입니다.

* fzf (카카오 최정근)

* vim-plug(카카오 최정근)

* pytorch-tutorial(네이버 최윤제)

* tui.editor(NHN)

* Awesome-CV(프리랜서 개발자 박병진)

* pinpoint (네이버)

* 썸머노트(summernote)(홍영택)

* awesome-deep-vision(SK텔레콤 김지원 상무)

* 출처 : https://byline.network/2020/03/3-63/

Posted by saveone

댓글을 달아 주세요

👨‍🏫 안녕하세요 데이콘의 경진대회 수상작들 중에 PDF로 만들어진 내용을 슬라이드 쉐어에 모아 봤습니다.

🥳특히 시각화 대회 수상작들을 감상 하시면 좋을 것 같습니다.

🔜[https://www.slideshare.net/daconist](https://www.slideshare.net/daconist?fbclid=IwAR2N1Gg4YImk5OtefERdIhDSzlzxjLhC4bgj5tmKVvophZ56pVKDOX9NgtI)

🥌향후에는 자료 공유로 오픈할 예정입니다.

💥참고로 데이콘 모바일 웹 오픈!! 기다리시던 모바일도 오픈 했습니다.

🔜[http://bit.ly/2HY51pi](https://l.facebook.com/l.php?u=https%3A%2F%2Fbit.ly%2F2HY51pi%3Ffbclid%3DIwAR0ShjSCGEZ6PRh5X_HXoLL-GMiuBoEERkPlcJlclZ38a8hoBns9mK2C_zw&h=AT1PG6TN0Gq1uuCckidadjmpaDuREGEPQxeI9av-yWVO1titYjvy313kHvo1p5oAJdXjRl3WwUZMt0mEgWCwUlUnWD1XVWEaoqq2P86fijmejflZ7XNLKY6S1MJpj4oXmBQ7cd0zSBktqXX7dukhG1h-S2D2s4DiP3Dps6ojq3PpIpR3lmzK49KPj0j3tlEiJaJ6UPT22T92LGhsxcgYEysRRuLu7lhpWfNwmJbPg45Zh21DOYHp_DPhIloqb14ly9QxsT_ubb13SF2evrhtqPnx55ZObZoCjimKLxKBNKUyayqOQW-mpPPrE9EctHprAt9ffSbQAmv0k5Xbdf3cxsQtX9AJLz2pajpeWZa5sKNaPq5NtLd_hBEzkCAY3cGzkBrhxA-gNNKFcgzGs4EbVjD92olTT5SwvytNGgoLia4EBXqd7u1BCp9LXG9QFSOmRHtV-jX1X6G-jokH_X9lgtzeRCZO-C0DdUDjEkScZ3hc4-b_dgcI2UFqh8TVnd3vje9sYUQv8-0iUx_c3ukH4onVS-qNJFdZ5o6R6uj9orNZEf7AX1GpbrtXgVuwUL5ErFSsDKWCb89km-Z8hiIdDA32UXtcn_GiVovK_NMw0hLb4Zq_)

[#dacon](https://www.facebook.com/hashtag/dacon?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#datavisualization](https://www.facebook.com/hashtag/datavisualization?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#DataScience](https://www.facebook.com/hashtag/datascience?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#DataAnalyst](https://www.facebook.com/hashtag/dataanalyst?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#DataEngineer](https://www.facebook.com/hashtag/dataengineer?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#DataScientist](https://www.facebook.com/hashtag/datascientist?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#DataMining](https://www.facebook.com/hashtag/datamining?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#MachineLearning](https://www.facebook.com/hashtag/machinelearning?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#deeplearning](https://www.facebook.com/hashtag/deeplearning?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#AI](https://www.facebook.com/hashtag/ai?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R)
[#데이터사이언스](https://www.facebook.com/hashtag/%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#데이터사이언티스트](https://www.facebook.com/hashtag/%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%ED%8B%B0%EC%8A%A4%ED%8A%B8?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#데이터분석가](https://www.facebook.com/hashtag/%EB%8D%B0%EC%9D%B4%ED%84%B0%EB%B6%84%EC%84%9D%EA%B0%80?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#데이터](https://www.facebook.com/hashtag/%EB%8D%B0%EC%9D%B4%ED%84%B0?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#머신러닝](https://www.facebook.com/hashtag/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#딥러닝](https://www.facebook.com/hashtag/%EB%94%A5%EB%9F%AC%EB%8B%9D?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#통계](https://www.facebook.com/hashtag/%ED%86%B5%EA%B3%84?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R) [#수학](https://www.facebook.com/hashtag/%EC%88%98%ED%95%99?source=feed_text&epa=HASHTAG&__xts__[0]=68.ARDc6dVsghnnnd7zXqp7-VCkOZZUUDPtF82ZeHMaUafQHUhU3d8JutJ_Kp3jabTXWImm9NdtUSaaPNbMvdDjFHpL-v9rBq5op8ZDjK9NH5pQWamXqLkZJA-nQaS-LQja5xzqdovlsSM17Ft7aHnQhThDYqregmf_Bz3AQDLe2wK-0c-rxUcq79woONQPsW4XiD2qlM9FSofhUOUlfRZSWIrlJmGBSPZ0i99efsz-sjxiv_i7zLxZHcuV_8z2_YcIO4lqfTr6fK873uOq91XGnZrCBWIpGK8oXG6MUfy_8DszNeNOhe7_3Eq3hdPjKX2uauwU&__tn__=*NK-R-R)

Posted by saveone

댓글을 달아 주세요

안녕하세요.

작년 이맘 때즈음 강화학습을 처음 공부하면서 정리해 놓았던 노트를 공유합니다.

완벽하진 않지만, 처음 공부하시는 분들께 조금이나마 도움이 되셨으면 하는 바람으로 공유드립니다.

주된 내용은 David Sliver의 reinforcement learning
(http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html)과 팡요랩(https://www.youtube.com/watch?v=wYgyiCEkwC8&list=PLpRS2w0xWHTcTZyyX8LMmtbcMXpd3s4TU)에서 해주신 것에 필요하다고 생각된 부분은 Sutton 교수님의 Reinforcement learning 교재를 바탕으로 정리해보았습니다.(너무나 잘 설명해주셔서 감사합니다 !)

혹시 잘못된 내용이 있으면 말씀부탁드립니다.

https://github.com/LoveRL/Introduction-of-Reinforcement-Learning

Posted by saveone

댓글을 달아 주세요

CS330 전과정 강의비디오가 유튜브에 업로드되었습니다.

https://www.youtube.com/playlist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5

강의홈페이지는 아래와 같다고 유튜브영상 설명에 나와 있네요.

[http://cs330.stanford.edu/](https://www.youtube.com/redirect?q=http%3A%2F%2Fcs330.stanford.edu%2F&redir_token=SuMgss2EQcNktBe9UOk6rPcQZ5p8MTU4Mjc1Njg1MUAxNTgyNjcwNDUx&event=video_description&v=0rZtSwNOTQo)

Posted by saveone

댓글을 달아 주세요

https://www.edureka.co/blog/deep-learning-projects/

 

Deep Learning is clearly a field that has seen crazy advancements in the past couple of years. These advancements have been made possible by the amazing projects in this area. The need for Data Scientists and AI Engineers are high in demand and this surge is due to the large amount of data we collect. So, in this article, I’ll discuss some of the top Deep Learning Projects.

Lung Cancer Detection

Lung cancer has long been one of the most difficult forms of the disease to diagnose. With doctors using their eyes for detection, the nodules are harder to spot and as a result, the cancer is either detected too late or not detected at all. The nodule can have a variety of looks, and it takes doctors years to know all the different looks.

12 Sigma uses deep learning to train an AI algorithm that would help doctors analyze CT scan images more efficiently. They train the models on GPU-powered neural networks that run 50 times faster than those running CPUs. Hospitals using the Model can get results in under 10 min which saves at least 4-5 hours of Doctor’s work.

 

Detectron

Detectron is Facebook AI Research’s software system that implements state-of-the-art Object Detection algorithms. It is written in Python and powered by the Caffe2 deep learning framework. You can detect every object in a video and that too live.

The goal of Detectron is to provide a high-quality, high-performance codebase for object detection research. It is designed to be flexible in order to support rapid implementation and evaluation of novel research. It contains more than 50 Pre-trained models. It’s an amazing Deep Learning Project.

 

WaveGlow

Deep Learning is also doing major advancements in audio processing and it’s not just generating music or classification. WaveGlow is a Flow-based Generative Network for Speech Synthesis by NVIDIA.

AI & Deep Learning with TensorFlow

  • Instructor-led Sessions
  • Real-life Case Studies
  • Assignments
  • Lifetime Access

Explore Curriculum

WaveGlow combines insights from Glow and WaveNet in order to provide fast, efficient and high-quality audio synthesis, without the need for auto-regression. WaveGlow is implemented using only a single network, trained using only a single cost function: maximizing the likelihood of the training data, which makes the training procedure simple and stable.

 

Image Enlarging

Google Brain has devised some new software that can create detailed images from tiny, pixelated source images. Google’s software, in short, basically means the “zoom in… now enhance!” TV trope is actually possible. First, take a look at the image on the right.

The left column contains the pixelated 8×8 source images, and the center column shows the images that Google Brain’s software was able to create from those source images. For comparison, the real images are shown in the right column. As you can see, the software seemingly extracts an amazing amount of detail from just 64 source pixels. It’s ana amazing Deep Learning Project.

 

OpenCog

No challenge today is more important than creating beneficial Artificial General Intelligence (AGI), with broad capabilities at the human level and ultimately beyond. OpenCog is a project that aims to build an open-source artificial intelligence framework.

The human brain consists of a host of subsystems carrying out particular tasks: some more specialized, some more general in nature. The OpenCog design aims to capture the spirit of the brain’s architecture and dynamics without imitating the details. Sophia the great AI Bot is one of the first of it’s kind to possess the traits of AGI.

 

Deep Mimic

A longstanding goal in character animation is to combine data-driven specification of behavior with a system that can execute a similar behavior in a physical simulation, thus enabling realistic responses to perturbations and environmental variation.

DeepMimic is an example-Guided Deep Reinforcement Learning of Physics-Based Character Skills. The reinforcement learning (RL) methods can be adapted to learn robust control policies capable of imitating a broad range of example motion clips, while also learning complex recoveries, adapting to changes in morphology, and accomplishing user-specified goals.

 

Image Outpainting

Imagine you have a half image of a scene and you wanted the full scenery, well that’s what image outpainting can do that for you. This project is a Keras implementation of Stanford’s Image Outpainting paper. The model was trained with 3500 scrapped beach data with argumentation totaling up to 10500 images for 25 epochs.

This is an amazing paper with a detailed step by step explanation. A must-try example for all the Deep Learning Enthusiasts. Personally, this is my favorite Deep Learning project.

 

IBM Watson

Watson is an IBM supercomputer that combines Artificial Intelligence (AI) and sophisticated analytical software for optimal performance as a “question answering” machine. The supercomputer is named for IBM’s founder, Thomas J. Watson. It is the open, multi-cloud platform that lets you automate the AI life cycle.

AI & Deep Learning with TensorFlow

Weekday / Weekend BatchesSee Batch Details

Applications for Watson’s underlying cognitive computing technology are almost endless. Because the device can perform text mining and complex analytics on huge volumes of unstructured data, it can support a search engine or an expert system with capabilities far superior to any previously existing.

The possibility of IBM Watson is endless. It works in major areas like:

  • Healthcare
  • Analytics
  • ChatterBot
  • Teaching Assistants

With this, we come to an end of this Deep Learning Projects article. I hope these projects are enough to get you started on Deep Learning Projects, check out the AI and Deep Learning With Tensorflow by Edureka, a trusted online learning company with a network of more than 250,000 satisfied learners spread across the globe. This Certification Training is curated by industry professionals as per the industry requirements & demands. You will master the concepts such as SoftMax function, Autoencoder Neural Networks, Restricted Boltzmann Machine (RBM) and work with libraries like Keras & TFLearn.

Posted by saveone

댓글을 달아 주세요

Video from 1896 changed to 60fps and 4K!

The paper that was used to bring to 60fps:

https://www.profillic.com/paper/arxiv:1904.00830

Gigapixel AI was used to bring it to 4K

Posted by saveone

댓글을 달아 주세요

State of the art in image inpainting (see example in the picture!)

https://www.profillic.com/paper/arxiv:2002.02609

They proposed a dense multi-scale fusion network with self-guided regression loss and geometrical alignment constraint

Posted by saveone

댓글을 달아 주세요

Machine Learning From Scratch

GitHub, by Erik Linder-Norén : https://github.com/eriklindernoren/ML-From-Scratch

#ArtificialIntelligence #DeepLearning #MachineLearning 

Machine Learning From Scratch. Bare bones NumPy implementations of machine learning models and algorithms with a focus on accessibility. Aims to cover everything from linear regression to deep learning.

Machine Learning From Scratch

About

Python implementations of some of the fundamental Machine Learning models and algorithms from scratch.

The purpose of this project is not to produce as optimized and computationally efficient algorithms as possible but rather to present the inner workings of them in a transparent and accessible way.

Table of Contents

Installation

$ git clone https://github.com/eriklindernoren/ML-From-Scratch $ cd ML-From-Scratch $ python setup.py install

Examples

Polynomial Regression

$ python mlfromscratch/examples/polynomial_regression.py

Figure: Training progress of a regularized polynomial regression model fitting
temperature data measured in Linköping, Sweden 2016.

Classification With CNN

$ python mlfromscratch/examples/convolutional_neural_network.py +---------+ | ConvNet | +---------+ Input Shape: (1, 8, 8) +----------------------+------------+--------------+ | Layer Type | Parameters | Output Shape | +----------------------+------------+--------------+ | Conv2D | 160 | (16, 8, 8) | | Activation (ReLU) | 0 | (16, 8, 8) | | Dropout | 0 | (16, 8, 8) | | BatchNormalization | 2048 | (16, 8, 8) | | Conv2D | 4640 | (32, 8, 8) | | Activation (ReLU) | 0 | (32, 8, 8) | | Dropout | 0 | (32, 8, 8) | | BatchNormalization | 4096 | (32, 8, 8) | | Flatten | 0 | (2048,) | | Dense | 524544 | (256,) | | Activation (ReLU) | 0 | (256,) | | Dropout | 0 | (256,) | | BatchNormalization | 512 | (256,) | | Dense | 2570 | (10,) | | Activation (Softmax) | 0 | (10,) | +----------------------+------------+--------------+ Total Parameters: 538570 Training: 100% [------------------------------------------------------------------------] Time: 0:01:55 Accuracy: 0.987465181058

Figure: Classification of the digit dataset using CNN.

Density-Based Clustering

$ python mlfromscratch/examples/dbscan.py

Figure: Clustering of the moons dataset using DBSCAN.

Generating Handwritten Digits

$ python mlfromscratch/unsupervised_learning/generative_adversarial_network.py +-----------+ | Generator | +-----------+ Input Shape: (100,) +------------------------+------------+--------------+ | Layer Type | Parameters | Output Shape | +------------------------+------------+--------------+ | Dense | 25856 | (256,) | | Activation (LeakyReLU) | 0 | (256,) | | BatchNormalization | 512 | (256,) | | Dense | 131584 | (512,) | | Activation (LeakyReLU) | 0 | (512,) | | BatchNormalization | 1024 | (512,) | | Dense | 525312 | (1024,) | | Activation (LeakyReLU) | 0 | (1024,) | | BatchNormalization | 2048 | (1024,) | | Dense | 803600 | (784,) | | Activation (TanH) | 0 | (784,) | +------------------------+------------+--------------+ Total Parameters: 1489936 +---------------+ | Discriminator | +---------------+ Input Shape: (784,) +------------------------+------------+--------------+ | Layer Type | Parameters | Output Shape | +------------------------+------------+--------------+ | Dense | 401920 | (512,) | | Activation (LeakyReLU) | 0 | (512,) | | Dropout | 0 | (512,) | | Dense | 131328 | (256,) | | Activation (LeakyReLU) | 0 | (256,) | | Dropout | 0 | (256,) | | Dense | 514 | (2,) | | Activation (Softmax) | 0 | (2,) | +------------------------+------------+--------------+ Total Parameters: 533762

Figure: Training progress of a Generative Adversarial Network generating
handwritten digits.

Deep Reinforcement Learning

$ python mlfromscratch/examples/deep_q_network.py +----------------+ | Deep Q-Network | +----------------+ Input Shape: (4,) +-------------------+------------+--------------+ | Layer Type | Parameters | Output Shape | +-------------------+------------+--------------+ | Dense | 320 | (64,) | | Activation (ReLU) | 0 | (64,) | | Dense | 130 | (2,) | +-------------------+------------+--------------+ Total Parameters: 450

Figure: Deep Q-Network solution to the CartPole-v1 environment in OpenAI gym.

Image Reconstruction With RBM

$ python mlfromscratch/examples/restricted_boltzmann_machine.py

Figure: Shows how the network gets better during training at reconstructing
the digit 2 in the MNIST dataset.

Evolutionary Evolved Neural Network

$ python mlfromscratch/examples/neuroevolution.py +---------------+ | Model Summary | +---------------+ Input Shape: (64,) +----------------------+------------+--------------+ | Layer Type | Parameters | Output Shape | +----------------------+------------+--------------+ | Dense | 1040 | (16,) | | Activation (ReLU) | 0 | (16,) | | Dense | 170 | (10,) | | Activation (Softmax) | 0 | (10,) | +----------------------+------------+--------------+ Total Parameters: 1210 Population Size: 100 Generations: 3000 Mutation Rate: 0.01 [0 Best Individual - Fitness: 3.08301, Accuracy: 10.5%] [1 Best Individual - Fitness: 3.08746, Accuracy: 12.0%] ... [2999 Best Individual - Fitness: 94.08513, Accuracy: 98.5%] Test set accuracy: 96.7%

Figure: Classification of the digit dataset by a neural network which has
been evolutionary evolved.

Genetic Algorithm

$ python mlfromscratch/examples/genetic_algorithm.py +--------+ | GA | +--------+ Description: Implementation of a Genetic Algorithm which aims to produce the user specified target string. This implementation calculates each candidate's fitness based on the alphabetical distance between the candidate and the target. A candidate is selected as a parent with probabilities proportional to the candidate's fitness. Reproduction is implemented as a single-point crossover between pairs of parents. Mutation is done by randomly assigning new characters with uniform probability. Parameters ---------- Target String: 'Genetic Algorithm' Population Size: 100 Mutation Rate: 0.05 [0 Closest Candidate: 'CJqlJguPlqzvpoJmb', Fitness: 0.00] [1 Closest Candidate: 'MCxZxdr nlfiwwGEk', Fitness: 0.01] [2 Closest Candidate: 'MCxZxdm nlfiwwGcx', Fitness: 0.01] [3 Closest Candidate: 'SmdsAklMHn kBIwKn', Fitness: 0.01] [4 Closest Candidate: ' lotneaJOasWfu Z', Fitness: 0.01] ... [292 Closest Candidate: 'GeneticaAlgorithm', Fitness: 1.00] [293 Closest Candidate: 'GeneticaAlgorithm', Fitness: 1.00] [294 Answer: 'Genetic Algorithm']

Association Analysis

$ python mlfromscratch/examples/apriori.py +-------------+ | Apriori | +-------------+ Minimum Support: 0.25 Minimum Confidence: 0.8 Transactions: [1, 2, 3, 4] [1, 2, 4] [1, 2] [2, 3, 4] [2, 3] [3, 4] [2, 4] Frequent Itemsets: [1, 2, 3, 4, [1, 2], [1, 4], [2, 3], [2, 4], [3, 4], [1, 2, 4], [2, 3, 4]] Rules: 1 -> 2 (support: 0.43, confidence: 1.0) 4 -> 2 (support: 0.57, confidence: 0.8) [1, 4] -> 2 (support: 0.29, confidence: 1.0)

Implementations

Supervised Learning

Unsupervised Learning

Reinforcement Learning

Deep Learning

Contact

If there's some implementation you would like to see here or if you're just feeling social, feel free to email me or connect with me on LinkedIn.

 

 

Posted by saveone

댓글을 달아 주세요

안녕하세요!

최근 ImageNet 에 SOTA 를 찍은 논문입니다.

https://arxiv.org/abs/1911.04252

캐글에서 많이 보던 pseudo-labeling 이 들어가있네요!

대략 정리하면

1. Train the teacher model with labeled data

2. Generate pseudo label for unlabeled data with teacher model

3. Train the student model with both labeled data and unlabeled data

4. Generate pseudo label for unlabeled data with teature model (student model in step 3)

5. Train the student model with both labeled data and unlabeled data

위 과정을 계속 반복합니다 ㅎ

성능이 매우 좋아지네요!

캐글에서 메달 따려면, SOTA 논문을 잘 보고, 그대로 쓰면 되겠죠?

Posted by saveone

댓글을 달아 주세요

https://www.facebook.com/groups/PyTorchKR/permalink/1620762534730088/

Pytorch로 image classification 작업하는 분들을 위해 좋은 github을 소개합니다.

https://github.com/rwightman/pytorch-image-models

(pip install timm이나 git clone https://github.com/rwightman/pytorch-image-models 등으로 사용하실 수 있습니다.)

이전에도 efficientnet code에 대해서 소개해드린 코드베이스입니다.

EfficientNet, ResNet, HRNet, SelecSLS등 다양한 모델들과 pretrained weight들을 갖추고 있으며, 모듈러 구조로 다양한 batchnorm, activation, 트레이닝트릭등(Autoaugment 등) 을 쉽게 사용할 수 있도록 짜여있습니다.

개인이 만든것이라고 생각하기에는 놀라울정도로 다양한 모델들과 아키텍쳐를 갖추고 있는데요, maintainer 본인이 여러 업무나 kaggle대회를 진행하거나 논문들을 살펴보면서 맞이하는 코드등을 쌓아가면서 코드를 형성했다고합니다.

 

최근에 네이버 클로버ai에서 resnet을 재구성하여 이전에 sota였던 efficientnet을 능가하는 assemblenet이 나온 후, 여기 maintainer도 tensorflow로 구성되어있던 원래의 코드를 pytorch로 구현하는 작업에 매진하고 있는 모양입니다.

현재는 selective kernel network를 구현하고 있는데요 이미 다양한 최적화, 모듈화가 가능한 자신의 코드베이스에 맞게 재구성중인 모양입니다.

 

저 개인적으로는 해당 assemblenet 논문의 결론부에서 언급된 ECA- Net(efficient channel attention)을 나름대로 재구성해서 해당 github에 pull request를 보내놓은 상태입니다.

 

이 과정에서 원래 ECA 논문(https://arxiv.org/pdf/1910.03151.pdf)
의 잠재적인 한계에 봉착하였습니다.

 

ECA 원문에서는 channel간의 결과를 convolution할때 kernel size에 맞게 zero padding하게 됩니다.

그러나 채널들간의 관계는 인접한 픽셀이나 feature map과는 다르기 때문에 zero padding하는게 무의미하다고 생각하였습니다.

"첫"채널이나 "마지막"채널은 기하학적이거나 위상적인 의미를 지니지 않을 것이기 때문에 더 zeropadding하여 더 적은 channel과 convolution하기보다는 circular padding을 통해 모든 채널이 같은 갯수의 서로 다른 채널들과 convolution하는게 논리적으로 맞다고 생각합니다.

 

그러한 논리적 접근에 따라 circular ECA module을 구현하여 함께 pull request를 하였지만, 꼭 해당 코드에만 사용해야하는 것은 아니라 이러한 attention module(ECA든 cECA든) 이 적합하다고 생각하시는 분이라면 참고해서 쓰실 수있으셨으면 좋겠습니다.

 

ECA PR: https://github.com/rwightman/pytorch-image-models/pull/82

해당 repo를 fork하여 eca를 구현한 제 코드

https://github.com/VRandme/pytorch-image-models/tree/eca

 

ECA가 SE, CBAM등 여태까지 나온 대부분의 attention model보다 우수한 성능을 보여주었는데, 저는 아직도 spatial attention을 구현한 CBAM에 미련이 남습니다.

그래서 이 코드가 정리되면 CBAM의 채널 attention부분만 ECA로 교체한 ECABAM?을 구현해볼 예정입니다.

안타깝게도 아직은 ImageNet수준의 트레이닝/테스팅을 수행할만한 여건이 되지 않아서 유의미한 진행은 어려울것같은데요, 곧 google collab에서 9.99$/mo로 무료 서비스와 차별화된 서비스를 제공한다고하니 한국에도 출시되면 알아봐야겠습니다.

관심있는 분들 살펴봐주시고 잘못된 부분등은 얼마든지 지적해주시기바랍니다. 감사합니다.

@Jong Chan Park

Posted by saveone

댓글을 달아 주세요

State of the art in image translation (guided)

https://www.profillic.com/paper/arxiv:2002.01048

Applications in facial expression generation, hand gesture translation, person image generation, cross view image translation etc.

(The proposed SelectionGAN explicitly utilizes the semantic guidance information and consists of two stages)

Posted by saveone

댓글을 달아 주세요

KB금융그룹 문자 분석 경진대회의 수상자가 가려졌습니다.

수고하셨습니다. 코로나 때문에 아쉽게 시상식은 열리지 못했지만

데이콘에서 2주 후 밋업을 개최할 예정입니다.

👑1. 참여 통계

a.참여팀 438 팀

b.참여인원 960 명

🌝2. public_test 검증횟수 6,349 회

a.리더보드 팀 수 373 팀

b.데이터 다운로드 수 2127 회

c. 우승자 점수 (최종 순위 순)

🎉팀명 AUC Infer Time 점수 상금

1.스팸구이 0.999405 6.827 1.3(1) 1000

2.Jhw 0.999058 7.512 3(2) 500

3.지주 0.998289 16.780 5.3(3) 250

4.Start Over 0.9992 3185.950 5.9(4) 100

5.곱창전골저아 0.998474 109.3967 6.1(5) 50

6.곰다리 0.997967 9.825 6.1(6) 50

7.김웅곤 0.997991 235.335 8.1(7) 50

3.의미 🌟

대회 참여 인원은 총 960명으로 국내에서 가장 많은 사람이 참가한 데이터 경진대회로 성황리에 마무리되었습니다. 많은 사람이 참여한 이유로는 1. 기존 데이콘 회원의 높은 참가율 2. 높은 상금 (총 2,000 만원) 3. KB금융, 한국인터넷진흥원(KISA)의 높은 브랜드 가치인 것으로 판단됩니다.

알고리즘 평가를 위해서 대회 중 새롭게 수집한 11월 ~ 12월 금융 문자 데이터에 대해 예측력과, 예측 시간을 측정했습니다. 많은 우수 코드들은 공통적으로 형태소 분석기로는 Mecab을 사용했으며 머신러닝 모델로는 LightGBM을 사용했습니다. 대회 특성상 정확도와 함께 예측 속도가 중요하기 때문에 정확하면서도 처리시간이 짧은 Mecab이 선택되었고, 길이가 짧은 금융문자 특성상 신경망 기반의 BERT, LSTM과 같이 무거운 모델 보다는 비교적 가벼운 LightGBM이 선호된 것으로 보입니다.

대회 결과 새로운 데이터 세트에 대해 AUC 0.999405, 정확도 95%의 높은 예측력을 보이면서도 속도 또한 개당 2ms로 빠르게 처리하는 알고리즘을 발굴할 수 있었습니다. 이로써 고객에게 실시간으로 스미싱 여부를 제공하는 것이 가능할 것으로 기대됩니다.

➡️

Posted by saveone

댓글을 달아 주세요

Sound Classification with Machine Learning: A demo of a Neural Network trained to classify animal sounds, rain drops, baby crying and man-made noises like helicopter flying.

https://youtu.be/yhr4yw8N9ig

http://bit.ly/2lUbFoQ

Posted by saveone

댓글을 달아 주세요

안녕하세요!

deepfake 대회가 진행되고 있지만,

쉽지 않은 대회인 것 같습니다.

저어어엉~말 간단하게 프로세스를 정리해봤습니다.

조금이나마 도움되시길 바라며!

대회하며 공부해봅시다 :)

# 1. Face detection 한다.

- 이 커널로 스터디 [https://www.kaggle.com/timesler/comparison-of-face-detection-packages](https://www.kaggle.com/timesler/comparison-of-face-detection-packages)

- facenet-pytorch

- mtcnn

- dlib

# 2. 추출된 이미지로, real, fake face classifier 만든다.

- [https://www.kaggle.com/robikscube/faceforensics-baseline-dlib-no-internet](https://www.kaggle.com/robikscube/faceforensics-baseline-dlib-no-internet)

- [https://www.kaggle.com/unkownhihi/starter-kernel-with-cnn-model-ll-lb-0-69235](https://www.kaggle.com/unkownhihi/starter-kernel-with-cnn-model-ll-lb-0-69235)

- [https://www.kaggle.com/humananalog/inference-demo](https://www.kaggle.com/humananalog/inference-demo)

Posted by saveone

댓글을 달아 주세요