'2019/11'에 해당되는 글 70건

  1. 2019.11.18 Computer Vision Specialization | Coursera. Learn how computers visually process the world. Dive into artificial intelligence’s fastest-growing field There are 4 Courses in this Specialization: COURSE 1) Computer Vision Basics. COURSE 2) Image Processi..
  2. 2019.11.18 TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다 이번 논문은 YOLO v3입니다. 매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히..
  3. 2019.11.18 안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다. 이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised vis..
  4. 2019.11.17 안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다! 팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요, 이번에는 얼마전에 딥마인드에서 공개한 알파스.. 1
  5. 2019.11.17 Transforming realistic photos into cartoon style images!😅 https://www.profillic.com/paper/arxiv:1911.06102 (Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
  6. 2019.11.17 그룹에 Mathematics for Machine Learning(MML) 책을 보고 공부하시는 분들이 많을 것 같습니다. 동명의 Coursera 강의를 듣는 분들도 계실테고요. 강의를 진행하는 4명의 강사 중 한 명인 Sam Cooper는 Coursera..
  7. 2019.11.15 https://github.com/JONGGON/Gluon-Detector Retina SSD YoloV3 구현 을 마쳤습니다.
  8. 2019.11.15 Hi DataScience enthusiast . Are you fresher or professional looking out to make your path as "Data Scientist" and here something for you for upcoming 30days(prepare yourself and get hired ) . DataScience interview questions #day13 . If you missed #day1 ..
  9. 2019.11.15 Interactive SLAM 라이다 센서로 semi automatic하게 맵 만들어볼수 있는 오픈소스 프레임워크입니다 ㅎ
  10. 2019.11.15 안녕하세요 여러분! 얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁 신기한 것들 많이 보고 와서 너무 좋았습니다! 학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇..
  11. 2019.11.15 SLAM KR에서 SLAM 입문하시려는 분들 계실까요? 내년 1월부터 ORB-SLAM 스터디 하려고 합니다 :) 이론과 코드 전부 마스터 할거입니다 후후!! 다만 쉬운 스터디는 아닐거라서, 준비과정인 1부와 SLAM ..
  12. 2019.11.14 matlab기반의 image warping을 통한 얼굴에 mask씌우기 - Code (Matlab) for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the fac..
  13. 2019.11.14 python 자동 face warping 라이브러리 - PyChubby
  14. 2019.11.14 Gradient Boost와 관련 모델 정리 (하나씩 점을 찍어 나가며 / 미스터 흠시) * 영상 : StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1 영상 미스터 흠시 님께서 "StatQuest with Josh Starmer 의 StatQuest: Gra..
  15. 2019.11.13 From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions https://www.profillic.com/paper/arxiv:1911.03567 (They survey three state-of-the-art face detection methods based on general images, i.e. Casc..
  16. 2019.11.13 ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다. 논문 제목: Self-training with Noisy Student improves ImageNet classification [논문 링크: https://arxiv.org/pdf/1911.04252...
  17. 2019.11.12 This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks Github: https://github.com/deezer/spleeter https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
  18. 2019.11.12 TF-KR PR-12 206번째 발표는 PointRCNN 이라는 논문입니다. raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다. PR-12에서 point cloud와 관련된 발표는 처음이었는데, 저 또한 이 분야에 대해 ..
  19. 2019.11.12 안녕하세요 SLAM kr!저도 처음 SLAM이나 localization을 공부할 때 코드 구현에 익숙치 않았는데요,김기섭 (Paul Giseop Kim) 을 본받아 저는 실제 2D LiDAR 데이터로 Monte Carlo Localization을 구현했던 c++ 기..
  20. 2019.11.11 python for data science cheat sheet using pandas
  21. 2019.11.11 안녕하세요, PyTorch KR! torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요..
  22. 2019.11.11 리그레션 종류
  23. 2019.11.08 안녕하세요!!! 이전 대회들의 솔루션을 캐글에서 모아줬네요!! 이러니 캐글을 안할수가 있나요!! 어여 공부 킵고잉 합시다!!
  24. 2019.11.08 안녕하세요 박찬준 입니다. 최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다. 딥러닝의 기초 인 ANN, DNN, CN..
  25. 2019.11.08 모두의연구소 - AI COLLEGE 소식 오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습..
  26. 2019.11.07 Machine Learning Tutorial 6 - Decision Tree Classifier and Decision Tree Regression in Python
  27. 2019.11.07 안녕하세요 박찬준입니다. OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다. 기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하..
  28. 2019.11.06 What is Facial Recognition?
  29. 2019.11.05 [Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation --- Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 ..
  30. 2019.11.05 A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu You can subscribe my channel for more such videos https://www.yo..
Computer Vision Specialization | Coursera.
Learn how computers visually process the world. Dive into artificial intelligence’s fastest-growing field
There are 4 Courses in this Specialization:
COURSE 1) Computer Vision Basics.
COURSE 2) Image Processing, Features & Segmentation.
COURSE 3) Stereo Vision, Dense Motion & Tracking.
COURSE 4) Visual Recognition & Understanding.
http://bit.ly/31Xgm15
https://www.facebook.com/groups/computervisionandimageprocessing/permalink/2561374053932234/?sfnsn=mo
Posted by uniqueone
,
TensorFlow Korea 논문읽기모임 PR12 207번째 논문 review입니다

이번 논문은 YOLO v3입니다.

매우 유명한 논문이라서 크게 부연설명이 필요없을 것 같은데요, Object Detection algorithm들 중에 YOLO는 굉장히 특색있는 one-stage algorithm입니다. 이 논문에서는 YOLO v2(YOLO9000) 이후에 성능 향상을 위하여 어떤 것들을 적용하였는지 하나씩 설명해주고 있습니다. 또한 MS COCO의 metric인 average mAP에 대해서 비판하면서 mAP를 평가하는 방법에 대해서도 얘기를 하고 있는데요, 자세한 내용은 영상을 참고해주세요~

영상링크: https://youtu.be/HMgcvgRrDcA

논문링크: https://arxiv.org/abs/1804.02767

발표자료: https://www.slideshare.net/JinwonLee9/pr207-yolov3-an-incremental-improvement
https://www.facebook.com/groups/TensorFlowKR/permalink/1039655006375557/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 수아랩(코그넥스)의 이호성이라고 합니다.
이번에 PR12 모임에 합류하게 되면서 첫 발표를 하게 되었습니다! 저는 208번째 논문 리뷰를 진행하게 되었고, 발표 주제는 "Unsupervised visual representation learning overview: Toward Self-Supervision" 입니다.

딥러닝의 성능을 높이기 위해선 양질의 데이터가 필요한 것은 다들 잘 알고 계실 거라 생각합니다.
Supervised Learning 방식은 많은 수의 데이터가 있으면, 데이터에 대한 Label도 필요로 하게 되고 이 과정에서 많은 비용이 필요하게 됩니다.
이러한 점에 주목한 여러 연구들 중 Unsupervised Learning 연구 분야의 하위 주제인 "Self-Supervised Learning" 에 대해 리뷰를 하였습니다.
주요 논문들을 간략하게 소개드리며 연구 흐름을 소개드리고 어떠한 방법들이 제안이 되었는지, 어떠한 방식으로 성능을 평가하는지 등을 다루고 있습니다. 자세한 내용은 영상을 참고하시면 좋을 것 같습니다. 감사합니다!

영상링크: https://youtu.be/eDDHsbMgOJQ
발표자료: https://www.slideshare.net/HoseongLee6/unsupervised-visual-representation-learning-overview-toward-selfsupervision-194443768
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, 오랜만에 글을 올리는 팡요랩의 노승은이라고 합니다!

팡요랩에서는 "쉽게 읽는 강화학습 논문" 시리즈를 진행하고 있는데요,

이번에는 얼마전에 딥마인드에서 공개한 알파스타 논문 리뷰를 진행해 보았습니다.

알파 스타의 뉴럴넷 구조, 학습 방법, 리그 구성방법에 대해 논문에 나와 있는 정보를 나름대로 상세히 정리하여보았습니다.

혹시 관심 있으신 분은 참고 부탁드립니다.

감사합니다.

[https://www.youtube.com/watch?v=6Thu5vlDc6Y](https://www.youtube.com/watch?v=6Thu5vlDc6Y)
https://www.facebook.com/groups/TensorFlowKR/permalink/1039442986396759/?sfnsn=mo
Posted by uniqueone
,
Transforming realistic photos into cartoon style images!😅
https://www.profillic.com/paper/arxiv:1911.06102

(Cartoonization is achieved by conducting some transformation manipulation in the feature space with their proposed Soft-AdaIN)
https://www.facebook.com/groups/DeepNetGroup/permalink/1004183859974496/?sfnsn=mo
Posted by uniqueone
,
그룹에 Mathematics for Machine Learning(MML) 책을 보고 공부하시는 분들이 많을 것 같습니다. 동명의 Coursera 강의를 듣는 분들도 계실테고요.

강의를 진행하는 4명의 강사 중 한 명인 Sam Cooper는 Coursera의 MML 강좌를 등록한 학생 수가 15만명이 넘은 것을 자축하며, 해당 강좌를 유튜브에 무료로 풀기로 결정했다는 소식을 알렸습니다. 확인해보니 Chapter.3인 PCA 재생목록은 아직 올라와있지 않긴 하지만 '선형대수'와 '다변수미적분학'은 빠짐없이 올라와있네요.

+) 검색해보니 MML 강좌가 이미 Youtube 내 다른 재생목록으로 올라와있긴 한데 해당 강좌는 Unofficial 업로드이고, 빠진 영상도 더러 있는 것 같습니다. ICL 측에서 Official하게 올려준 강좌의 도움을 받아 수학 공부를 합시다..! (영어 자막도 제공해줍니다 크)
https://www.facebook.com/groups/TensorFlowKR/permalink/1038633053144419/?sfnsn=mo
Posted by uniqueone
,
https://github.com/JONGGON/Gluon-Detector

Retina SSD YoloV3 구현 을 마쳤습니다.
https://www.facebook.com/groups/mxnetkr/permalink/2708115322552558/?sfnsn=mo
Posted by uniqueone
,
Hi DataScience enthusiast
.
Are you fresher or professional looking out to make your path as "Data Scientist" and here something for you for upcoming 30days(prepare yourself and get hired )
.
DataScience interview questions #day13
.
If you missed #day1  #day2 #day3  #day4 #day5   #day6  #day7   #day8  #day9  #day10  #day11 and #day12 do have a look

https://m.facebook.com/story.php?story_fbid=135246681214723&id=110658260340232

https://m.facebook.com/story.php?story_fbid=135821337823924&id=110658260340232

.https://m.facebook.com/story.php?story_fbid=136433987762659&id=110658260340232

https://www.facebook.com/110658260340232/posts/136969684375756/

https://www.facebook.com/110658260340232/posts/137702250969166/

https://www.facebook.com/110658260340232/posts/138112590928132/

https://m.facebook.com/story.php?story_fbid=138676314205093&id=110658260340232

https://m.facebook.com/story.php?story_fbid=140261140713277&id=110658260340232

https://m.facebook.com/story.php?story_fbid=140761347329923&id=110658260340232

https://www.facebook.com/110658260340232/posts/141312763941448/

#datascience #machinelearning #artificiallearning
https://m.facebook.com/story.php?story_fbid=141817377224320&id=110658260340232&sfnsn=mo
Posted by uniqueone
,
Interactive SLAM

라이다 센서로 semi automatic하게 맵 만들어볼수 있는 오픈소스 프레임워크입니다 ㅎ
https://www.facebook.com/groups/slamkr/permalink/1017904401902537/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 여러분!

얼마 전에 ICCV 컴퓨터 비전 학회가 있었죠 😁
신기한 것들 많이 보고 와서 너무 좋았습니다!

학회 참석 중에 녹화한 튜토리얼 / 워크샵 영상들을 공유합니다. 개중에 몇개는 제가 촬영한게 아닌 것도 있어서 출처 표기했습니다! 도움이 되었으면 좋겠습니다!

1. ICCV 정리 페이지 링크:
https://tinyurl.com/vzqm33f

2. 딥러닝 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/t94nuqt

3. SLAM, 3D 비전 워크샵 / 튜토리얼 페이지 링크
https://tinyurl.com/ur8ot9n
https://www.facebook.com/groups/TensorFlowKR/permalink/1036795166661541/?sfnsn=mo
Posted by uniqueone
,
SLAM KR에서 SLAM 입문하시려는 분들 계실까요?

내년 1월부터 ORB-SLAM 스터디 하려고 합니다 :) 이론과 코드 전부 마스터 할거입니다 후후!! 다만 쉬운 스터디는 아닐거라서, 준비과정인 1부와 SLAM 집중과정인 2부로 나눠집니다! 

1부는 SLAM을 해본적이 없으신 분들을 위한 온라인 / 카카오톡 사전 스터디입니다. 11월 18일부터 12월달 말 까지
- Modern C++ for Computer Vision (Cyrill Stachniss)https://www.youtube.com/playlist?list=PLgnQpQtFTOGR50iIOtO36nK6aNPtVq98C
- SLAM KR 의 SLAM study season 1 https://www.youtube.com/playlist?list=PLubUquiqNQdOTNocmWCSWk9ZaWhV7ubCD 를 같이 듣습니다! 페이스는 각자 원하는대로! 대신 서로 동기부여 해주기 ㅎㅎ 오픈 카톡방에서 토론하면서 할거입니다! https://open.kakao.com/o/g8T5kxLb 

2부는 1월부터 시작하는 ORB-SLAM 스터디입니다! 저와 함께하시는 SLAM 공부하시는 분들 몇분을 초청해서, 세미나 식으로 매주 주말마다 열려고 합니다! 이건 그때 되면 다시 업데이트 드릴게요 😆
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,

https://github.com/orlyliba/face-masker

 

Code for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the face. Additionally, the code adds ears or a hat onto the photo.

face-masker

Code (Matlab) for automatically putting a mask on a face in photographs. The code matches features between the mask and the face in the photo and warps the mask and merges it onto the face. Additionally, the code adds ears or a hat onto the photo.

In order to detect matching feature points in the faces and masks, a separate algorithm should be used (this repository does not include it). I have tested two feature detectors that worked well:

  1. Face++ (http://www.faceplusplus.com/), in which feature detection is done in the cloud
  2. Clandmark (http://cmp.felk.cvut.cz/~uricamic/clandmark/), an open source landmarking library

Masks should be stored as the basis image, feature points and blending mask (binary or gray scale weights). The masks can also contain ears/hat/wig. The feature points are detected by the same algorithm that you plan on using for photos, and can be shifted manually. The blending masks are best when done manually with simple programs such as paint.

Read the report and look at the poster to learn more about this project.

 

 

Posted by uniqueone
,

[1] document: https://pychubby.readthedocs.io/en/latest/source/basic_example.html

[2] 소스코드: https://github.com/jankrepl/pychubby

[3] 블로그: https://jankrepl.github.io/pychubby/

----------------------------------------------------------------------------------------------------

[1]

Basic Example

To illustrate the simplest use case let us assume that we start with a photo with a single face in it.

pychubby implements a class LandmarkFace which stores all relevant data that enable face warping. Namely it is the image itself and 68 landmark points. To instantiate a LandmarkFace one needs to use a utility class method estimate.

import matplotlib.pyplot as plt from pychubby.detect import LandmarkFace img = plt.imread("path/to/the/image") lf = LandmarkFace.estimate(img) lf.plot()

Note that it might be necessary to upsample the image before the estimation. For convenience the estimate method has an optional parameter n_upsamples.

Once the landmark points are estimated we can move on with performing actions on the face. Let’s try to make the person smile:

from pychubby.actions import Smile a = Smile(scale=0.2) new_lf, df = a.perform(lf) # lf defined above new_lf.plot(show_landmarks=False)

There are 2 important things to note. Firstly the new_lf now contains both the warped version of the original image as well as the transformed landmark points. Secondly, the perform method also returns a df which is an instance of pychubby.base.DisplacementField and represents the pixel by pixel transformation between the old and the new (smiling) image.

To see all currently available actions go to Gallery.

To create an animation of the action we can use the visualization module.

from pychubby.visualization import create_animation ani = create_animation(df, img) # the displacement field and the original image

------------------------------------------------------------------------------------------------------

[2]

PyChubby

Tool for automated face warping

Installation

pip install pychubby

If you get an error FileNotFoundError: [Errno 2] No such file or directory: 'cmake': 'cmake', you need to make sure cmake is installed. If you're on OSX you can install this via Homebrew with:

brew install cmake

For other platforms please consult the Cmake documentation at https://cmake.org/install/

Description

For each face in an image define what actions are to be performed on it, pychubby will do the rest.

Documentation

https://pychubby.readthedocs.io

Minimal Example

import matplotlib.pyplot as plt from pychubby.actions import Chubbify, Multiple, Pipeline, Smile from pychubby.detect import LandmarkFace img_path = 'path/to/your/image' img = plt.imread(img_path) lf = LandmarkFace.estimate(img) a_per_face = Pipeline([Chubbify(), Smile()]) a_all = Multiple(a_per_face) new_lf, _ = a_all.perform(lf) new_lf.plot(show_landmarks=False, show_numbers=False)

CLI

pychubby also comes with a CLI that exposes some of its functionality. You can list the commands with pc --help:

Usage: pc [OPTIONS] COMMAND [ARGS]... Automated face warping tool. Options: --help Show this message and exit. Commands: list List available actions. perform Take an action.

To perform an action (Smile in the example below) and plot the result on the screen

pc perform Smile INPUT_IMG_PATH

or if you want to create a new image and save it

pc perform Smile INPUT_IMG_PATH OUTPUT_IMG_PATH

Development

git clone https://github.com/jankrepl/pychubby.git cd pychubby pip install -e .[dev]

------------------------------------------------------------------------------------------------------

[3]

PyChubby - Automated Face Warping

 2 minute read

Introduction

We all know the story. You ask a random person on a street to take a photo of you and your friends. After a few moments you happily thank them and go on with your life. After some time you finally sit down for a cup of coffee and check your photos. “My god, why is none of us smiling?!”.

First of all, do not panic. It is your lucky day. If you know how to pip install things there might be hope.

pip install pychubby

Once installed, just write something like this:

import matplotlib.pyplot as plt from pychubby.actions import Multiple, Smile from pychubby.detect import LandmarkFace img_path = 'path/to/img.jpg' img = plt.imread(img_path) lf = LandmarkFace.estimate(img) a = Multiple(Smile(0.15)) lf_new, _ = a.perform(lf) lf_new.plot(show_numbers=False)

What is PyChubby

Pychubby is an automated face warping tool. Its main goal is to serve as a specialized augmentation interface for deep learning face related tasks. But it might as well be used as a silly face warping tool (see the introduction).

You might wonder why even bother when one can do similar things with Photoshop and other software. The answer is simple - automation. You do not have to locate any landmarks, move them around and then repeat the procedure on each face in every photo.

Popular image augmentation packages like imgaug are general purpose (any kind of image) and do not provide many options when it comes to geometric transformations. pychubby is specialized on human faces and allows for creation of geometric transformations that are:

  1. Local (on the face)
  2. Smooth (no artifacts)
  3. Realistic (to an extent)

In other words one does not augment the whole image but just the faces. The augmentations are realistic and have no artifacts.

Building blocks

The logic of pychubby can be summarized in three blocks

  1. Landmark Detection
    • Given a photo, a pretrained landmark detection model predicts 68 landmarks on each face.
  2. Reference Space Mapping
    • The landmarks are mapped into a so called reference space. This mapping corrects for possible rotations, translations and scaling in the input image.
  3. Manual Action Definition
    • Majority of pychubby actions are defined in the reference space and therefore should yield consistent warpings across different faces. Go to Gallery to see the predefined ones or feel free to define new ones.

Want to know more?

If you are interested in giving pychubby a try or just want to learn more see below a few useful links:

All potential contributors are more than welcome and any feedback is highly appreciated.

------------------------------------------------------------------------------------------------------

Posted by uniqueone
,
Gradient Boost와 관련 모델 정리 (하나씩 점을 찍어 나가며 / 미스터 흠시)

* 영상 :  StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1 영상

미스터 흠시 님께서 "StatQuest with Josh Starmer 의 StatQuest: Gradient Boost Part1" 영상을 정리해주신 내용을 공유합니다.

좋은 자료 감사드리며, 사이트 소개해 드립니다.

* Decision Tree
  : https://dailyheumsi.tistory.com/113?category=815369
 
* ML Model Ensemble 과 Bagging, Boosting 개념
  : https://dailyheumsi.tistory.com/111?category=815369

* Random Forest
  : https://dailyheumsi.tistory.com/114?category=815369

* AdaBoost
  : https://dailyheumsi.tistory.com/115?category=815369

* Gradient Boost
  : https://dailyheumsi.tistory.com/116?category=815369

* Catboost
  : https://dailyheumsi.tistory.com/136
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,
From ICDAR 2019: Face Detection in camera-captured images of identity documents under challenging conditions

https://www.profillic.com/paper/arxiv:1911.03567

(They survey three state-of-the-art face detection methods based on general images, i.e. Cascade-CNN, MTCNN and PCN, for face detection in camera captured images of identity documents, given different image quality assessments)
https://m.facebook.com/groups/1738168866424224?view=permalink&id=2451285281779242&sfnsn=mo
Posted by uniqueone
,
ImageNet Classification에서 State-of-the-art(SOTA)를 또! 갱신한 논문이 이틀전 공개가 되었습니다.

 

논문 제목: Self-training with Noisy Student improves ImageNet classification

[논문 링크: https://arxiv.org/pdf/1911.04252.pdf](https://arxiv.org/pdf/1911.04252.pdf)

ImageNet 데이터셋 기준 Top-1 Accuracy는 87.4%, Top-5 Accuracy는 무려 98.2%!! 를 달성하였는데요, 이제는 어디서든 쉽게 구할 수 있는 외부의 unlabeled 데이터셋을 잘 활용하기 위한 Self-training 기법을 이용하는 것이 핵심 아이디어입니다.

제가 전에 리뷰했던 논문인 EfficientNet (리뷰 글:https://hoya012.github.io/blog/EfficientNet-review/) 을 기반으로 연구를 하였고, 정말 간단한 방법이면서 성능도 좋아서 주목할만한 것 같습니다. 학습 디테일을 제외하면 첨부한 알고리즘 그림 하나만 이해하면 끝이 납니다.

 

또한 결과 분석에서 단순히 정확도만 보는게 아니라, 올해 공개된 Robustness 관련 논문들에서 제안한 데이터셋인 ImageNet-A, ImageNet-C, ImageNet-P 등 알고리즘의 Robustness를 측정하는데 사용되는 test set에 대해서도 SOTA를 달성한 것이 인상깊네요.

 

- ImageNet-A 관련 논문: Natural Adversarial Examples, 2019 arXiv (https://arxiv.org/abs/1907.07174)

- ImageNet-C, ImageNet-P 관련 논문: Benchmarking Neural Network Robustness to Common Corruptions and Perturbations, 2019 ICLR (https://arxiv.org/abs/1903.12261)

 

Classificatin 연구의 동향이 변화하는 과정도 재미가 있기도 하면서, 이제는 뭘 더 할수 있을지 궁금하기도 하네요 ㅎㅎ

 

- 2012~2016: AlexNet, VGG, googLeNet, ResNet, DenseNet, SENet 등 사람이 이런저런 시도를 하면서 그럴싸한 네트워크를 디자인하는 흐름

- 2016~2018: AutoML을 이용한 Neural Architecture Search(NAS)를 이용해서 최적의 구조를 찾고, 탐색에 필요한 시간을 획기적으로 줄이고 줄인 만큼 큰 구조를 만들어내는데 집중

- 2019 초중반: AutoML에서 찾은 구조를 기반으로 사람이 튜닝을 하며 성능 향상

- 2019 중후반: 수십억장의 web-scale extra labeled images를 이용해서 무수히 많은 데이터를 잘 활용하여 ResNeXt로도 SOTA를 달성

- 2019 말(지금): 수십억장의 이미지 대신 unlabeled images 3억장을 써서 Self-Training을 활용하여 SOTA 달성

- 2020: ????
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo

좋은 선생님이 무수히 많은 자료들 속에서 완전 정확하지는 않더라도 요점을 찝어주면(Pseudo Label 생성), 학생은 그걸 보면서 잘 정제된 자료로만 공부하는 친구보다 공부 난이도가 어렵지만 결과적으로 이길 수 있다? 정도로 요약할수있겠네요.
Posted by uniqueone
,
This Tensorflow based Python Library ‘Spleeter’ splits vocals from finished tracks

Github: https://github.com/deezer/spleeter

https://www.marktechpost.com/2019/11/10/this-tensorflow-based-python-library-spleeter-splits-vocals-from-finished-tracks/
https://www.facebook.com/groups/DeepNetGroup/permalink/999612590431623/?sfnsn=mo
Posted by uniqueone
,
TF-KR PR-12 206번째 발표는

PointRCNN 이라는 논문입니다.

raw point cloud에서 3차원 물체의 bounding box를 찾는 연구입니다.

PR-12에서 point cloud와 관련된 발표는 처음이었는데,
저 또한 이 분야에 대해 아직 잘 아는 것은 아니고 알아가는 단계라서 잘못된 표현이나 애매한 표현이 있을 수 있습니다.

혹시 이상한 부분이 있다면 유튭 댓글로 달아주시면 모두에게 도움이 될 거라 생각합니다 :) 

이 분야에 대해 궁금하신 분들이 처음 보시기에는 편할 것 같아요 ^^

영상 링크:
https://www.facebook.com/groups/TensorFlowKR/permalink/1034534186887639/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 SLAM kr!

저도 처음 SLAM이나 localization을 공부할 때 코드 구현에 익숙치 않았는데요,

김기섭 (Paul Giseop Kim) 을 본받아 저는 실제 2D LiDAR 데이터로 Monte Carlo Localization을 구현했던 c++ 기반 ROS 코드 공유합니다. :)

https://github.com/LimHyungTae/mcl_2d_lidar_ros

Indoor환경(그렇게 로봇이 빠르게 움직이지 않는 환경)에서 sensor sync 맞추는 것부터

수식으로 보던 odometry 모델 기반 prediction, weightening, resampling하는 것을 실제 rosbag을 돌려보면서 경험해볼 수 있어

아직 전체 프레임워크에 익숙치 않은 분들이 살펴보시면 좋을 것 같습니다.

SLAM의 optimization의 익숙치 않음을 피하기위해 Map을 만들 때에도 모션캡쳐를 이용해서 만들었습니다.

★코드의 전체적인 틀은 저희 연구실의 초-에이스인 송승원 박사과정 학생이 슬린이들도 쉽게 이해할 수 있도록 구현했습니다.
https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,
python for data science cheat sheet using pandas
https://www.facebook.com/groups/DataScienceGroup/permalink/2765377743524098/?sfnsn=mo
Posted by uniqueone
,
안녕하세요, PyTorch KR!

torchtext, spacy 등을 이용하지않고 최대한 python과 pytorch만을 사용하고, 특히 한국어 corpus를 활용하여, 논문을 구현한 구현체 모음을 공개합니다 (pretrained word vector가 필요한 경우 gluonnlp에서 word vector를 활용합니다.) 특히 자연어처리 논문을 구현할 때, 필요한 glue code들이 무엇인 지 궁금하신 분들은 Vocab, Tokenizer 등의 코드들을 보시면 좋을 것 같습니다.

아래의 repo에는 주로 sentence classification, pairwise-text classfication의 논문들이 구현되어있으며, 현재 추가적으로 named entity recognition, machine reading comprehension, neural machine translation 등을 구현 중입니다. 한국어 데이터에 대해서 현재 개발중이신 모델이 어느 정도로 구현이 잘 된 것인지 확인하실 때, 참고해주시면 좋을 것 같습니다.

[sentence classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 이전에 박은정님이 공개하신 "naver movie review corpus"입니다.
link : https://github.com/e9t/nsmc

1. Convolutional Neural Networks for Sentence Classification (https://arxiv.org/abs/1408.5882)
2. Character-level Convolutional Networks for Text Classification (https://arxiv.org/abs/1509.01626)
3. Efficient Character-level Document Classification by Combining Convolution and Recurrent Layers (https://arxiv.org/abs/1602.00367)
4. Very Deep Convolutional Networks for Text Classification (https://arxiv.org/abs/1606.01781)
5. A Structured Self-attentive Sentence Embedding
(https://arxiv.org/abs/1703.03130)
6. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (https://arxiv.org/abs/1810.04805)

[pairwise-text classification]
bert pretrained 활용한 경우 etri와 skt pretrained를 사용한 두 가지 버전이 있습니다. 사용한 데이터셋은 송영숙님이 공개하신 "Question pair" 데이터입니다.
link : https://github.com/songys/Question_pair

1. Siamese recurrent architectures for learning sentence similarity (https://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/viewPaper/12195)
2. A Structured Self-attentive Sentence Embedding (https://arxiv.org/abs/1703.03130)
3. Stochastic Answer Networks for Natural Language Inference
(https://arxiv.org/abs/1804.07888)
4. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
(https://arxiv.org/abs/1810.04805)
https://www.facebook.com/groups/PyTorchKR/permalink/1527443790728630/?sfnsn=mo
Posted by uniqueone
,

https://www.facebook.com/groups/DataScienceGroup/permalink/2765440956851110/?sfnsn=mo
Posted by uniqueone
,
안녕하세요!!!

이전 대회들의 솔루션을
캐글에서 모아줬네요!!

이러니 캐글을 안할수가 있나요!!

어여 공부 킵고잉 합시다!!
https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/523044635094307/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 박찬준 입니다.

최근 제안서 작업 등으로 코딩을 많이 하지 못해 아침부터 Keras와 Pytorch를 이용한 간단한 딥러닝 기초 튜토리얼을 만들어 보았습니다.

딥러닝의 기초 인 ANN, DNN, CNN, RNN 까지 Pytorch와 Keras 코드로 기초부터 학습해볼 수 있게 만들었습니다.

Keras 같은 경우 오늘 아침에 공부하고 만든거라 조금 이상할 수도 있습니다.

해당 URL 첨부드립니다.

https://github.com/Parkchanjun/DeepLearning_Basic_Tutorial

Colab에서 Import 후 사용해주세요.
https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2340034552902438/?sfnsn=mo
Posted by uniqueone
,
모두의연구소 - AI COLLEGE 소식

오늘은 SOS LAB 이용이 박사님이 자율주행에서의 개체 인식을 목적으로 연구되고 있는 딥러닝 기반 3D object detection 논문들의 최근 동향에 대해서 이야기해주셨습니다.


뒷부분은 너무 재밌어 몰입하느라 적지 못했지만 간단히 정리해보면,
라이다의 3세대

1 세대 : Velodyne Lidar
- 스피닝 방식. 회전을 하며 360도를 촬영함 . 단점은 내구성이 낮음

2 세대 :  Mechanical Scanning -IBEO
- 내구성이 좋아짐
- 단점 : 물체가 있다. 없다. 정도만 인식 가능

3세대 : Hybrid Scanning (SOS LAB이 쓰는 것)
- 굉장히 빠른 스캐닝
- 3cm 의 오차정확도
- 360도는 촬영을 못함
- 150도의 3D 모델링 가능

라이다 시스템 : Transmitter
- 사람의 눈에  905nm  이상은 사람의 각막에 안좋음
- 하지만 1550nm 이상은 사람 각막을 뚫지 못함
-최근 연구에 사람 각막은 뚫지 못하지만 카메라에 데이지 입힘

라이다 응용분야 :
- 항공
- 군사
- 토목,건축
- 지리 정보 시스템
- 자율주행 자동차

자율주행자동차 :
-자율주행 레벨 5 :
사람이 상상하는 진짜 자율주행을 레벨 5라고 한다.(진짜 자율주행 : 사람이 전혀 운전하지 않아도 주행)


현재 테슬라의 자율주행은 레벨3 정도
레벨 4 : 객체를 인식해서 자동으로 피하는 정도.(우버, 바이두 ,웨이모)
레벨 5 : 레벨 5와 레벨4의 다른점은 레벨4가 성숙되어 조향장치가 없는 자동차

자율주행을 위한 자동차는 센서가 굉장히 많이 필요하다. (현재의 기술로는)

자율주행 자동차를 위한 데이터 수집

- 각 회사, 나라에서 데이터셋을 구축하는데 노력을 많이 하고 있다.
- 이유는 인도에서 잘 되는 자율주행자동차가 한국에서 잘 되진 않는다.
(인도에서는 거리에서 소가 지나가님)

자율주행의 핵심 요소:

1. 개체 인식
2. 위치 추정(SLAM)
3. 센서/감지
4. 경로 계획/제어



딥러닝이 자율주행에 가장 실용적으로 적용되는 분야는 Recognition 이다.

- 딥러닝이 아무리 잘되도 input이 garbage면 예측이 어렵다.
(자율주행에서는 터널에서 나왔을때 갑자기 밝은 빛이 들어오는 경우)

-이미지 기반의 딥러닝이 아무리 잘된다고 하더라도(99%이상이더라도) 1%의 미스가 큰 사고로 이어짐
- 그래서 이미지와 라이다 등 다른 정보들을 사용해서 모델의 성능을 높이는 연구가 많이 되고 있음

자율주행에서의 객체인지란?
- 내가 주행하고 있을때 주위의 위치, 방향(X,Y,Z)
- 2D와는 다르게 3차원이어야함

라이다 point cloud를 이용한 object detection?

-라이다에서 얻어지는 포인터 클라우드는 데이터의 연관성이 전혀 없다.
-포인트 클라우드는 규칙적이지 않다.(포인트의 갯수가 항상 일정하지 않다.)
-라인다 포인트 클라우드는 덴시티가 전부 다르다. (멀리서 찍으면 포인터가 sparse하다)

궁금점 : 같은 오브젝트를 같은 각도, 같은 distance에서 두번 찍엇을때 포인터 클르우드의 포인터 갯수가 달라지나?
- > 답변 : 거의 비슷하지만 다른 객체가 배경에 있다면 Index가 달라짐

oxelization :
Voxelization + 3D CNN
- Voxel 만드는 과정에서 cost가 굉장히 많이 든다.
- 정확도에서는 장점이 있음
- Voxelization 에 딥러닝을 적용하여 가장 잘 된 논문
- Voxel NET
포인터 클라우드를 일렬로 넣고 피쳐 임베딩을 계속 시킴

내가 한 질문 : 이거 겁나 느릴것 같은데?
6~10 FPS 정도 나온다.
그러면 자율주행에서 안전하다고 기준되는 바운더리의 값은 몇이냐?
레이더에서는 10FPS 정도이다( 라이다는 200미터 앞을 측정할 수 있기에 기준이 낮다.)
카메라에서는 60 FPS 정도로 본다.

2D Projection + 2D CNN
일단 형태를 2D로 만들고  딥러닝에 넣자.

MV3D
라이다  3D 데이터를 카메라랑 똑같은
RGB, bird eye view , Front view 세가지를 CNN에 넣고 feature를 뽑은 다음 concat 함

Frustum PointNets

1. 카메라에서 먼저 2D object detection을 함
2. detection 한 부분에서만 포인트 클라우드 적용



정말 좋은 세미나 였습니다. 이용이 박사님, SOS LAB함께 모두연  AI COLLEGE  달려보겠습니다!
https://www.facebook.com/groups/modulabs/permalink/2561195253945642/?sfnsn=mo
Posted by uniqueone
,
Machine Learning Tutorial 6 - Decision Tree Classifier and Decision Tree Regression in Python
https://www.facebook.com/groups/DataScienceGroup/permalink/2755799524481920/?sfnsn=mo
Posted by uniqueone
,
안녕하세요 박찬준입니다.

OpenNMT Pytorch의 Library를 이용한 Tutorial을 만들었습니다.

기존 OpenNMT 홈페이지에 공개된 소스코드는 현재 작동하지 않는 부분이 상당부분 있어 조금의 수정을 진행하였습니다.

추후 Transformer 모델 Tutorial도 공개하도록 하겠습니다.

https://github.com/Parkchanjun/OpenNMT_Library_Tutorial_Using_Colab

Colab에서 실행해주세요
https://lionbridge.ai/articles/what-is-facial-recognition/
Posted by uniqueone
,
What is Facial Recognition?


https://lionbridge.ai/articles/what-is-facial-recognition/

'Face > Face Recognition' 카테고리의 다른 글

5 Machine Learning Papers on Face Recognition  (0) 2019.10.23
Posted by uniqueone
,
[Model Interpretation] Deep Dive into Catboost Functionalities for Model Interpretation

---

Tree기반 모델은 Feature Importance를 수치화해서 보여주지만 여전히 해석에 있어서는 무리가 있습니다. 수치도 기준에 따라 순서가 바뀌고, 크기의 의미를 모르는 등 여러 가지 단점이 있습니다.

그렇기에 단순한 Feature Importance가 아닌 SHAP Value를 활용하여 보다 정확한 해석을 시도해볼 수 있습니다. 모델에 대한 기여도를 측정하는 방식인데 개인적으로 이 글이 가장 명확하게 설명되어 있으니 참고하면 될 것 같습니다. (아니면 논문..?)

XGBoost : https://towardsdatascience.com/interpretable-machine-learning-with-xgboost-9ec80d148d27

---

이번 글은 Catboost에서 사용할 수 있는 모델 분석(해석) 방법입니다.
총 4가지 방법을 사용합니다.

- Feature Importance
- Shap Values
- Object Importance
- Plots per Feature

마지막 2개가 좀 생소한데, Object Importance는 각 object에 대한 영향도를 측정하는 방식입니다. 구체적인 방식은 모르겠으나 Feature Importance와 같이 특정 값으로 객체의 값의 중요성을 파악하는 것 같습니다.

마지막은 모델의 여러 통계값을 통해 해석할 수 있게 시각화합니다. 구간 또는 범주(OHE)의 평균 target값, 각 구간 및 카테고리의 수 등을 나타냅니다. 최근에 Catboost에서 추가한 내용이라고 하니 Kaggle에서 한 번쯤 사용해봐야겠습니다.

원문의 링크는 아래와 같습니다.

https://towardsdatascience.com/deep-dive-into-catboost-functionalities-for-model-interpretation-7cdef669aeed

#Catboost #Model_Interpretable #SHAP
https://www.facebook.com/113537842660287/posts/412664966080905/?sfnsn=mo
Posted by uniqueone
,
A complete list of six video lectures in Generative adversarial network (GAN) is available on my YouTube Channel

https://www.youtube.com/playlist?list=PLdxQ7SoCLQAMGgQAIAcyRevM8VvygTpCu

You can subscribe my channel for more such videos

https://www.youtube.com/user/kumarahlad/featured?sub_confirmation=1
https://www.facebook.com/groups/aiIDEASandINNOVATIONS/permalink/2858897464144049/?sfnsn=mo
Posted by uniqueone
,