'분류 전체보기'에 해당되는 글 1027건

  1. 2019.08.18 구글 이미지를 통해서, 데이터셋 구축을 시도하시는 분들이 많을 것으로 생각 됩니다. 여러가지 방법이 있긴 하지만, fastai 학생 중 한명이 작성한 매우 단순하면서도, 꽤 괜찮은 방법이 있어..
  2. 2019.08.18 저는 이번 2019 3rd ML month with KaKR에서 1st score을 기록했습니다. 혹시 공부하시는데 도움이 되실까봐 solution을 공유해 드리겠습니다
  3. 2019.08.16 [Jupyter - Notebook] ipynb 파일을 python 파일로 변환하기: jupyter nbconvert --to script [YOUR_NOTEBOOK].ipynb
  4. 2019.07.29 부스트코스]딥러닝 기초 강좌"요 라고 말할 수 있을 것 같습니다
  5. 2019.07.02 Stanford has an AI graduate certificate program on their website. They have the following classes:
  6. 2019.07.02 Compare Handwritten Shapes Using Procrustes Analysis
  7. 2019.06.13 Image and Multidimensional Signal Processing - 유튜브 동영상 강의
  8. 2019.06.13 EENG 512 - Computer Vision - 유튜브 동영상 강의
  9. 2019.06.13 Digital Signal Processing - 유튜브 동영상 강의
  10. 2019.06.13 Introduction to Image Processing - 유튜브 동영상 강의
  11. 2019.06.13 Computer Vision for Visual Effects - 유튜브 동영상 강의
  12. 2019.05.17 MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018
  13. 2019.05.14 AI공부를 시작하시는 많이 분들이 TFKR에서 많은 정보를 얻어가시는 것 같은데, 주옥 같은 정보들이 흩어져 있는 것 같아서 한 번 모아봤습니다.
  14. 2019.05.14 비전공자인 제가 어떻게 머신러닝을 공부했고, 제가 발견한 머신러닝 공부자료를 공유해드리고자 글을 씁니다.^^ 1
  15. 2019.05.03 수화를 텍스트로 번역해주는 인공지능:
  16. 2019.04.12 𝐋𝐚𝐧𝐝𝐦𝐚𝐫𝐤 𝐚𝐧𝐧𝐨𝐭𝐚𝐭𝐢𝐨𝐧 tool
  17. 2019.04.05 1
  18. 2019.04.04 1
  19. 2019.04.03 virtual env을 pycharm에 연동 시키는 방법
  20. 2019.04.03 anaconda에서 conda로 생성된 virtual env 확인하는 법(List all virtualenv created by virtualenvwrapper)
  21. 2019.03.12 meshmonk 설정방법 - Genome-wide mapping of global-to-local genetic effects on human facial shape논문의 라이브러리 설정방법
  22. 2019.01.22 머신러닝 공부 순서, 방법 및 강의 정리(HowUse 곰씨네)
  23. 2018.12.06 Pycharm indexing 무한 반복(indexing infinite loop) 해결 방법
  24. 2018.12.03 머신러닝 공부순서
  25. 2018.09.08 머신러닝 딥러닝 유튜브 강좌
  26. 2018.07.10 생명정보학(bioinformatics) 공부할 때 볼만한 한글책
  27. 2018.06.18 GrabCut, GraphCut matlab Source code
  28. 2018.06.17 Object Detection with 10 lines of code – Moses Olafenwa – Medium
  29. 2018.06.07 matlab code - convert face landmarks matlab .mat to .pts file
  30. 2018.06.06 Particle Swarm Optimization – A Tutorial

https://www.facebook.com/groups/TensorFlowKR/permalink/964597137214678/?sfnsn=mo

안녕하세요?

구글 이미지를 통해서, 데이터셋 구축을 시도하시는 분들이 많을 것으로 생각 됩니다. 여러가지 방법이 있긴 하지만, fastai 학생 중 한명이 작성한 매우 단순하면서도, 꽤 괜찮은 방법이 있어서 소개해 드립니다.

매우 짧은 글로, 사용법을 익히시는데는 약 5분 미만의 시간이 소요됩니다. 그러면, 첨부그림1과 같이 구글 이미지 검색 결과에 대하여, 이미지들에 대한 URL을 몽땅 긁어올 수가 있습니다. 긁어와진 URL은 화면 우측하단에 표시됩니다. (추가적으로, 이미지를 선택/해제도 가능합니다)

이렇게 긁어와진 URL 들은 단순히 복사/붙여넣기 과정을 통해서 CSV 파일형태로 만들 수 있고, fastai 에서는 해당 CSV 파일을 참조하여 데이터셋을 생성하는 기능이 있습니다.

링크: https://github.com/fast-ai-kr/ko-translation/blob/master/tools/gi2ds.md

PS; 덧붙여, 현재 fastai 관련 글을 번역하여 저장하는 저장소를 개설하여 운영중에 있습니다. 번역 대상을 리스트업 하고, 차근차근 번역을 수행할 예정입니다.
누구든 참여가 가능하므로, 참여의사를 밝히신 후, 번역을 진행하시고 PR을 보내주시면 많은분들에게 큰 도움이 될 것 같습니다.

번역 저장소: https://github.com/fast-ai-kr/ko-translation
Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/963838507290541/?sfnsn=mo

안녕하세요 캐글코리아!

DGIST 3학년에 재학중인 이해찬입니다.

저는 이번 2019 3rd ML month with KaKR에서 1st score을 기록했습니다. 혹시 공부하시는데 도움이 되실까봐 solution을 공유해 드리겠습니다.

(같은 내용으로 competition discussion에도 올려 두었습니다.)

***글이 길수도 있습니다.***

Baseline model : Efficientnet-B5

Preprocessing

Using Bounding Box :

저는 처음에 bounding Box로 crop된 image를 사용했지만 아래의 두 github글에서는 crop하지 않은 image를 input으로 주는 것이 성능이 더 좋다고 하였습니다.

https://github.com/jianshen92/stanford-car-grab-challenge

https://github.com/morganmcg1/Projects/tree/master/stanford-cars

하지만, Public score 0.93정도 이상에서는 그렇게 큰 효과가 없었습니다. 또한, cutout을 적용하면 crop된 image가 성능이 더 높은 모습을 보여주었습니다. 그래서 저는 Bounding box로 crop된 이미지를 input으로 사용했습니다.

Image를 resize하는 방식을 사용했는데 위의 github에서는 squeeze하는 방식을 사용하면 더 좋은 성능을 보여준다고 합니다. 하지만, 저는 이것을 구현하지 못해서 적용하지 못했습니다.

Augmentation :

(saewon님의 kernel을 참고하였습니다.)

Random Resized Crop, Random Horizontal Flip, Random Rotation, AutoAgumentation(CIFAR-10), Normalize, Random Erasing(cutout)을 적용하였습니다. 여기에 mixup을 적용시켰습니다.

Cutmix를 mixup대신 적용시켜 보았지만, 저는 mixup을 사용했을 때 성능이 더 좋게 나타났습니다.

mixup의 alpha값은 0.2, 0.4, 1.0을 사용해보았는데 1.0에서 성능이 가장 좋게 나왔습니다.

rotation은 30도를 주었고 resized crop은 (0.8, 1.0) 다른 것들은 default 값으로 적용시켰습니다.

Sampler :

Class의 이미지 수들의 불균형이 존재했습니다. 균형을 맞추기 위해서 oversampling 방식을 통하여 한 epoch을 당 주어지는 class의 image 수를 같게 맞추었습니다.

Loss :

FocalLoss를 gamma를 0.5, 2, 3을 시도해 보았습니다. gamma가 0.5일 때 성능이 가장 좋았습니다. 하지만, 이것보다 그냥 cross entropy loss가 더 좋은 성능을 보여주었습니다. (제가 구현을 잘못한 것인가요…ㅠㅠ Focal loss가 더 좋을 것으로 예상을 했었는데…) 그렇기에 저는 loss로 cross entropy를 사용했습니다.

Label smoothing을 적용해서 실험해 보았지만 그럴듯한 성능 향상을 보여주지 않았습니다.

(Triplet loss구현을 시도해 보았지만, 시간 부족을 구현을 완료하지 못했습니다. 혹시 해보신 분 있으면 결과를 남겨주시면 좋겠습니다.)

Model :

저는 Efficientnet-B7, B6, B5, PNASNet, NASNet을 사용했습니다. 각 model head에 dropout(0.4~0.5)을 추가해서 사용했습니다. (IIdoo kim님이 discussion에 올렸던 model은 너무 train하기에 무거워서 결국 사용하지 못했습니다.)

WS-DAN(Weakly Supervised Data Augmentation Network)이라는 아주 흥미로운 구조를 실험해 보았습니다. 이것을 Efficientnet-B7 model에 적용시켰습니다. Training 시간은 3배로 걸리지만 성능은 크게 개선되지 않아서 이 구조를 버리게 되었습니다.’

Scheduler :

초반에는 CosineannealingLR, MultistepLR, StepLR을 사용해 보았습니다. 이중에서 적절한 값을 찾아본 결과 MultistepLR이 가장 좋은 성능을 보여주어서 이것을 사용했습니다. 후반기에 최종 model을 train할 때는 SuperConvergence라는 scheduler를 사용하여 train을 하였습니다.

Optimizer :

다양한 optimizer를 baseline에 실험해 보았는데 AdamW가 가장 성능이 좋았습니다. Efficientnet모델에는 AdamW를 사용하게 되었습니다. PNAS, NAS에서는 SGD + momentum이 성능이 좋은 모습을 보여주어 이것을 사용하였습니다.

Train Process:

Efficientnet-B7, B6, B5는 lr=0.00028로 50 epoch train후 max_lr=0.00028로 SuperConvergence + AdamW로 60 epoch train했습니다.

PNAS, NAS는 lr=0.0042, max_lr=0.0042로 위와 같은 방식으로 optimizer만 바꿔준 후 train했습니다. weight저장은 valid set에서 F1-score가 가장 좋은 weight를 저장했습니다.

Test-Time-Augmentation :

tta를 5번 적용하였습니다. 적용한 augmentation은 Random Resized Crop, Random Horizontal Flip, Random Rotation입니다. Rotation은 5를 주었고 나머지는 train때와 같게 주었습니다.

Ensemble :

6 fold cross validation을 사용하였습니다. 또한 앞에서 언급한 Efficientnet-B7, B6, B5, PNAS, NAS model을 soft-voting을 하였습니다.

성능으로는 B7>B6>B5>PNAS>NAS 순이었습니다. (Public score 기준)

(결론적으로 총 30개의 weight를 사용했네요… 6.5G정도 되네요)

최종 score “ Public : 0.96604,  Private : 0.96058 ”
Posted by uniqueone
,

1개만 변환 시,

>> jupyter nbconvert --to script [YOUR_NOTEBOOK].ipynb

여러개 변환 시,

>> jupyter nbconvert --to script *.ipynb

출처: 

https://stackoverflow.com/questions/17077494/how-do-i-convert-a-ipython-notebook-into-a-python-file-via-commandline

 

 

 

Posted by uniqueone
,

https://www.facebook.com/groups/modulabs/permalink/2359449094120260/?sfnsn=mo

누군가 "딥러닝 시작 할때 가장 좋은 강의는 무엇인가요?"라는 질문을 하시면, 전 "스탠포드 대학의 #CS231N 강좌인것 같아요" 라고 대답했습니다. 그러나 강의가 영어로 되어 있어서 조금 불편했던 분들이 있으실 겁니다. (이재원 (Jaewon Lee) 님이 CS231N 전체 강의에 한글자막 작업을 하신 것을 알고 있습니다. ^^ 정말 대단한 분 ^^ ) 

앞으로  전 위와 같은 질문을 받을 경우 #edwith 의 "[부스트코스]딥러닝 기초 강좌"요 라고 말할 수 있을 것 같습니다 😁

전체가 우리말로 되어 있으며 TensorFlow와 Pytorch 둘다 공부할 수 있도록 강좌가 나뉘어져 있습니다. 저의경우 이런 강좌는 아직까지 본적이 없습니다 😍

또한 코세라와 유다시티의 딥러닝 강좌처럼 직접 실습을 헤보고 제출도 할 수 있는 Jupyter notebook 기반의 프로젝트 코스가 있습니다. 😆
이 작업에 모두의연구소도 함께 참여했습니다.

이제부터 "딥러닝 기초과목은 무엇으로 공부하면 될까요?" 라는 질문을 받으면 "edwith의 부스트코로 시작하세요~" 라고 말하려고 합니다~^^

이 작업을 함께 해주신 커넥트재단 장지수 님과 이효은 (Annah Lee) 님께 너무 감사드립니다 🙇‍♂️ 그외 모두를위한 딥러닝 시즌2를 위하여 재능 기부해주신 분들 너무 감사드립니다. 강의 잘 보겠습니다. 강의가 이렇게 만들어질 수 있다는게 너무 멋진 일이란 생각이드네요.

그리고 추가로 이 강좌의 프로젝트 작성에 힘써 주신 모두연 소속 연구원 여러분 ~ 너무 수고하셨습니다. (박창대, 이재영, 오진우 (Jinwoo Matthew Oh) , 이일구 (Il Gu Yi))  함께해서 즐거웠습니다~~^^

비가 부슬부슬 내리는 금요일 입니다.

불금 보내세요~~^^
Posted by uniqueone
,

https://www.facebook.com/groups/DeepNetGroup/permalink/896380944088122/?sfnsn=mo

For those of you interested, Stanford has an AI graduate certificate program on their website. They have the following classes:

[CS157 Computational Logic
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=11730)

[CS221 Artificial Intelligence: Principles and Techniques](https://scpd.stanford.edu/search/publicCourseSearchDetails.do;jsessionid=CAF3C13A982DFC017DA382B408276A56?method=load&courseId=11747)

[CS223A Introduction to Robotics
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=11750)

[CS224N Natural Language Processing with Deep Learning
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=11754)

[CS224U Natural Language Understanding
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=1180067)

[CS228 Probabilistic Graphical Models: Principles and Techniques
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=11761)

[CS229 Machine Learning
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=11763)

[CS230 Deep Learning
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=82209222)

[CS231A Computer Vision: From 3D Reconstruction to Recognition
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=10796915)

[CS231N Convolutional Neural Networks for Visual Recognition
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=42262144)

[AA228 Decision Making Under Uncertainty
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=39254289)

[CS234 Reinforcement Learning
](https://scpd.stanford.edu/search/publicCourseSearchDetails.do?method=load&courseId=75632440)

[https://scpd.stanford.edu/public/category/courseCategoryCertificateProfile.do?method=load&certificateId=1226717](https://scpd.stanford.edu/public/category/courseCategoryCertificateProfile.do?method=load&certificateId=1226717)
Posted by uniqueone
,

https://kr.mathworks.com/help/stats/compare-handwritten-shapes.html

 

Compare Handwritten Shapes Using Procrustes Analysis

Try it in MATLAB

Try This Example

 

This example shows how to use Procrustes analysis to compare two handwritten number threes. Visually and analytically explore the effects of forcing size and reflection changes.

Load and Display the Original Data

Input landmark data for two handwritten number threes.

A = [11 39;17 42;25 42;25 40;23 36;19 35;30 34;35 29;... 30 20;18 19]; B = [15 31;20 37;30 40;29 35;25 29;29 31;31 31;35 20;... 29 10;25 18];

Create X and Y from A and B , moving B to the side to make each shape more visible.

X = A; Y = B + repmat([25 0], 10,1);

Plot the shapes, using letters to designate the landmark points. Lines in the figure join the points to indicate the drawing path of each shape.

plot(X(:,1), X(:,2),'r-', Y(:,1), Y(:,2),'b-'); text(X(:,1), X(:,2),('abcdefghij')') text(Y(:,1), Y(:,2),('abcdefghij')') legend('X = Target','Y = Comparison','location','SE') xlim([0 65]); ylim([0 55]);

Calculate the Best Transformation

Use Procrustes analysis to find the transformation that minimizes distances between landmark data points.

[d,Z,tr] = procrustes(X,Y);

The outputs of the function are d (a standardized dissimilarity measure), Z (a matrix of the transformed landmarks), and tr (a structure array of the computed transformation with fields T , b , and c which correspond to the transformation equation).

Visualize the transformed shape, Z , using a dashed blue line.

plot(X(:,1), X(:,2),'r-', Y(:,1), Y(:,2),'b-',... Z(:,1),Z(:,2),'b:'); text(X(:,1), X(:,2),('abcdefghij')') text(Y(:,1), Y(:,2),('abcdefghij')') text(Z(:,1), Z(:,2),('abcdefghij')') legend('X = Target','Y = Comparison',... 'Z = Transformed','location','SW') xlim([0 65]); ylim([0 55]);

Examine the Similarity of the Two Shapes

Use two different numerical values, the dissimilarity measure d and the scaling measure b , to assess the similarity of the target shape and the transformed shape.

The dissimilarity measure d gives a number between 0 and 1 describing the difference between the target shape and the transformed shape. Values near 0 imply more similar shapes, while values near 1 imply dissimilarity.

d

d = 0.1502

The small value of d in this case shows that the two shapes are similar. procrustes calculates d by comparing the sum of squared deviations between the set of points with the sum of squared deviations of the original points from their column means.

numerator = sum(sum((X-Z).^2))

numerator = 166.5321

denominator = sum(sum(bsxfun(@minus,X,mean(X)).^2))

denominator = 1.1085e+03

ratio = numerator/denominator

ratio = 0.1502

The resulting measure d is independent of the scale of the size of the shapes and takes into account only the similarity of landmark data.

Examine the size similarity of the shapes.

tr.b

ans = 0.9291

The sizes of the target and comparison shapes in the previous figure appear similar. This visual impression is reinforced by the value of b = % 0.93, which implies that the best transformation results in shrinking the comparison shape by a factor .93 (only 7%).

Restrict the Form of the Transformations

Explore the effects of manually adjusting the scaling and reflection coefficients.

Force b to equal 1 (set 'Scaling' to false) to examine the amount of dissimilarity in size of the target and transformed figures.

ds = procrustes(X,Y,'Scaling',false)

ds = 0.1552

In this case, setting 'Scaling ' to false increases the calculated value of d only 0.0049, which further supports the similarity in the size of the two number threes. A larger increase in d would have indicated a greater size discrepancy.

This example requires only a rotation, not a reflection, to align the shapes. You can show this by observing that the determinant of the matrix T is 1 in this analysis.

det(tr.T)

ans = 1.0000

If you need a reflection in the transformation, the determinant of T is -1. You can force a reflection into the transformation as follows.

[dr,Zr,trr] = procrustes(X,Y,'Reflection',true); dr

dr = 0.8130

The d value increases dramatically, indicating that a forced reflection leads to a poor transformation of the landmark points. A plot of the transformed shape shows a similar result.

plot(X(:,1), X(:,2),'r-', Y(:,1), Y(:,2),'b-',... Zr(:,1),Zr(:,2),'b:'); text(X(:,1), X(:,2),('abcdefghij')') text(Y(:,1), Y(:,2),('abcdefghij')') text(Zr(:,1), Zr(:,2),('abcdefghij')') legend('X = Target','Y = Comparison',... 'Z = Transformed','Location','SW') xlim([0 65]); ylim([0 55]);

The landmark data points are now further away from their target counterparts. The transformed three is now an undesirable mirror image of the target three.

It appears that the shapes might be better matched if you flipped the transformed shape upside down. Flipping the shapes would make the transformation even worse, however, because the landmark data points would be further away from their target counterparts. From this example, it is clear that manually adjusting the scaling and reflection parameters is generally not optimal.

See Also

procrustes

Related Topics

 

 

 

Posted by uniqueone
,

https://www.youtube.com/user/HoffWilliam/playlists

https://www.youtube.com/playlist?list=PLyED3W677ALNv8Htn0f9Xh-AHe1aZPftv

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

https://www.youtube.com/user/HoffWilliam/playlists

https://www.youtube.com/playlist?list=PLyED3W677ALNv8Htn0f9Xh-AHe1aZPftv

에 동영상 목록 있다.

 

http://inside.mines.edu/~whoff/courses/EENG512/lectures/

여기가 수업 홈피

Semester: Spring 2016

Week Date Due Topics Book Before Class In Class Additional Material
1 1/13   Introduction Ch 1   Course Intro (slides)
01-Intro to Computer Vision (slides)
Intro to Matlab (slides)
Lab 01
Review of linear alg (slides)
Matlab tutorial (pdf)
2 1/18 HW0 Image Formation Ch 2 Matlab image proc toolbox (slides, video 1)
02-Image formation (slides, videos 1, 2, 3, 4)
Quiz 1
Examples (
slides)
Lab 02
02a-Other sensors (slides)
  1/20   Coordinate Transformations     03-2D-2D Transformations (slides, videos 1, 2)
04-3D-3D Transformations (slides, videos 1, 2, 3, 4)
showRotations.m, showRotations2.m
Examples (slides)
04a-More on 3D rotations (slides)
3 1/25       05-3D-2D Transformations (slides, videos 1, 2, 3, 4) Quiz 2
05a-More on 3D-2D (slides)
Lab 03
05b-Other examples (slides)
  1/27   Image Filtering Ch 3   06-Image filtering (slides, videos 1, 2, 3, 4)
Image: Fig0309(a).tif, examples (slides)
 
4 2/1 HW1     07-Binary images (slides, videos 1, 2, 3)
Images: Fig9.16(a).jpg, robot.jpg
Videos: oneCCC.wmv, fiveCCC.wmv
Quiz 3
07-Examples (slides)
Lab 04
Reading & writing movies in Matlab (slides)
Lecture from EENG 510 (slides)
  2/3   Linear Least Squares 9.1, A.2   08-2D image transforms (slides, videos 1, 2)
Images: book_A, book_B, wall1.jpg, wall2.jpg
08-Examples (slides)
Images: pavilionLeft, pavilionCenter, pavilionRight
5 2/8   Alignment 6.1-6.2 15-Feature-based alignment (slides, video 1, 2, 3)
16-Pose estimation (slides, video 1)
Images img1_rect, img2_rect, img3_rect
Quiz 4
16-Examples (slides)
Lab 05
Images robot1.jpg, robot2.jpg, robot3.jpg
 
  2/10   Edge detection, OpenCV 4.2   09-Edge detection (slides, videos 1, 2)
Image: house.jpg
32-OpenCV
First program in Visual C++ (slides)
OpenCV in Visual C++ (slides, tutorial)
32-Examples (slides)
Video: testvideo.wmv
6 2/15 HW2 President's Day - no class        
  2/17         19-Pose estimation using OpenCV (slides)
Image: robotTarget.jpg
Lab 06
 
7 2/22       Read: ARTag.pdf by M. Fiala Quiz 5
33-ARTags (slides)
Lab 07
Code: main.cpp, findSquare.cpp,
readBitMatrix.cpp, ARTag.h, ARTag.cpp
 
  2/24   SIFT 4.1.2   12-SIFT (slides, video 1)
Vlfeat (slides), images: graffiti.zip,
test000.jpg, test012.jpg
 
8 2/29 HW3     Read “Distinctive Image Features from Scale-Invariant Keypoints" by D. Lowe
14-SIFT-based object recognition (slides, video 1, 2)
Images: testSIFTimages.zip
Quiz 6
14-Examples (slides)
Lab 08
 
  3/2   RANSAC 6.1.4   20-RANSAC (slides)
Images: floor1.jpg, floor2.jpg, table1.jpg, table2.jpg
 
9 3/7     4.1 10-Image Patches (slides)
Images: building.avi
11-Corners (slides, video 1, 2, 3)
Quiz 7
11-Examples (slides)
Lab 09
 
  3/9   Hough Transform 4.3   Final Project Information
13-Hough transform (slides, video 1, 2, 3)
13-Examples (slides)
Image: hallway.jpg, Grenouilles.jpg
Videos: sphero1.wmv, sphero3.wmv, sphero4.wmv
  3/14   Spring break - no class        
  3/16   Spring break - no class        
10 3/21 HW4   2.1, 6.3.2   34-Finding a checkerboard (slides)
Video: board.mp4
Lab 10
findCheckerBoard.m
 
  3/23   Snow day - no class        
11 3/28 Project proposal   6.1.4   20a-Finding a planar object using OpenCV (slides)
Example video
Code and data: planarCodeData.zip
Complete main program
  3/30   Stereo Vision Ch 11   28-Stereo (slides, video pt1, pt2, pt3)
Program: stereo_ball.m
Images: left.png, right.png
Exercise
Code: stereo_BasicBlockMatch.m, stereo_BlockMatchDynamicProg.m
12 4/4 HW5   A.1.1
6.2.1
  Upcoming courses
17-SVD (slides, video 1, 2)
18-Linear pose estimation (slides, video 1, 2, 3)
18-Examples (slides)
  4/6   Calibration 6.3   23-Camera calibration (slides) 23-Examples (slides)
calibrationImages.zip
13 4/11     4.1.4, 8.1.3 Read "An Iterative Image Registration Technique with an Application to Stereo Vision" by Lucas and Kanade Quiz
20b-Tracking a planar object using OpenCV (slides)
Lab 11
Code: 20b-ProgramFiles.zip
  4/13   Structure from Motion 7.2   24-Epipolar and Essential matrix (slides, video pt1, pt2)
25-Structure from motion (slides, video pt1, pt2)
Programs: createpts.m, essential.m, drawepipolar.m, twoview.m
24-Examples (slides)
Images: cube1.jpg, cube2.jpg
25-Examples (slides)
Program: doCube.m
14 4/18 Progress report   7.4 26-Fundamental matrix (slides, video pt1) Quiz
Program: syntheticExample.zip
Lab 12
Code: dofundamental.zip
Images: pavillionCorner1.jpg, pavillionCorner2.jpg
  4/20         27-Bundle adjust (slides, video pt1)
29-Uncertainty (slides, video pt1, pt2)
Program: pose.m
29-Examples (slides)
15 4/25 HW6       Guest speaker: Dr. Josh Gordon from National Institute of Standards and Technology  
  4/27         Individual project meetings  
16 5/2 Presentations       Presentation Schedule  
  5/4 Presentations       Presentation Schedule  

 

 

 

 

 

 

Posted by uniqueone
,

https://www.ecse.rpi.edu/~rjradke/dspcourse.html

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

https://www.ecse.rpi.edu/~rjradke/improccourse.html

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

https://cvfxbook.com/about/

https://www.ecse.rpi.edu/~rjradke/cvfxcourse.html

 

 


Computer Vision for Visual Effects by Rich Radke is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Based on a work at http://www.ecse.rpi.edu/~rjradke/cvfxcourse.html.
Permissions beyond the scope of this license may be available at this contact page.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

https://www.facebook.com/groups/DeepNetGroup/permalink/863242324068651/?sfnsn=mo

MIT 18.065 Matrix Methods in Data Analysis, Signal Processing, and Machine Learning, Spring 2018
Instructor: Gilbert Strang
View the complete course: https://ocw.mit.edu/18-065S18
YouTube Playlist: https://www.youtube.com/playlist?list=PLUl4u3cNGP63oMNUHXqIUcrkS2PivhN3k

[uploaded few minutes ago.]
Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/490430184631378/?hc_location=ufi

 

#입문자용_글모음 #자료모음 #AI입문 #커리큘럼 #공부순서

안녕하세요.

오랜만에 글 쓰는 것 같네요.

AI공부를 시작하시는 많이 분들이 TFKR에서 많은 정보를 얻어가시는 것 같은데, 주옥 같은 정보들이 흩어져 있는 것 같아서 한 번 모아봤습니다.

TFKR 글 중 AI입문자들이 꼭 알았으면 하는 혹은 필요로 할 것 같은 글들을 모아봤는데, 회원 여러분들 중에서 혹시 기억나시는 글 있으시면 댓글로 추가해주세요. 본문 업데이트하겠습니다.

+++AI 전문가들의 제언+++
(민현석 님) https://facebook.com/255834461424286_479160352425028
(김남주 님) https://facebook.com/255834461424286_455382238136173
(Andrew Ng 님) https://www.quora.com/How-can-beginners-in-mac…/…/Andrew-Ng…

+++한글 유트브 강좌+++
(남세동 님) https://www.youtube.com/watch
(sung kim님) https://www.youtube.com/watch

+++공부 커리큘럼+++
(영어 자료 기준) https://facebook.com/255834461424286_464930173848046
(한글 자료 기준) https://www.facebook.com/groups/TensorFlowKR/permalink/485458151795248/

+++논문 효과적으로 읽는 법+++
https://facebook.com/255834461424286_463498977324499

+++Numpy로 짜 보는 딥러닝+++
(코드 링크) https://github.com/cthorey/CS231

+++PRML책정리+++
(페북 링크1) https://facebook.com/255834461424286_454547954886268
(자료 링크1) http://norman3.github.io/prml/
(페북 링크2) 책 2장 식(2.117)까지 ipython으로 정리
https://facebook.com/255834461424286_556808447993551

+++E-book 정리+++
(e-book 링크 1) http://neuralnetworksanddeeplearning.com/
(페북 링크) https://facebook.com/255834461424286_451098461897884

(e-book 링크 2) https://leonardoaraujosantos.gitbooks.io/artificial-inte…/…/
(pdf 링크) https://www.gitbook.com/…/le…/artificial-inteligence/details

(e-book 링크 3) https://github.com/HFTrader/DeepLearningBook
(pdf 링크) https://github.com/…/DeepLe…/raw/master/DeepLearningBook.pdf

+++고등학생도 이해하는 딥러닝+++

(페북 링크) https://www.facebook.com/groups/TensorFlowKR/permalink/443348236006240/
원본자료링크가 깨졌다고 하니 아래링크로 받으세요.
(자료 링크) https://drive.google.com/…/fol…/0BwwNF6qNzpOLNXA2OGZ4TW9NNEE

+++케라스와 함께 익히는 딥러닝 개념들+++
(자료 링크)(국문) https://tykimos.github.io/Keras/lecture/

+++딥러닝 기본 개념들 쉽게 정리된 자료+++
(자료 링크)(국문) https://www.slideshare.net/yongho/ss-79607172
(자료 링크)(국문) https://www.slideshare.net/HeeWonPark11/ss-80653977
(페북 링크)(국문)https://facebook.com/555066658167730

+++딥러닝의 기초부터 큰 획을 그었던 논문들까지 익히기+++
(영상 링크)(국문) http://www.edwith.org/deeplearningchoi/
(자료 링크) https://github.com/sjchoi86/dl_tutorials_10weeks

+++CNN초보자가 만든 초보자 가이드+++
(페북 링크) https://facebook.com/255834461424286_425564241117973
(자료 링크) https://www.slideshare.net/leeseungeun/cnn-vgg-72164295
(랩탑에서 TF설치기) https://www.slideshare.net/leeseungeun/tensorflow-tensorflow
(랩탑에서 TF tutorial) https://www.slideshare.net/lee…/tensorflow-tutorial-72217416

+++딥러닝에 필요한 수학과목들+++
(영어 강좌) https://www.youtube.com/channel/UCYO_jab_esuFRV4b17AJtAw
(과목 리스트 추천)
https://www.quora.com/How-do-I-learn-mathematics-for-machin
(영어 강좌
임성빈 추천) https://www.youtube.com/user/mathematicalmonk?app=desktop
(한글 강좌
JaeJun Yoo 추천) https://www.youtube.com/channel/UCfrr-1XiyqQTh-r3CI2VP2A(확률통계 cookbook) ht…/…/stat-cookbook/releases/download/0.2.4/stat-cookbook.pdf +++딥러닝 자료 총 망라+++ (블로그 링크) https://handong1587.github.io/categories.html

+++딥러닝 기초부터 응용까지 TF로 배워보기+++ [최성준 님 자료] (페북 링크) https://facebook.com/255834461424286_465906737083723 (자료 링크) https://github.com/sjchoi86/dl_tutorials_10weeks (코드 링크)https://github.com/sjchoi86/advanced-tensorflow [안남혁 님 자료] https://github.com/nmhkahn/deep_learning_tutorial [김진중 님 자료] https://github.com/golbin/TensorFlow-Tutorials [이도엽 님 자료] https://github.com/LeeDoYup/Deep-Learning-Tensorflow-Basic

+++한글판 딥러닝 논문 서베이+++ 2012년-2016년에 발간된 이미지 관련 논문들 약 60개 정리 (페북 링크) https://facebook.com/255834461424286_472432669764463
(자료 링크) https://brunch.co.kr/@kakao-it/65 +++자주 언급되는 테크블로그 리스트+++ 1) (원문) http://colah.github.io/ (번역)) https://brunch.co.kr/@chris-song/ 2) http://www.inference.vc/ 3) http://wiseodd.github.io/techblog/ 4) http://jaejunyoo.blogspot.com/search/label/kr
5
) https://www.facebook.com/deeplearningtalk/
6
) http://bcho.tistory.com/category/빅데이타/머신러
7)
https://brunch.co.kr/magazine/kakaoaireport

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/permalink/608999666107762/?hc_location=ufi

 

안녕하세요. 텐서플로우 코리아!
이번에는 비전공자인 제가 어떻게 머신러닝을 공부했고, 제가 발견한 머신러닝 공부자료를 공유해드리고자 글을 씁니다.^^

시작하기에 앞서 제 소개를 조금 하자면, 저는 기계공학부에 재학 중인 학부생이며, 작년 8월부터 머신러닝 공부를 시작하였습니다. 당시 저는 학부 2학년 학생으로, 확률통계는 고등학교 때 배운 이상 공부하지 않았고, 프로그래밍 언어는 매트랩을 조금 다를 수 있는 것을 제외하고는 완전히 문외한 상태였습니다.

딥러닝에 대해 관심을 갖게 된 후 제일 처음 봤던 강의는
1. 유튜브 '생활코딩'님의 파이썬 강의였습니다.
파이썬을 하나도 모르는 상태였기에 이틀 동안 필요하다 싶은 강의만 골라서 수강을 하였지만, 파이썬을 처음 봐서 그런지 for 문 정도만 이해하였습니다.
** 딥러닝 공부를 하다 보면 아시겠지만, Class를 사용해서 코딩을 정말 많이 합니다. 반드시 파이썬 강의를 들으신다면 for문, Class, def는 이해하고 딥러닝 공부 시작하시는 게 좋습니다.

* 영어가 되시는 분들은 sentdex채널의 파이썬 강의를 들으면 좋다고 하네요!
(Seungwoo Lee님 감사합니다!)

2. '생활코딩'강의를 듣고 나서 들은 것이 김성훈 교수님의 '모두의 딥러닝'강의입니다. 듣기 전부터 2회 독을 하자는 마음으로 들었고 제가 파이썬을 잘 몰랐기에 강의에 사용된 코드는 모조리 다 외워서 사용했습니다.
(같은 문제에 대한 코딩만 10번 이상 한 것 같습니다.)

3. 그 다음 들었던 강의가 CS231N인데 제가 영알못이기도 했고, 모두의 딥러닝도 완벽히 이해하지 못한 상태여서 한번 완강을 했는데도(복습은 하지 않았습니다) 이해를 거의 하지 못했고 시간만 낭비했습니다. ㅠㅠ

이렇게 위의 3 강의를 듣는데 1달 반 정도 걸렸고, 이후로는 학기가 시작이 되어 학기 공부를 한다고 딥러닝 공부는 많이 못 한 것 같습니다.

4. 학기 중에는 '라온피플'이라는 회사에서 운영하는 블로그 "https://laonple.blog.me/221196685472"에서 딥러닝에 관한 공부자료를 올리는데 이 자료를 읽으며 공부를 했습니다.

5. 또한 학기 중에는 꾸준히 Tensorflow korea에서 올라오는 글들을 눈팅했는데, 눈팅한다고 딥러닝 실력이 느는 것은 아니지만 최신 딥러닝의 동향을 알 수 있었고, 제가 답할 수 있는 자료는 답변을 달면서 공부했던 것 같습니다.

이렇게 학기가 지나가고 겨울방학이 왔는데 이때부터는 다음과 같이 공부한 것 같습니다.

6. CS231N을 다시 공부하였습니다. 확실히 '라온피플'에서 batch_normalization, CNN의 역할, Overfitting의 이유 등 여러 가지 딥러닝 지식을 공부하고 강의를 들으니 옛날에 이해했던 것보다 더 많이 이해가 되더군요. 그래서 일주일에 3강씩 1달 안 걸려 CS231N을 다 공부한 것 같습니다.

7. CS231N을 공부하면서 같이 해본 것이 Backpropagation에 대해 수학적으로 증명을 해보았습니다. 수학적으로 증명을 해봤는데 수식은 이해를 했는데 내용은 아직도 잘 이해를 못 한 것 같네요...ㅠ 아무튼 제가 생각하기에 Backpropagation은 반드시 한번 정리할 필요가 있다고 생각합니다.

8.CS231N도 공부했겠다. 이제 논문을 읽으면서 공부를 해야겠다고 생각을 했고, 하필이면 처음 건드렸던 논문이 Restricted Boltzmann machine입니다. MLE, MAP, Likelihood가 무엇인지 전혀 몰랐던 저는 이를 공부하기 위해
구글링과 페북에 수많은 질문을 하며..(죄송합니다 ㅠㅠ) 조금씩 공부해나갔습니다.

9. RBM이 생각보다 만만치 않은 논문이었기에 최성준님의 강의도 보고, 여러 가지 블로그들을 찾아보며 공부를 했습니다 . 결론적으로 MLE, MAP 및 고전 딥러닝에 대해서도 알아야 되겠다고 생각했고, Kooc의 KAIST 문일철 교수님의 인공지능학개론1을 수강하였습니다.

이것이 제가 지금까지 공부한 과정이며, 앞으로는 Kooc 문일철 교수님 인공지능학개론2, 심화 인공지능학개론을
수강할 예정입니다.

------------------------------------------------------------------------------------------------------
공부하면서 느낀 주관적인 생각과 공부 자료에 대해서 소개를 해드리자면 다음과 같습니다.

1.프로그래밍도 중요하지만 확률통계 '수학'도 상당히 중요한 것 같습니다. 특히 Generative model 또는 Reinforcement learning에서 수학을 많이 사용하는 것 같은데 이쪽으로 공부를 해보고 싶다고 생각하면 수학을 소홀히 하면 안 될 듯합니다.

2.Tensorflow ? Keras ? Pytorch? 어떤 것을 사용해야 할까요?? => 저는 Tensorflow를 쓰지만, 개인 취향인 것 같습니다. 하지만 들리는 소리에 의하면 놀 때는 pytorch, 연구할 때는 Tensorflow, 내 코드가 조금 더럽다 싶으면 Keras인 것 같습니다. 프레임 워크는 별로 안 중요한 것 같네요.(초보자의 생각입니다 ㅋㅋ)

3. 자신이 연구자가 될지 개발자가 될지를 선택하고 이에 따라 공부 방향을 선택하는 게 좋을 것 같습니다. 연구자는 수학 쪽이나 논리 쪽으로 더욱 공부하면 좋을 것 같고, 개발자는 코드짜는 것을 공부하는데 더욱 많은 시간을 할애하는 게 좋다고 생각합니다.

<공부 자료>

1. 김성훈 교수님의 모두를 위한 딥러닝 강좌시즌 1: https://www.youtube.com/watch
** 딥러닝 입문강의로 수식이 적고 코드가 그렇게 복잡하지는 않습니다. 입문용으로 추천합니다.

2. 김성훈 교수님의 모두를 위한 RH 강좌: https://www.youtube.com/playlist
** 아직 안 봐서 잘 모르겠지만, 김성훈 교수님 강좌임으로 강력히 추천합니다!

3. 김성훈 교수님의 Pytorch zero to all : https://www.youtube.com/playlist
** 김성훈 교수님의 딥러닝 파이 토치 강의로 추천합니다.

4. PR12(논문 읽기 모임 유튜브 녹화본): https://www.youtube.com/watch?v=auKdde7Anr8&t=4s
** 딥러닝 관련 논문을 읽고 발표를 한 것을 동영상으로 올려주며 난도는 조금 높을 수도 있기 때문에 논문을 읽어보신 분들께 추천합니다.

5. 테리의 딥러닝 토크: https://www.youtube.com/watch
** 엄태웅 님의 딥러닝 관련 토크로 저는 안 봐서 잘 모르지만 쉬운 영상도 있고 어려운 영상도 있다고 알고 있습니다. 또한, 엄태웅님이 원래는 기계공학 전공이기에 기구학? 관련 강의도 있는데 흥미 있으신 분들에게는 추천합니다!

6. 최성준 님의 딥러닝 강의: http://www.edwith.org/search/show
** 입문용은 아닌 것 같고, 약간 어렵습니다. 하지만 다양하고 대표적인 주제들을(RBM, LSTM, GAN, IMAGE CAPTIONING, CNN, Neural style 등)을 가지고 있기에 CS 231n을 듣고 나서 본격적으로 딥러닝 공부를 시작하겠다 하시는 분들이 듣기에는 정말 좋은 강의인 것 같습니다. 영어발음이 너무 좋으십니다. 리스릭 보츠만 뭐신... ㅋㅋ

7. CS231N: 스탠퍼드 딥러닝 강좌로 딥러닝의 처음부터 최근에 뜨고 있는 주제들에 대해서 강의가 진행됩니다. 매년 다루는 범위가 다르고, 강의해주시는 분들 실력도 엄청나게 출중하셔서 영어만 잘한다면 정말 추천해 드리는 강좌이고 영어를 잘 못해도 꼭 들어야 하는 강좌라고 생각합니다.

8. Natural language processing at stanford: https://www.youtube.com/watch
** 컴퓨터 비전 분야에서는 CS231N이 있다면 Natural language processing에는 이 강좌가 있습니다!

9.Andrew NG 코세라 강의: 딥러닝의 대가 Andrew NG의 딥러닝 강의가 코세라에 있습니다. 강력하게 추천하지만 제가 안 들어봐서 난이도가 어떤지는 잘 모르겠습니다.

10.문일철 교수님 인공지능학개론1 : http://kooc.kaist.ac.kr/machinelearning1_17
**전통 머신러닝에 대한 강의로 기본적인 확률통계 MLE, MAP부터 시작해서 SVM까지 진도를 나갑니다. 내용은 살짝 어려울 수가 있으며 개인적으로 Generative model 공부하기 전에 들으면 좋다고 생각합니다. 기계학습에서 확률통계가 어떻게 사용됐는지를 느낄 수 있는 강의라고 생각합니다. 강력추천!

11.문일철 교수님 인공지능학개론2: http://kooc.kaist.ac.kr/machinelearning2__17
** 베이지안 네트워크, clustering, Markov 체인, mcmc 방법 등을 다루며, 내용이 상당히 어렵지만, 논문을 읽다
보면 항상 나오는 그놈의 Markov 때문에 저는 수강하기로 했습니다.

12. 문일철 교수님기계학습 심화 강좌: https://www.youtube.com/watch
** 대학원 수업 정도의 난이도를 가진 강좌입니다. 본분 추론 및 최근 유행하고?? 있는 Gaussian process에 대해
다루는 수업인데 아주 어렵습니다. ㅠㅠ(아직 안 들었지만 느낌상으로 그럼..)

13. 남세동님의 휴먼 러닝: https://www.youtube.com/watch
** 안 들어 봐서 잘은 모르겠지만, 강의 시간이 그렇게 길지도 않고 남세동님이 워낙 똑똑하시고 자신만의 철학이 확고하시기에 들으면 정말 도움이 많이 될 것으로 생각합니다!!

<공부 깃허브>

1. 활석님의 Gan Github: https://github.com/…/tensorflow-generative-model-collections
** 두말할 필요가 없습니다.

2. 최성준님의 깃헙: https://github.com/sjchoi86
** 정말 많은 공부자료가 있습니다.

3. 김준호 님의 깃허브: https://github.com/taki0112
** 코드가 정말 깔끔하여 정말 좋습니다 ㅎ

4.차준범님의 깃허브: https://github.com/khanrc/tf.gans-comparison
** 활석님과 마찬가지로 ICCV 튜토리얼에 등장한 레포지토리 입니다.

5.HVASS-LABS: https://github.com/Hvass-Labs/TensorFlow-Tutorials
** 제가 초창기에 공부했던 자료입니다. 그렇게 어렵진 않지만, 코드가 상당히 길어 힘들 수도 있습니다.

<수학관련 자료>

1. 비숍의 PRML 책을 한국어로 번역해놓은 블로그: http://norman3.github.io/prml/
** 이 어려운 것을 이 분이 해냈습니.....ㄷ

2. 베이지안 딥러닝 관련 최성준님 자료 :https://github.com/sjchoi86/bayes-nn
** 대단하십니다 .

3. 조준우 님의 PRML 요약 : http://nbviewer.jupyter.org/…/blob/m…/PRML/prml-chap2.ipynb…
** 세상에는 정말 잘하는 사람들이 많은 것 같네요.

4. 딥러닝에서 사용하는 Matrix Calculus: http://parrt.cs.usfca.edu/doc/matrix-calculus/index.html

5. 3Blue1Brown: https://www.youtube.com/watch
** 이 유투브 주인의 정체가 궁금합니다. 외계인이 아닐...런지 ㅋㅋ

<공부 블로그>

1. 조대협님의 블로그 :http://bcho.tistory.com/1149
** 조대협님하면 두말없이 봐야되는거 아니겠습니까? ㅎㅎ

2. 초짜 대학원 생입장에서 이해하는 ~ 블로그: http://jaejunyoo.blogspot.com/…/generative-adversarial-nets…
** '자칭' 초짜라고 말하시는 갓재준님께서 운영하는 블로그인데 쉽게 여러가지 딥러닝 이론들을 설명해놨다고 합니다. 솔찍히 쉽지는 않은 그런 블로그입니다. 그렇다고 그렇게 어렵지도 않아요 ㅎ

3. 라온피플 블로그: https://laonple.blog.me/221196685472
** 제가 공부했던 블로그로 정말 쉽게 잘 설명 해놨습니다.

4. 송호연 님의 블로그: https://brunch.co.kr/magazine/ai-first
**KL-Divergence 잘봤습니다 ㅎ

5. 블로그는 아니지만 제가 만들었던 자료들 입니다. 이것도 많이 읽어주세요!
https://www.facebook.com/groups/TensorFlowKR/permalink/608541436153585/

< 기타 링크자료 >

1. 활석님 딥러닝 정리자료 : https://www.facebook.com/groups/TensorFlowKR/permalink/451098461897884/

2. 활석님 VAE자료: https://www.facebook.com/groups/TensorFlowKR/permalink/496009234073473/

3. 네이버 테크톡: http://tv.naver.com/v/2417457

4. 활석님의 입문자를 위한 글모음:https://www.facebook.com/groups/TensorFlowKR/permalink/490430184631378/

이상이고 길이 상당히 길어 오탈자나 문법에 안 맞는 말들이 많을 수도 있지만, 이해해주시고 읽어주시길 부탁드립니다. ㅎ

다들 즐거운 하루되세요!

 

 

 

 

 

 

 

 

Posted by uniqueone
,
안녕하세요 케라스 코리아 여러분!

* 수화를 텍스트로 번역해주는 인공지능: https://blogs.nvidia.co.kr/…/…/ai-translates-sign-language/…
* 수화를 통역해주는 장갑: https://m.facebook.com/story.php?story_fbid=255318208158674&id=214142335609595

이거를 보다가 딥러닝에 적용할 수 있을까 생각하다가 의문점이 생겼습니다.

수화는 class 마다 길이가 다를테고, 사람마다 transient(다음 동작을 위한 손의 이동) 길이가 다를텐데 어떻게 RNN을 적용 할 수 있을까요?

바꿔서 질문드리면, 그림처럼 Real-world에서는 수화1 -> transient(손이 이동) -> 수화2 -> transient -> 수화3-... 이런식일텐데,
결과1과 4는 각각 수화1, 2하고 겹치는 영역이 많아 올바른 결과를 낼것 같은데, 결과 2,3 은 transient때문에 수화 n, m의 결과를 낼 것 같습니다.
이럴때 어떻게 해야하는걸까요?

crop된 데이터만 가지고 시계열을 하다가 real-world로 가려니 어떻게 해야하는지 모르겠습니다.

다들 지나가시는길에 한말씀씩 조언해주시면 큰 도움이 될 것 같습니다 :)
감사합니다!
Posted by uniqueone
,
The 𝐋𝐚𝐧𝐝𝐦𝐚𝐫𝐤 𝐚𝐧𝐧𝐨𝐭𝐚𝐭𝐢𝐨𝐧  is used to detect shape variations.
When can you use it?
1. Detecting and recognizing facial features
2. Human body-part in motion
3. For emotion and gesture recognition

Try it now: https://platform.linkedai.co/labeler
Posted by uniqueone
,

1

카테고리 없음 2019. 4. 5. 17:04

https://www.facebook.com/groups/misulin/permalink/2360582057297472/?sfnsn=mo
Posted by uniqueone
,

1

카테고리 없음 2019. 4. 4. 13:49

https://www.facebook.com/groups/kIllustrator/permalink/2437250652960664/?sfnsn=mo
Posted by uniqueone
,

https://jybaek.tistory.com/576 이곳을 참고했음.

File -> Settings -> 왼쪽의 Project: xxx / Project Interpreter -> 오른쪽 상단 톱니버튼(설정) -> Add -> Add Python Interpreter 창에서 왼쪽에 'Virtualenv Environment'선택된 상태에서 오른쪽에 -> Base interpreter에 '찾아보기'버튼을 눌러 생성된 virtualenv위치를 선택해준다 ex) C:\ProgramData\Anaconda3\envs\venv10\python.exe

OK 몇개 누르면 pycharm이 연동작업한다.

Posted by uniqueone
,
Posted by uniqueone
,

1. https://github.com/TheWebMonks/meshmonk 

여기서 다운 받는다.

https://github.com/TheWebMonks/meshmonk/blob/master/docs/windows.md

위 주소에 윈도우 버전 설치방법이 나와있고, https://theonly1.tistory.com/1580에 복사해 뒀다. 

https://youtu.be/L9Us4YlcLxw 여기에 동영상으로 윈도우에 설정하는 방법 나와 있다.

 

2. matlab에서 mex파일 만들 때는, compliler를 무료가 아닌 VS 2015로 설정하고, mex_windows_all.m파일의 path를 다음과 같이 해야된다.

c_om = ['-I', 'C:\Program Files\OpenMesh 6.3\include'];
c_mesh = ['-I', 'D:\Project\Mibyeong\genome\ref_papers\Genome-wide_mapping\code\meshmonk'];
c_nano = ['-I', 'D:\Project\Mibyeong\genome\ref_papers\Genome-wide_mapping\code\meshmonk\vendor'];
c_eigen = ['-I', 'D:\Project\Mibyeong\genome\ref_papers\Genome-wide_mapping\code\eigen-eigen'];

 

3. matlab을 실행하고 현재 폴더를 'D:\Project\Mibyeong\genome\ref_papers\Genome-wide_mapping\code\meshmonk\demo'에 놓고 meshmonk\demo\DemoFaceMapping.m파일을 실행시키면, 11번 행 'demoFace = shape3D;' 에서 에러가 날텐데, 이는 meshomonk폴더와 그 밑 모들 폴더의 path를 matlab의 path에 등록하면 에러 안난다. 

  

 

 

Posted by uniqueone
,
머신러닝 공부 순서, 방법 및 강의 정리(HowUse 곰씨네)

상세한 강의 내용 및 강의 후기 등은 "HowUse 곰씨네" 홈페이지를 참조하시기를 바랍니다.

"머신러닝 공부를 시작하면서 들었던 강의와 머신러닝 공부 방법에 대해서 정리해보려고 한다. 필자도 아직 머신러닝을 마스터하려면 갈 길이 멀었지만, 그간 공부했던 경험을 토대로 머신러닝 입문자들에게 조금이나마 도움이 됐으면 하는 마음으로 적어봤다."

https://statwith.tistory.com/entry/머신러닝-공부-순서-방법-및-강의-정리HowUse-곰씨네?category=768467

******************************************************
- 통계분석연구회
- 카페 : http://cafe.daum.net/statsas
- 통계분석연구회(Statistics Analysis Study) 그룹
: https://www.facebook.com/groups/statsas
- STATWITH : http://statwith.tistory.com/
- RSS : https://statwith.tistory.com/rss

1. 앤드류 응(Andrew Ng) 머신러닝 강좌

머신러닝 공부를 시작하기 위해 구글 검색을 해보면 열이면 아홉은 Andrew Ng 교수의 머신러닝 강좌부터 볼 것을 추천하고 있다. 앤드류 응 교수는 구글 브래인팀을 이끌었던 세계적인 AI 권위자로 스탠포드 대학 교수이자 코세라 창립자이다.

참고로 코세라 강의는 월 $45를 결제하면 Specializations에 있는 모든 과목을 무제한을 들을 수 있는데, 유명한 머신러닝 강의는 대부분 코세라에 있다. 가입 후 7일 동안은 무료라서 일단 가입했다.



앤드류 응 교수의 강의는 머신러닝 기본 강의라고 보면 될 것 같다. 수업은 원하는 때에 들을 수 있었고, 다만 숙제가 있다. 숙제는 Octave(옥타브)라는 스크립트 언어로 나왔다. 개인적으로 이 강의를 보고 난 후 파이썬을 공부했는데, 파이썬을 이미 공부한 사람들은 강의 숙제를 할 때 GitHub에 파이썬 코드로 재작성된 자료를 참고하면 될 것이다.

2. 파이썬(Python) 공부

어떤 머신러닝 전문가는 머신러닝을 배울 때 코딩부터 배우지 말라고 한다. 그런데 필자는 앤드류 응 교수의 머신러닝 수업을 대강 마무리 하고 바로 파이썬 문법을 공부했다. 삽질부터 해보는 개발자여서 그런지 이론보다는 코드에 먼저 눈이 갔던 것 같다. 

파이썬은 머신러닝에 즐겨 쓰이는 프로그래밍 언어이다. R이나 Matlab 같은 것도 있는데 머신러닝 언어 중 대세는 파이썬이라고 한다.

필자는 파이썬 공부를 하기 위해 파이썬 공식 사이트로 가서 문서들을 한 번 쭉 훑어보고 유데미(Udemy)에서 제일 짧은 강의부터 찾았다. 강의 이름은 김왼손의 유기농냠냠파이썬이라는 강좌였는데 파이썬 문법 부분만 빠르게 넘겨 보았다. 여러가지 프로그래밍 언어를 다뤄봐서 그런지 몇몇 파이썬 만의 독특한 문법들 빼고는 크게 어렵지는 않았다. 개인적으로 파이썬 문법 공부는 하루면 충분했던 것 같다.

만약 이미 코세라를 구독하고 있고 프로그래밍이 처음이거나 파이썬을 기초부터 제대로 배우고 싶다면 Python 3 Programming 강의를 추천한다.

3. 그래프 모형, 인공신경망 강의

머신러닝을 공부할 때는 머신러닝 개론 -> 그래프 모형 -> 인공신경망 순으로 공부하면 된다고 한다. 그래프 모형(Graphical Model)이란 머신러닝의 근간을 이루는 모델로 변수간 상호 의존 관계를 설명한다.



그래프 모형에 대한 강의는 Daphne Koller 교수의 Probabilistic Graphical Models 강의가 가장 유명하다. 이 역시 코세라 강의이다.

다음으로 최근 머신러닝의 대세가 된 알고리즘인 인공신경망(Neural Network) & 딥러닝(Deep Learning) 공부를 했다. AI, 머신러닝, 인공신경망, 딥러닝 개념이 어렵다면 아래 그림과 같은 관계라고 보면 된다.



AI(Artificial Intelligence)란 인간의 지능을 기계로 만든 것을 의미하며, 그 구체적인 방법 중 하나가 머신러닝(Machine Learning)인 것이다. 그리고 머신러닝을 구현하는 알고리즘 중의 하나가 인공신경망(Neural Network)과 딥러닝(Deep Learning)인 것이다.

딥러닝은 인공신경망에서 발전된 형태로 심화신경망 또는 개선된 인공신경망 등으로 불리기도 한다.

인공신경망 강의 역시 앤드류 응 교수의 코세라 강의인 Neural Networks and Deep Learning 강의를 들었다. 참고로 아직 보지는 않았지만 인공신경망 쪽에서 휴고 라로첼(Hugo Larochelle)의 유튜브 강의도 괜찮다고 한다.

4. 머신러닝 실습 강의

코세라 강의를 들으면서 잘 이해되지 않은 부분도 있고, 영어로 수업이 진행되다 보니 놓치는 부분도 많았던 것 같다. 그래서 조금 더 쉽고 실용적인 강의가 없나 찾다가 추가로 유데미에 있는 머신러닝 강의를 들었다.

참고로 유데미 강의는 프로그래밍을 전혀 해보지 않은 사람은 다소 따라가기 어려워 보였다. 강의는 텐서플로우와 케라스를 통해 인공 신경망 개발 환경을 구축해보고 딥러닝을 통한 이미지, 데이터 분류 실습을 해본다. 

또한 강화학습에 대한 내용과 Apache Sparks MLlib을 통한 대량 데이터 머신러닝 처리에 대한 내용도 배울 수 있었다.

5. 추가 학습

유데미 강의는 아직도 틈틈히 수강하고 있다. 그 와중에 다른 머신러닝/딥러닝 강의를 알아보다가 홍콩과기대 김성 교수님의 강의를 보게 되었다. 뭔가 이전에 배웠던 내용을 recap 하는 차원에서 보게 되었는데 머신러닝 이론에 대해 깔금하게 정리되어 있다. 머신러닝 공부를 시작하거나 공부 중이라면 참고하면 괜찮은 강의이지 않을까 싶다.

6. 머신러닝 공부에 도움 될 만한 URL 모음

머신러닝 공부에 도움 될 만한 사이트나 자료에 대한 URL은 이곳에 계속 업데이트할 예정이다. 

- 딥러닝을 위한 기초 수학 : https://www.slideshare.net/theeluwin/ss-69596991
- 텐서플로우 연습 코드 모음 : https://github.com/golbin/TensorFlow-Tutorials
- 구글 딥러닝 강의 : https://www.udacity.com/course/deep-learning--ud730
- 머신러닝 오픈소스 튜토리얼 : https://scikit-learn.org/stable/tutorial/
- 옥스포드 머신러닝 수업자료 : https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/
- 머신러닝 용어집 : https://developers.google.com/machine-learning/glossary/?hl=ko


아리스토텔레스의 "시작이 반이다" 라는 명언이 있다. 그런데 영어 원문은 "Well begun, is half done." 이다. 한국어로 번역되면서 Well의 의미가 삭제된 것 같다. 제대로 해석하면 "좋은"시작이 반을 차지한다는 것이지 무작정 시작만 하면 된다는 의미는 아니다.

머신러닝, 딥러닝 공부 역시 마찬가지인 것 같다. 제대로 된 강의와 가이드로 공부를 시작해야 한다. 그리고 그 첫 시작은 앤드류 응 교수의 coursera 강의라고 생각한다. 아직도 머신러닝 공부를 망설이고 있다면, 일단 코세라에 접속해서 무료 강의부터 들어보자.
Posted by uniqueone
,

찾아보니 아래와 같이 3가지 방법으로 의견이 나뉜다.

 

 

1. File - Invalidate Caches / Restart - Invalidate and Restart를 누르면 해결된다 한다.

 

 

2. 'delete 'caches' folder in user/.IntellIJIdea13/system/ '

즉, C:\Users\User\.PyCharmCE2017.2\system\에 있는 caches폴더를 삭제한다.

 

https://stackoverflow.com/questions/15991561/intelli-j-idea-takes-forever-to-update-indices

 

3.

Preferences > Project Settings > Project Structure

Select the symlink and exlcude it from the project. This will prevent Pycharm from including and indexing the folder.

https://stackoverflow.com/questions/24955896/pycharm-indexing-goes-into-infinite-loop

 

File - Settings - Project: yourprojectname - Project Structure - Right click on folder and press "Excluded"

https://stackoverflow.com/questions/29030682/pycharm-4-0-5-hangs-on-scanning-files-to-index-background-task

 

Posted by uniqueone
,
Learn:
1. linear algebra well (e.g. matrix math)
2. calculus to an ok level (not advanced stuff)
3. prob. theory and stats to a good level
4. theoretical computer science basics
5. to code well in Python and ok in C++

Then read and implement ML papers and *play* with stuff!  :-)

H / T : Shane Legg
Posted by uniqueone
,
Machine Learning all resources in one place for you to get started. This playlist ( https://www.youtube.com/playlist?list=PLqrmzsjOpq5iBQEtgHSeF4WaVzII_ycBn ) contains of:
1. Complete Machine learning video lessons
2. Complete Mathematics video lessons
3. Some advance topic on machine learning
4. Some interesting project ideas.
5. Coming Soon with more videos and topics. Subscribe to keep yourself warm with ML: ( https://www.youtube.com/channel/UCq8JbYayUHvKvjimPV0TCqQ?sub_confirmation=1 )
Posted by uniqueone
,

1. 생물정보학, 남준희 외, 좋은땅

 

 

2. 유전공학의 이해, 남상욱, 권혁빈, 최선심 (2011), 라이프사이언스. KOCW에 강의도 있고, 한글책이라 보기 편하다고 함. (KOCW의 유전공학, 강원대학교,  최형태 http://www.kocw.net/home/search/kemView.do?kemId=152668)

 

3. 생명 정보학(원제: Fundamental Concepts of Bioinformatics), 조재창 역, Dan E. Krane, Michael L. Raymer (2007), 월드 사이언스: 번역본. 기본적으로 알아야할 내용이 정리가 잘 되어 있다고 함음. 이것도 바이오를 아예 몰라서 읽어야만 했다.

 

2, 3번은 아래 링크에서 추천함

 

http://woongheelee.com/entry/%EC%83%9D%EB%AA%85%EC%A0%95%EB%B3%B4%ED%95%99bioinformatics-%EA%B3%B5%EB%B6%80%ED%95%A0-%EB%95%8C-%EB%B3%BC%EB%A7%8C%ED%95%9C-%EC%B1%85

Posted by uniqueone
,
Posted by uniqueone
,
https://medium.com/@guymodscientist/object-detection-with-10-lines-of-code-d6cb4d86f606
Posted by uniqueone
,

matlab code - convert face landmarks matlab .mat to .pts file

excute 'main_trans_mat2pts_20180607_openVer.m' in matlab

trans_mat2pts_openVer.zip

 

Posted by uniqueone
,
Particle Swarm Optimization – A Tutorial
Dear all here is a tutorial paper on one of the optimization algorithms, is called particle swarm optimization (PSO). It is one of the most well-known optimization algorithms. In this paper:
• Introduction to PSO.
• Detailed explanation for the PSO algorithm with a good visualization.
• Two neumerical examples,
o The first example explains in a step-by-step approach how the PSO works.
o The second example explains how the PSO suffers from the local minima problem.
• Another experiment to explain fastly how the PSO can be used for optimizing some classifiers such as Support vector Machine (SVM)
• The paper includes Matlab code

Your comments are highly appreciated.

Here is the link of the pdf
https://www.academia.edu/36712310/Particle_Swarm_Optimization_-A_Tutorial
or here on researchgate
https://www.researchgate.net/publication/325575025_Particle_Swarm_Optimization-A_Tutorial?_sg=ClpsRLk5klozmA85qNOSIg2eNn_d1WDbh1yDUouQVJ7DTHmxP4DQuCK42YkJHtmQyc6U7zLXAwGAYbzWm6E03QtSGm18_jZG71IS6P9z.yGITB4_GJRnwIchxQM63qJvdswe4sGcmi9e4odn0gB2lL6nqWNdPYzTJsGI0Afo0xn-OWZMLXFIhmMTeLtuDaQ

The code is here
https://de.mathworks.com/matlabcentral/fileexchange/62998-particle-swarm-optimization--pso--tutorial
Posted by uniqueone
,