'Deep Learning'에 해당되는 글 593건

  1. 2023.09.07 tensorflow/keras에 입력영상채널개수를 3채널이 아닌 다른 채널수(예: 6개)로 입력시켜주는 방법
  2. 2023.03.02 pip install cusignal 에러 시 설치방법
  3. 2023.03.02 'pip install cupy'로 설치되지 않을 때
  4. 2023.02.07 [공개] 대용량 데이터셋 다운로드 받는 코드(인터넷 끊길 때 이용하면 좋음)
  5. 2022.10.17 [arxiv.org에 올라온 논문을 pdf가 아닌 잘 정돈된 1 column의 텍스트 페이지로 볼 수 있는 방법] 주소 창에서 arxiv의 x를 숫자 5로 바꾸면 pdf가 아닌 텍스트 페이지로 나옴
  6. 2022.08.19 ImageDataGenerator는 데이터셋 이미지개수를 증가시키진 않고 매 epoch마다 원본을 변환을 할 뿐이라서 개수는 같다 Does ImageDataGenerator add more images to my dataset?
  7. 2022.07.13 교보문고 컴퓨터공학분야 국내도서 베스트셀러 최근1주일 기준 (2022년 7월 13일)
  8. 2022.07.13 교보문고 인공지능분야 국내도서 베스트셀러 최근1주일기준 (2022년 7월 13일)
  9. 2021.08.14 [iou 추가] How to get accuracy, F1, precision and recall, iou, for a keras model?
  10. 2021.04.28 2020년 가을에 UMASS에서 개설된 Advanced NLP 강의입니다. 슬라이드/동영상 모두 제공됩니다. 강의 제목처럼 기본 NLP내용 외
  11. 2021.04.28 이미 많은 분들이 아실 것 같지만, AI에 필요한 수학 관련한 좋은 무료 강좌들입니다. 특히 3Blue1Brown과 Seeing Theory
  12. 2021.04.15 [rgb이미지의 2d 콘볼루션은 3d콘볼루션으로 작용한다][convolution kernel의 깊이(depth)는 생략되어 있다]convolution 연산에서 입력영상의 컬러채널 또는 다수의 깊이(depth channel)채널과 필터의 콘볼루..
  13. 2021.04.14 failed to create cublas handle: CUBLAS_STATUS_ALLOC_FAILED
  14. 2021.04.05 Free Data Science Courses offered by Kaggle | Kaggle Free courses | Machine Learning | Data Magic
  15. 2021.03.29 딥러닝 기본과 NLP를 익히는데 도움이 될 만한 최신 (2020년 2021년) 동영상 강좌 13종입니다. 하나 하나 직접 들어본 분의 추천이니 3
  16. 2021.03.20 안녕하세요! 이번에 끝난 캐글 대회 RANZCR CLiP - Catheter and Line Position Challenge 에서 11위/15 1
  17. 2021.03.18 [ TF Everywhere 행사 영상 및 메이킹 영상 공유] 안녕하세요! 어제 날짜로 TF Everywhere 텐플마을에 오신것을 환영합니다
  18. 2021.03.16 cusolver64_10.dll not found만 찾을 수 없다는 에러
  19. 2021.03.16 tensorflow-gpu설치하다 다음의 오류났다
  20. 2021.03.02 https://www.myheritage.com/deep-nostalgia MyHeritage 라는 독일 회사에서 개발한 Deep Nostalg
  21. 2021.03.02 안녕하세요 캐글코리아!! 올해 1월부터 매달 열리는 playground 대회인 Tabular Playground Series - 2월 대회가
  22. 2021.03.01 #kerasexamples #모든예제 https://keras.io/examples/ 에 가보니 정말 많은 예제들이 만들어져 있네요. Know
  23. 2021.03.01 Andrew Ng's machine learning course in Coursera를 파이썬으로 숙제한
  24. 2021.02.28 [ TF Everywhere 행사 영상 및 메이킹 영상 공유] 안녕하세요! 어제 날짜로 TF Everywhere 텐플마을에 오신것을 환영합니다
  25. 2021.02.26 안녕하세요! 카사바 잎 질병 분류 대회(Cassava Leaf Disease Classification Competition)가 끝나고 개인적
  26. 2021.02.18 안녕하세요, Cognex Research Engineer 이호성입니다. 요즘 컴퓨터 비전계를 뜨겁게 달구고 있는 모델이 있습니다. 바로 자연
  27. 2021.02.16 Poor smartphone photo scans are really annoying and these researchers finally fi
  28. 2021.02.16 Finally a dataset for virtual hair editing and hairstyle classification! https:/
  29. 2021.02.12 State of the art in image manipulation (stylegan) https://www.catalyzex.com/pape
  30. 2021.02.09 안녕하세요! 질문이 있습니다. 노트북 쓰다보면 패키지를 인스톨해서 쓰는 경우가 있는데, 매번 패키지를 인스톨하는걸 피할 수 있는 방법이 있나요?

vgg = vgg16.VGG16(include_top=False, weights='imagenet', input_shape=(224, 224, 3))
단일 컬러영상(3채널)을 입력시킬 때는 보통 위와 같이 vgg16아키텍처를 불러오고 이미지넷 웨이트도 복사해온다. 

아래 코드는 3채널이 아닌 영상의 아키텍처를 불러올 때 사용한다. 

vgg = vgg16.VGG16(include_top=False, weights=None, input_shape=(224, 224, 6))

위 코드는 vgg16의 아키텍처의 입력영상의 채널수가 6일 경우이다. 이렇게 하면 에러가 나지 않고 아키텍처가 생성된다. weights=None이라고 입력해주는 게 중요하다. 이 옵션을 넣지 않으면 에러가 발생한다. 대신 weights=None을 설정하면 imagenet에서 학습된 웨이트는 복사되지 않는다. 아래의 레이어 정보를 보면 입력영상의 채널이 6개이다. 0번 레이어만 shape이 (채널수가) 다르고 나머지 레이어는 원래 vgg16과 같은 shape의 레이어들이다.

 

 

 

 
 
 
 
Posted by uniqueone
,
Posted by uniqueone
,

'pip install cupy'로 설치하려니 설치되지 않고 계속 진행중이라고만 나온다. 

검색해보니 https://twitter.com/mitmul/status/986171511873523712?lang=enhttps://github.com/cupy/cupy/issues/1643#issuecomment-420896839, https://docs.cupy.dev/en/latest/install.html#install-cupy

 
 

에서 'pip install cupy'로 설치가 안되면 'pip install cupy-cuda112' (cuda버전이 11.2일때) 이런식으로 설치해보라해서 하니 설치됨.

cuda버전 확인방법은 윈도우에서는 명령프롬프트 창에 'nvcc --version'

 

 

 

Posted by uniqueone
,

대용량 파일 다운 받는 중 끊기면 처음부터 다시 받아야하는 번거로움이 있다. 이때 쓰면 좋은 코드.
여러 세그멘트 단위로 분할하여 다운받는 방식인듯.

https://github.com/spaceromany/resume_download_for_scamps

resume_download_for_scamps
SCAMPS (https://github.com/danmcduff/scampsdataset) consists of many video files. But download URL link does not provide resume download support. Our code is for downloading SCAMPS dataset using python and provides resume function.

Posted by uniqueone
,

https://www.facebook.com/groups/TensorFlowKR/posts/1868875980120118/

Arxiv에서 x를 5로 바꾸면...

논문 찾을 때 arxiv.org 많이 이용하게 되는데요, 주소 창에서 arxiv의 x를 숫자 5로 바꾸면 재밌는 걸 보실 수 있습니다 (pdf가 아닌 텍스트 페이지로 나옴)
 
예를 들면 Transformer 논문 주소가

 

https://ar5iv.org/abs/1706.03762 이렇게 바꾸는거죠
 
논문 볼 때 아주 유용하게 쓸 수 있을 것 같네요
홈페이지는 여기입니다

 

 
 

 

Posted by uniqueone
,

https://stackoverflow.com/questions/51748514/does-imagedatagenerator-add-more-images-to-my-dataset

 

Does ImageDataGenerator add more images to my dataset?

I'm trying to do image classification with the Inception V3 model. Does ImageDataGenerator from Keras create new images which are added onto my dataset? If I have 1000 images, will using this funct...

stackoverflow.com

 

Does ImageDataGenerator add more images to my dataset?

I'm trying to do image classification with the Inception V3 model. Does ImageDataGenerator from Keras create new images which are added onto my dataset? If I have 1000 images, will using this function double it to 2000 images which are used for training? Is there a way to know how many images were created and now fed into the model?

 

Short answer: 1) All the original images are just transformed (i.e. rotation, zooming, etc.) every epoch and then used for training, and 2) [Therefore] the number of images in each epoch is equal to the number of original images you have.

Posted by uniqueone
,

https://kyobobook.co.kr/categoryRenewal/categoryMain.laf?perPage=20&mallGb=KOR&linkClass=330137&menuCode=002 

 

| 컴퓨터공학 | 컴퓨터/IT | 국내도서 | 베스트셀러 - 교보문고

의 다양한 도서를 확인해 보세요. 판매인기순 및 새로나온 순으로 도서들을 확인할 수 있습니다.

kyobobook.co.kr

 
 

 

 
 
순위
바코드
도서명
저자명
출판사명
출간일
정가
 
1
9791160507966
머신 러닝 교과서 with 파이썬, 사이킷런, 텐서플로
세바스찬 라시카
길벗
20190524
33,000
2
9788968484636
밑바닥부터 시작하는 딥러닝
사이토 고키
한빛미디어
20170103
24,000
3
9791162241745
밑바닥부터 시작하는 딥러닝 2
사이토 고키
한빛미디어
20190501
29,000
4
9791162241974
김기현의 자연어 처리 딥러닝 캠프: 파이토치 편(소문난 명강의)
김기현
한빛미디어
20190701
38,000
5
9791160505979
케라스 창시자에게 배우는 딥러닝(Deep Learning with Python)
프랑소와 숄레
길벗
20181022
33,000
6
9791189909024
실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍
아즈마 유키나가
책만
20190618
26,000
7
9791162241646
파이썬 라이브러리를 활용한 머신러닝
안드레아스 뮐러
한빛미디어
20190329
32,000
8
9791162240731
핸즈온 머신러닝
오렐리앙 제롱
한빛미디어
20180427
33,000
9
9791160503715
모두의 딥러닝
조태호
길벗
20171227
24,000
10
9788965402282
인공지능을 위한 수학
이시카와 아키히코
프리렉
20181122
25,000
11
9791162241899
파이토치 첫걸음
최건호
한빛미디어
20190607
23,000
12
9788931458398
텐서플로로 배우는 딥러닝
솔라리스
영진닷컴
20181116
26,000
13
9791162240441
처음 배우는 딥러닝 수학
와쿠이 요시유키
한빛미디어
20180201
25,000
14
9791156641582
기계 학습
오일석
한빛아카데미
20171205
32,000
15
9791161752594
PyTorch로 시작하는 딥러닝
비슈누 수브라마니안
에이콘출판
20190218
25,000
16
9791188621255
패턴 인식과 머신 러닝(제이펍의 인공지능 시리즈 11)
크리스토퍼 비숍
제이펍
20180910
46,000
17
9791158391379
텐서플로와 머신러닝으로 시작하는 자연어 처리(데이터 사이언스 시리즈 30)
전창욱
위키북스
20190215
30,000
18
9791158390723
파이썬과 케라스로 배우는 강화학습(위키북스 데이터 사이언스 시리즈 4)
이웅원
위키북스
20170731
27,000
19
9791158391287
강화학습 /심층강화학습 실전 입문(PyTorch를 활용한)(위키북스 데이터 사이언스 시리즈 25)
오가와 유타로
위키북스
20181218
25,000
20
9791188621422
심층 학습(제이펍의 인공지능 시리즈 13)
이안 굿펠로
제이펍
20181031
42,000
21
9791158390679
파이썬을 이용한 머신러닝, 딥러닝 실전 개발 입문(데이터 사이언스 시리즈 3)
쿠지라 히코우즈쿠에
위키북스
20170615
30,000
22
9791190014366
딥러닝에 목마른 사람들을 위한 PyTorch
장지수
비제이퍼블릭
20190628
24,000
23
9788931588057
머신러닝(만화로 쉽게 배우는)
아라키 마사히로
성안당
20190522
15,000
24
9788960882133
파이썬 딥러닝 케라스(블록과 함께 하는)
김태영
디지털북스
20170930
25,000
25
9791158390914
기초 수학으로 이해하는 머신러닝 알고리즘(데이터 사이언스 시리즈 10)
타테이시 켄고
위키북스
20180213
22,000
26
9791161752006
컴퓨터 비전과 딥러닝
라쟈링가파 샨무갸마니
에이콘출판
20180831
30,000
27
9791185890418
인공지능 1: 현대적 접근방식(3판)
스튜어트 러셀
제이펍
20160129
36,000
28
9791162240137
골빈해커의 3분 딥러닝 텐서플로맛
김진중
한빛미디어
20170925
22,000
29
9791158391065
파이썬과 케라스를 이용한 딥러닝/강화학습 주식투자(위키북스 데이터 사이언스 시리즈 15)
김문권
위키북스
20180529
25,000
30
9791158391225
PyTorch를 활용한 머신러닝, 딥러닝 철저 입문(위키북스 데이터 사이언스 시리즈 22)
코이즈미 사토시
위키북스
20181107
25,000
31
9791158391478
파이썬을 이용한 머신러닝, 딥러닝 실전 앱 개발(위키북스 데이터 사이언스 시리즈 32)
쿠지라 히코우즈쿠에
위키북스
20190328
27,000
32
9791161751283
R로 마스터하는 머신 러닝 2/e(2판)(acorn+Packt 시리즈)
코리 레즈마이스터
에이콘출판
20180309
36,000
33
9791162241387
기계는 어떻게 생각하고 학습하는가
뉴 사이언티스트
한빛미디어
20181205
17,000
34
9791164260560
빅데이터 & 인공지능 with 생물정보학(애프터스킬)
양우진
아이콕스
20190630
22,000
35
9791185459547
마스터 알고리즘
페드로 도밍고스
비즈니스북스
20160730
22,000
36
9791185890425
인공지능 2: 현대적 접근방식(3판)
스튜어트 러셀
제이펍
20160129
36,000
37
9791188621460
케라스 창시자의 딥러닝 with R(제이팝의 인공지능 시리즈 15)
프랑소와 숄레
제이펍
20190221
29,000
38
9791160506013
데이터 분석을 위한 머신 러닝 입문
하시모토 타이이치
길벗
20181105
22,000
39
9788970859040
패턴 인식
오일석
교보문고
20080820
25,000
40
9788970939261
텐서플로우 입문(인공지능을 위한)
김유두
광문각
20190125
16,000
41
9788970939445
구글 딥러닝 프레임워크: 텐서플로우 실전(예제로 플어보는)
정저위
광문각
20190525
28,000
42
9791158391300
나의 첫 머신러닝/딥러닝(데이터 사이언스 시리즈 27)
허민석
위키북스
20190110
26,000
43
9791162240809
인공지능 첫걸음(아무것도 모르고 시작하는)
히가시나카 류이치로
한빛미디어
20180601
22,000
44
9788960778665
파이썬으로 배우는 인공지능(acorn+PACKT 시리즈)
프라틱 조쉬
에이콘출판
20170524
40,000
45
9788968484902
텐서플로 첫걸음
조르디 토레스
한빛미디어
20160829
16,000
46
9788970509594
인공지능
이건명
생능출판
20180903
35,000
47
9791158391232
텐서플로 딥러닝 프로젝트(실전활용!)(위키북스 데이터 사이언스 시리즈 24)
루카 마사론
위키북스
20181121
27,000
48
9791161752426
피처 엔지니어링, 제대로 시작하기
앨리스 젱
에이콘출판
20190102
25,000
49
9791162241240
파이썬으로 배우는 머신러닝의 교과서
이토 마코토
한빛미디어
20181101
29,000
50
9791185890982
인공지능 70(제이펍의 인공지능 시리즈 6)
미야케 요이치로
제이펍
20170724
13,000
51
9791188621590
파이토치 첫걸음(아이러브A.I. 16)
두세교
제이펍
20190509
24,000
52
9791195581191
머신러닝 쉽게 이해하기
에템 알페이딘
유엑스리뷰(UX REVIEW)
20180323
32,000
53
9788931459531
생활을 변화시키는 인공지능
다쿠치 카즈히로
영진닷컴
20181103
15,000
54
9788955027648
인공지능(Python과 TensorFlow로 구현한)(개정판)
이권윤
글로벌
20180903
17,000
55
9788957272664
영상처리 기반의 인공지능 입문
고병철
그린
20180521
18,000
56
9788965402237
머신러닝 딥러닝 바로가기
요시카와 하야토
프리렉
20180724
25,000
57
9788968487323
딥러닝 첫걸음
김성필
한빛미디어
20161230
18,000
58
9788997924387
1억배 빠른 양자 컴퓨터가 온다(누구나 읽을 수 있는 IT 과학이야기 3)
니시모리 히데토시
로드북
20180416
15,000
59
9791156644538
텐서플로로 배우는 딥러닝(IT CookBook 256)
박혜정
한빛아카데미
20190630
27,000
60
9791158390624
인공지능, 쉽게 이해하고 넓게 활용하기(최신)
칸자키 요지
위키북스
20170407
15,000
61
9791158391256
유니티 ML-Agents(따라 하면서 배우는)(위키북스 데이터 사이언스 시리즈 23)
마이클 랜햄
위키북스
20181121
22,000
62
9791158391393
실전! 딥러닝(데이터 사이언스 시리즈 29)
오타 미쯔히사
위키북스
20190215
25,000
63
9791159712111
인공지능의 세계(포스트 사이언스(Post Science) 2)
고자키 요지
북스힐
20190605
13,000
64
9791161750347
C++와 CUDA C로 구현하는 딥러닝 알고리즘 세트(에이콘 데이터 과학 시리즈)(전3권)
티모시 마스터즈
에이콘출판
20170818
78,000
65
9791161752334
실전 금융 머신러닝 완벽 분석(에이콘 금융 퀀트 머신러닝 융합 시리즈)
마르코스 로페즈 데 프라도
에이콘출판
20190102
40,000
66
9791162240816
머신러닝 실무 프로젝트
아리가 미치아키
한빛미디어
20180605
18,000
67
9791187431152
딥다 딥러닝
양지헌
스포트라잇북
20180830
30,000
  • 셀 병합
  • 행 분할
  • 열 분할
  • 너비 맞춤
  • 삭제

 

 

 

Posted by uniqueone
,
 
 

http://www.kyobobook.co.kr/categoryRenewal/categoryMain.laf?pageNumber=1&perPage=20&mallGb=KOR&linkClass=330143&ejkGb=&sortColumn=&menuCode=002

 
 
순위
바코드
도서명
저자명
출판사명
출간일
정가
인공지능
1
9791162243664
혼자 공부하는 머신러닝+딥러닝
박해선
한빛미디어
20201221
26,000
2
9788968484636
밑바닥부터 시작하는 딥러닝
사이토 고키
한빛미디어
20170103
24,000
3
9791165218942
딥러닝 파이토치 교과서
서지영
길벗
20220304
36,000
4
9791162241745
밑바닥부터 시작하는 딥러닝 2
사이토 고키
한빛미디어
20190501
29,000
5
9791191905137
데싸노트의 실전에서 통하는 머신러닝(Must Have)
권시현
골든래빗(주)
20220708
34,000
6
9791162242964
핸즈온 머신러닝(2판)
오렐리앙 제롱
한빛미디어
20200504
55,000
7
9791162243596
밑바닥부터 시작하는 딥러닝 3
사이토 고키
한빛미디어
20201110
38,000
8
9791163033165
Do it! BERT와 GPT로 배우는 자연어 처리
이기창
이지스퍼블리싱
20211201
20,000
9
9791163033790
인공지능은 게임을 어떻게 움직이는가?
미야케 요이치로
이지스퍼블리싱
20220630
18,000
10
9791165219246
모두의 딥러닝(3판)
조태호
길벗
20220331
24,000
11
9791160505979
케라스 창시자에게 배우는 딥러닝(Deep Learning with Python)
프랑소와 숄레
길벗
20181022
33,000
12
9791189909413
파이토치 딥러닝 마스터
엘리 스티븐스
책만
20220622
35,000
13
9791162244852
구글 BERT의 정석
수다르산 라비찬디란
한빛미디어
20211103
34,000
14
9791158393168
텐서플로 2와 머신러닝으로 시작하는 자연어 처리(2판)(위키북스 데이터 사이언스 시리즈 79)
전창욱
위키북스
20220324
36,000
15
9791161756578
고객 리텐션의 전략(데이터 과학)
칼 골드
에이콘출판
20220630
40,000
16
9791189909420
딥러닝을 이용한 정형 데이터 분석
마크 라이언
책만
20220620
28,000
17
9791191600674
단단한 심층강화학습(I.A.I. 37)
로라 그레서
제이펍
20220217
30,000
18
9788965402282
인공지능을 위한 수학
이시카와 아키히코
프리렉
20181122
25,000
19
9791140700073
AI 상식사전
한규동
길벗
20220614
19,000
20
9791161756400
그래프 신경망 입문
즈위안 리우
에이콘출판
20220429
20,000
21
9791162245507
MLOps 도입 가이드
데이터이쿠
한빛미디어
20220429
22,000
22
9791165920395
선형대수와 통계학으로 배우는 머신러닝 with 파이썬
장철원
비제이퍼블릭
20210126
37,500
23
9791188621255
패턴 인식과 머신 러닝(제이펍의 인공지능 시리즈 11)
크리스토퍼 비숍
제이펍
20180910
46,000
24
9788956748337
파이썬 머신러닝 판다스 데이터 분석
오승환
정보문화사
20190615
25,000
25
9791162241974
김기현의 자연어 처리 딥러닝 캠프: 파이토치 편(소문난 명강의)
김기현
한빛미디어
20190701
38,000
26
9791162244975
비전 시스템을 위한 딥러닝
모하메드 엘겐디
한빛미디어
20211220
38,000
27
9791162245279
파이썬 라이브러리를 활용한 머신러닝(2판)
안드레아스 뮐러
한빛미디어
20220225
33,000
28
9791191905076
머신러닝·딥러닝 문제해결 전략(Must Have)
신백균
골든래빗(주)
20220413
38,000
29
9788931556872
엑셀로 배우는 머신러닝 초입문(AI의 얼개를 기본부터 설명한)
와쿠이 요시유키
성안당
20210222
23,000
30
9788954754071
수학과 함께하는 AI 기초(EBS)
EBS
EBS한국교육방송공사
20200908
12,000
31
9788970505350
AI, 빅데이터 활용이 쉬워지는 142가지 데이터셋
반병현
생능북스
20220222
22,000
32
9791161753508
한국어 임베딩
이기창
에이콘출판
20190926
35,000
33
9791162244845
머신러닝 디자인 패턴
발리아파 락슈마난
한빛미디어
20211101
38,000
34
9791162245392
XGBoost와 사이킷런을 활용한 그레이디언트 부스팅
코리 웨이드
한빛미디어
20220408
34,000
35
9791165215187
머신 러닝 교과서 with 파이썬, 사이킷런, 텐서플로(개정판 3판)
세바스찬 라시카
길벗
20210331
44,000
36
9791165215477
딥러닝 텐서플로 교과서
서지영
길벗
20210430
28,000
37
9791188621422
심층 학습(제이펍의 인공지능 시리즈 13)
이안 굿펠로
제이펍
20181031
42,000
38
9791189877880
노코딩 AI
하세정
예미
20220620
18,000
39
9788956748573
파이썬 딥러닝 파이토치(Python Deep Learning PyTorch)
이경택
정보문화사
20201008
25,000
40
9788960883932
비전공자를 위한 딥러닝(그림으로 이해하는)
윤준호
디지털북스
20220225
12,000
41
9788966262854
머신 러닝 딥 러닝에 필요한 기초 수학 with 파이썬(프로그래밍인사이트)
조준우
인사이트
20201104
27,000
42
9791158393052
실전! 파이토치 딥러닝 프로젝트(데이터 사이언스 시리즈 76)
아쉬쉬 란잔 자
위키북스
20220216
32,000
43
9791161756455
자연어 처리의 정석(데이터 과학)
제이콥 에이젠슈테인
에이콘출판
20220530
50,000
44
9791162243541
딥러닝 챗봇(처음 배우는)
조경래
한빛미디어
20201101
26,000
45
9791163031093
Do it! 정직하게 코딩하며 배우는 딥러닝 입문
박해선
이지스퍼블리싱
20190920
19,800
46
9791189057145
자연어처리 바이블(고려대학교 정보대학 교재시리즈)
임희석
휴먼싸이언스
20191230
35,000
47
9791190665179
단단한 강화학습(아이러브 인공지능 27)
리처드 서튼
제이펍
20200331
35,000
48
9788965402930
프로그래머를 위한 강화학습
멀티코어
프리렉
20210331
25,000
49
9791156641582
기계 학습
오일석
한빛아카데미
20171205
32,000
50
9791156644972
딥러닝을 위한 선형대수학
길버트 스트랭
한빛아카데미
20200805
38,000
51
9791156645085
파이썬으로 만드는 인공지능(IT@ COOKBOOK)
오일석
한빛아카데미
20210105
31,000
52
9791156724643
나는 오렌지로 데이터 분석한다
임진숙
씨마스
20211201
20,000
53
9791158391256
유니티 ML-Agents(따라 하면서 배우는)(위키북스 데이터 사이언스 시리즈 23)
마이클 랜햄
위키북스
20181121
22,000
54
9791158392598
강화학습/심층강화학습 특강(위키북스 데이터 사이언스 시리즈 71)
아들랑 드 폰테베
위키북스
20210617
27,000
55
9791158392673
헬로! 인공지능 생활코딩 머신러닝: 실습편 with 오렌지3(위키북스 헬로! 인공지능 시리즈 2)
이고잉
위키북스
20210716
15,000
56
9791158392888
머신러닝 시스템 디자인 패턴(AI 엔지니어를 위한)(위키북스 데이터 사이언스 시리즈 75)
시부이 유우스케
위키북스
20211124
32,000
57
9791161754420
생명과학을 위한 딥러닝(데이터 과학 시리즈)
바라스 람순다르
에이콘출판
20200819
25,000
58
9791161756165
디지털 트윈 개발 및 클라우드 배포
나심 칼레드
에이콘출판
20220225
45,000
59
9791162241080
미술관에 GAN 딥러닝 실전 프로젝트
데이비드 포스터
한빛미디어
20191115
32,000
60
9791162241387
기계는 어떻게 생각하고 학습하는가
뉴 사이언티스트
한빛미디어
20181205
17,000
61
9791162243435
GAN 인 액션
야쿠프 란그르
한빛미디어
20200917
30,000
62
9791162244333
파이토치로 배우는 자연어 처리
델립 라오
한빛미디어
20210601
26,000
63
9791162244913
AI로 일하는 기술
장동인
한빛미디어
20220103
18,000
64
9791162245415
케라스로 구현하는 딥러닝
김성진
한빛미디어
20220401
30,000
65
9791185553832
AI 인공지능 자율주행 자동차
장문철
앤써북
20210830
20,000
66
9791185553955
인공지능 자율주행 RC카 체험하고 코딩하기 with 라즈베리파이
서민우
앤써북
20220405
18,000
67
9791185553979
머신러닝 딥러닝을 이용한 A.I. 자율주행 RC카 프로젝트 with 파이썬+아두이노
서민우
앤써북
20220520
18,000
68
9791185578958
AI시대의 컴퓨터 개론
강환수
인피니티북스
20220217
29,000
69
9791188621989
단단한 머신러닝(아이러브 인공지능 24)
조우쯔화
제이펍
20200228
30,000
70
9791191600742
비전공자를 위한 인공지능 교과서(제이펍의 인공지능 시리즈 38)
후쿠마 도모키
제이펍
20220504
18,000
71
9788931463170
바닥부터 배우는 강화 학습
노승은
영진닷컴
20200915
22,000
72
9788931465914
딥러닝을 위한 파이토치 입문
딥러닝호형
영진닷컴
20220120
25,000
73
9788956749167
인공지능 바이블
조민호
정보문화사
20220630
28,000
74
9788958974062
모두를 위한 인공지능과 윤리
김성애
삼양미디어
20220705
23,000
75
9788970504728
처음 만나는 인공지능(개정판)
김대수
생능출판
20201209
26,000
76
9788970504872
쉬운 딥러닝
반병현
생능북스
20210421
20,000
77
9788970505237
인공지능이 비즈니스 모델이 되기까지
이지은
생능북스
20220103
21,000
78
9788970509594
인공지능
이건명
생능출판
20180903
35,000
79
9788980783113
OpenCV.Python 머신러닝 딥러닝 프로그래밍
김동근
가메
20220331
26,000
80
9791156009641
머신러닝 알고리즘 마스터(2판)
Giuseppe Bonaccorso
도서출판 홍릉(홍릉과학출판사)
20220331
55,000
81
9791156645504
난생처음 인공지능 입문(IT CookBook)
서지영
한빛아카데미
20210618
25,000
82
9791156724223
모두를 위한 인공지능 언플러그드
임진숙
씨마스
20210122
18,000
83
9791158391713
케라스로 구현하는 고급 딥러닝 알고리즘(위키북스 데이터 사이언스 시리즈 40)
로웰 아티엔자
위키북스
20190927
28,000
84
9791158391799
파이썬을 이용한 머신러닝, 딥러닝 실전 개발 입문(개정판)(위키북스 데이터 사이언스 시리즈 45)
쿠지라 히코우즈쿠에
위키북스
20191210
30,000
85
9791158392123
실전! 텐서플로 2를 활용한 딥러닝 컴퓨터 비전(위키북스 데이터 사이언스 시리즈 57)
벤자민 플랜치
위키북스
20200602
28,000
86
9791158392185
나의 첫 머신러닝/딥러닝(위키북스 데이터 사이언스 시리즈 60)
허민석
위키북스
20200730
26,000
87
9791158392666
헬로! 인공지능 생활코딩 머신러닝: 이론편(위키북스 헬로! 인공지능 시리즈 1)
이고잉
위키북스
20210716
13,000
88
9791160507652
OpenCV 4로 배우는 컴퓨터 비전과 머신 러닝
황선규
길벗
20190412
42,000
89
9791161750347
C++와 CUDA C로 구현하는 딥러닝 알고리즘 세트(에이콘 데이터 과학 시리즈)(전3권)
티모시 마스터즈
에이콘출판
20170818
78,000
90
9791161752334
실전 금융 머신러닝 완벽 분석(에이콘 금융 퀀트 머신러닝 융합 시리즈)
마르코스 로페즈 데 프라도
에이콘출판
20190102
40,000
91
9791161752426
피처 엔지니어링, 제대로 시작하기
앨리스 젱
에이콘출판
20190102
25,000
92
9791161753928
R을 활용한 머신러닝(3판)
브레트 란츠
에이콘출판
20200227
36,000
93
9791161754208
적대적 머신러닝(데이터 과학)
앤서니 조셉
에이콘출판
20200630
40,000
94
9791161754628
OpenCV 4를 활용한 머신러닝 입문(2판)(데이터 과학)
아디타 샤르마
에이콘출판
20201030
40,000
95
9791161755250
자율주행차량 기술 입문(임베디드 시스템)
행키 샤프리
에이콘출판
20210521
33,000
96
9791161755939
금융 머신러닝
매튜 딕슨
에이콘출판
20220111
60,000
97
9791161756134
MLFlow를 활용한 MLOps
스리다르 알라
에이콘출판
20220228
30,000
98
9791162241950
파이썬을 활용한 머신러닝 쿡북
크리스 알본
한빛미디어
20190901
33,000
99
9791162242278
펭귄브로의 3분 딥러닝 파이토치맛
김건우
한빛미디어
20191101
28,000
100
9791162243190
핸즈온 비지도 학습
안쿠르 A. 파텔
한빛미디어
20200720
34,000
101
9791162244234
데이터가 뛰어노는 AI 놀이터, 캐글
가도와키 다이스케
한빛미디어
20210510
35,000
102
9791162244692
머신러닝 파워드 애플리케이션
에마뉘엘 아메장
한빛미디어
20210906
27,000
103
9791162244814
살아 움직이는 머신러닝 파이프라인 설계
하네스 하프케
한빛미디어
20211011
32,000
104
9791162244838
그로킹 심층 강화학습
미겔 모랄레스
한빛미디어
20211010
35,000
105
9791162244876
머신러닝&딥러닝 with 파이썬(한 권으로 다지는)
알베르토 아르타산체스
한빛미디어
20211021
40,000
106
9791162245002
금융 전략을 위한 머신러닝
하리옴 탓샛
한빛미디어
20211227
35,000
107
9791162245521
쉽게 배우는 AWS AI 서비스
피터 엘거
한빛미디어
20220415
30,000
108
9791162263877
비즈니스를 위한 AI(2판)
Doug Rose
시그마프레스
20220630
23,000
109
9791163031253
기계는 어떻게 생각하는가?
숀 게리시
이지스퍼블리싱
20191227
18,000
110
9791163033431
Do it! 첫 인공지능
이애리
이지스퍼블리싱
20220401
13,000
111
9791165219239
구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js
샨칭 차이
길벗
20220331
44,000
112
9791165921125
알고리즘 구현으로 배우는 선형대수 with 파이썬
장철원
비제이퍼블릭
20211224
34,000
113
9791185459547
마스터 알고리즘
페드로 도밍고스
비즈니스북스
20160730
22,000
114
9791188621804
알파제로를 분석하며 배우는 인공지능(제이펍의 인공지능 시리즈 22)
후루카와 히데카즈
제이펍
20191230
30,000
115
9791189909024
실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍
아즈마 유키나가
책만
20190618
26,000
116
9791190665230
데이터 과학자와 데이터 엔지니어를 위한 인터뷰 문답집(아이러브 인공지능 28)
Hulu 데이터 과학팀
제이펍
20200630
34,000
117
9791196965624
클라우드 모바일 및 에지 기반의 딥러닝 실용가이드
Anirudh Koul
DK로드북스
20200707
42,000
118
9791197249006
알파(R과 Python)를 활용한 인공지능 챗봇 14
황윤찬
STORYJOA(스토리조아)
20201230
23,000
119
9788909546676
코딩스쿨 엔트리로 시작하는 인공지능 프로그래밍
정인기
교학사
20211020
9,000
120
9788931456639
구글에서 배우는 딥러닝
닛케이 빅데이터
영진닷컴
20170905
16,000
121
9788931555660
C++로 배우는 딥러닝(신경망의 기초부터 C++를 이용한 구현까지)
후지타 타케시
성안당
20180629
23,000
122
9788931556704
엑셀로 배우는 딥러닝
와쿠이 요시유키
성안당
20200525
23,000
123
9788931556766
엑셀로 배우는 순환 신경망· 강화학습 초입문: RNN(순환신경망).DQN(심층Q-네트워크)편
와쿠이 요시유키
성안당
20200724
23,000
124
9788931556926
한눈에 보이는 인공지능 그림책
한선관
성안당
20210422
19,000
125
9788931588057
머신러닝(만화로 쉽게 배우는)
아라키 마사히로
성안당
20190522
15,000
126
9788956749006
파이썬 딥러닝 머신러닝 입문
오승환
정보문화사
20210105
25,000
127
9788958207429
코딩책과 함께 보는 인공지능 개념 사전
김현정
궁리
20211005
16,000
128
9788960777491
머신 러닝(Machine Learning)(에이콘 데이터 과학 시리즈)
케빈 머피
에이콘출판
20150831
60,000
129
9788960778580
C++와 CUDA C로 구현하는 딥러닝 알고리즘 1(에이콘 데이터과학 시리즈)
티모시 마스터즈
에이콘출판
20160428
30,000
130
9788960779662
자바 딥러닝의 핵심(acorn+PACKT 시리즈)
유스케 스고모리
에이콘출판
20170125
25,000
131
9788968483509
신경망 첫걸음(첫걸음 시리즈)
타리크 라시드
한빛미디어
20170403
25,000
132
9788970505121
실습하며 배우는 딥러닝 입문 with Kaggle
장원두
생능출판
20210730
29,000
133
9788981720353
기초퍼지이론
유동선
교우사
19980302
25,000
134
9788981720544
퍼지과학의 세계
장이채
교우사
19970301
11,000
135
9788997924387
1억배 빠른 양자 컴퓨터가 온다(누구나 읽을 수 있는 IT 과학이야기 3)
니시모리 히데토시
로드북
20180416
15,000
136
9791125102373
인공지능 입문(수학이론과 실습)(너도 나도 따라할 수 있는)
민조홍
교우
20180228
15,000
137
9791156008699
머신러닝 데이터 분석(오렌지3로 알아가는)
손원성
홍릉
20210805
39,000
138
9791158391393
실전! 딥러닝(데이터 사이언스 시리즈 29)
오타 미쯔히사
위키북스
20190215
25,000
139
9791158392000
XAI 설명 가능한 인공지능, 인공지능을 해부하다(위키북스 데이터 사이언스 시리즈 53)
안재현
위키북스
20200327
28,000
140
9791158392321
금융 전문가를 위한 머신러닝 알고리즘(위키북스 데이터 사이언스 시리즈 65)
얀네스 클라스
위키북스
20210107
35,000
141
9791161751726
파이썬 자연어 처리의 이론과 실제
잘라지 트하나키
에이콘출판
20180629
35,000
142
9791161752594
PyTorch로 시작하는 딥러닝
비슈누 수브라마니안
에이콘출판
20190218
25,000
143
9791161752761
텐서플로를 이용한 고급 딥러닝(데이터 과학 시리즈)
산타누 파타나야크
에이콘출판
20190228
35,000
144
9791161753409
The Hundred-Page Machine Learning Book(데이터 과학)
안드리 부르코프
에이콘출판
20190830
25,000
145
9791161753782
케라스로 배우는 신경망 설계와 구현
닐로이 푸르카이트
에이콘출판
20200221
40,000
146
9791161754109
텐서플로 2와 케라스로 구현하는 딥러닝(2판)(데이터 과학)
안토니오 걸리
에이콘출판
20200429
43,000
147
9791161754918
자산운용을 위한 금융 머신러닝(금융 퀀트 머신러닝 융합 시리즈)
마르코스 로페즈 데 프라도
에이콘출판
20210126
20,000
148
9791161755878
추천 시스템
차루 아가르왈
에이콘출판
20211231
40,000
149
9791161756448
그림으로 배우는 딥러닝
앤드류 글래스너
에이콘출판
20220531
60,000
150
9791161756462
추천 시스템의 통계 기법(데이터 과학)
디팍 아가왈
에이콘출판
20220531
33,000
151
9791162240045
처음 배우는 머신러닝
김승연
한빛미디어
20171001
26,000
152
9791162240441
처음 배우는 딥러닝 수학
와쿠이 요시유키
한빛미디어
20180201
25,000
153
9791162241073
텐서플로를 활용한 머신러닝
니샨트 수클라
한빛미디어
20190201
30,000
154
9791162241899
파이토치 첫걸음
최건호
한빛미디어
20190607
23,000
155
9791162242001
파이썬 날코딩으로 알고 짜는 딥러닝
윤덕호
한빛미디어
20190715
45,000
156
9791162243312
퀀트 전략을 위한 인공지능 트레이딩
김태헌
한빛미디어
20200820
28,000
157
9791162243411
초소형 머신러닝 TinyML
피트 워든
한빛미디어
20200820
40,000
158
9791162243954
GAN 첫걸음
타리크 라시드
한빛미디어
20210310
25,000
159
9791162244357
머신러닝을 활용한 웹 최적화
이쓰카 슈헤이
한빛미디어
20210607
34,000
160
9791162244593
텐서플로 라이트를 활용한 안드로이드 딥러닝
임태규
한빛미디어
20210720
27,000
161
9791162244609
만들면서 배우는 파이토치 딥러닝
오가와 유타로
한빛미디어
20210805
40,000
162
9791162244630
fastai와 파이토치가 만나 꽃피운 딥러닝
제러미 하워드
한빛미디어
20210810
44,000
163
9791162244647
웹 브라우저 속 머신러닝 TensorFlow.js
카이 사사키
한빛미디어
20210901
25,000
164
9791162245323
머신러닝 실무 프로젝트(2판)
아리가 미치아키
한빛미디어
20220310
24,000
165
9791163032991
Do it! 딥러닝 교과서
윤성진
이지스퍼블리싱
20211018
28,000
166
9791165213985
모두의 인공지능 with 파이썬
이영호
길벗
20201230
22,000
167
9791165216726
쉽게 시작하는 캐글 데이터 분석
시노다 히로유키
길벗
20210908
22,000
168
9791165920753
파이토치 딥러닝 프로젝트 모음집(한 줄씩 따라 해보는)
이경택
비제이퍼블릭
20210730
29,000
169
9791185578606
인공지능
천인국
인피니티북스
20200212
30,000
170
9791185890944
그림과 수식으로 배우는 통통 인공지능(제이펍의 인공지능 시리즈 8)
타니구치 타다히로
제이펍
20170929
23,000
171
9791187512592
세상에서 가장 쉬운 AI 앱 수업
공민수
리틀에이
20210930
17,500
172
9791188508198
엑사스케일과 인공지능 그리고 양자컴퓨터(지금부터 시작하는)
추형석
위즈플래닛
20211120
15,000
173
9791188621774
파이썬으로 배우는 응용 텍스트 분석(제이펍의 인공지능 시리즈 20)
벤자민 벵포트
제이펍
20191129
27,000
174
9791189057220
인공지능 베이직
Tom Taulli
휴먼싸이언스
20201020
19,000
175
9791189184032
딥러닝을 위한 최적화와 수치해석
황윤구
남가람북스
20200203
32,000
176
9791189909031
실무가 훤히 보이는 머신러닝 & 딥러닝
마창수
책만
20190731
26,000
177
9791189909246
핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현
아즈마 유키나가
책만
20201209
28,000
178
9791190014823
당신이 지금 알아야 할 빅4 클라우드 머신러닝
이영호
비제이퍼블릭
20200331
26,000
179
9791191346350
인공지능 코딩하기(허스키렌즈와 마이크로비트로 배우는)
이수진
지오북스
20220223
19,000
180
9791191600322
인공지능 2(4판)(제이펍의 인공지능 시리즈 33)
스튜어트 러셀
제이펍
20210825
38,000
181
9791195484584
Gpu의 모든 기술(머신러닝과 블록체인을 떠받치는)
Hisa Ando
남가람북스
20180414
30,000
182
9791196262044
만화로 이해하는 인공지능
칸 요오코 (그림)
보국출판사
20210216
15,000
183
9791197175923
할로코드로 배우는 인공지능 코딩 활용편
최만
슈퍼트랙
20210915
18,000
184
9791197420603
딥러닝 개념과 활용(양장본 HardCover)
김의중
미리어드스페이스
20210416
35,000
  • 셀 병합
  • 행 분할
  • 열 분할
  • 너비 맞춤
  • 삭제

 

 

Posted by uniqueone
,

https://datascience.stackexchange.com/questions/45165/how-to-get-accuracy-f1-precision-and-recall-for-a-keras-model

위 사이트에 accuracy, F1, precision and recall만 구하는데, 내가 iou 구하는 코드도 추가했다. 

def iou_m(y_true, y_pred, dtype=tf.float32):
    # tf tensor casting
    y_pred = tf.convert_to_tensor(y_pred)
    y_pred = tf.cast(y_pred, dtype)
    y_true = tf.cast(y_true, y_pred.dtype)

    y_pred = tf.squeeze(y_pred)
    y_true = tf.squeeze(y_true)

    y_true_pos = tf.reshape(y_true, [-1])
    y_pred_pos = tf.reshape(y_pred, [-1])

    area_intersect = tf.reduce_sum(tf.multiply(y_true_pos, y_pred_pos))

    area_true = tf.reduce_sum(y_true_pos)
    area_pred = tf.reduce_sum(y_pred_pos)
    area_union = area_true + area_pred - area_intersect

    return tf.math.divide_no_nan(area_intersect, area_union)

-------------------------------------------------------------------------------------------

from keras import backend as K

def recall_m(y_true, y_pred):
    true_positives = K.sum(K.round(K.clip(y_true * y_pred, 0, 1)))
    possible_positives = K.sum(K.round(K.clip(y_true, 0, 1)))
    recall = true_positives / (possible_positives + K.epsilon())
    return recall

def precision_m(y_true, y_pred):
    true_positives = K.sum(K.round(K.clip(y_true * y_pred, 0, 1)))
    predicted_positives = K.sum(K.round(K.clip(y_pred, 0, 1)))
    precision = true_positives / (predicted_positives + K.epsilon())
    return precision

def f1_m(y_true, y_pred):
    precision = precision_m(y_true, y_pred)
    recall = recall_m(y_true, y_pred)
    return 2*((precision*recall)/(precision+recall+K.epsilon()))

def iou_m(y_true, y_pred, dtype=tf.float32):
    # tf tensor casting
    y_pred = tf.convert_to_tensor(y_pred)
    y_pred = tf.cast(y_pred, dtype)
    y_true = tf.cast(y_true, y_pred.dtype)

    y_pred = tf.squeeze(y_pred)
    y_true = tf.squeeze(y_true)

    y_true_pos = tf.reshape(y_true, [-1])
    y_pred_pos = tf.reshape(y_pred, [-1])

    area_intersect = tf.reduce_sum(tf.multiply(y_true_pos, y_pred_pos))

    area_true = tf.reduce_sum(y_true_pos)
    area_pred = tf.reduce_sum(y_pred_pos)
    area_union = area_true + area_pred - area_intersect

    return tf.math.divide_no_nan(area_intersect, area_union)



# compile the model
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['acc',f1_m,precision_m, recall_m])

# fit the model
history = model.fit(Xtrain, ytrain, validation_split=0.3, epochs=10, verbose=0)

# evaluate the model
loss, accuracy, f1_score, precision, recall = model.evaluate(Xtest, ytest, verbose=0)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posted by uniqueone
,

2020년 가을에 UMASS에서 개설된 Advanced NLP 강의입니다.
슬라이드/동영상 모두 제공됩니다.

강의 제목처럼 기본 NLP내용 외에 최신 내용들을 다루기 때문에 NLP에 대한 사전 지식이 필요한 강의입니다.

동영상 강의는 총 26시간 정도 분량입니다.

[video] https://www.youtube.com/playlist?list=PLWnsVgP6CzadmQX6qevbar3_vDBioWHJL
[homepage] https://people.cs.umass.edu/~miyyer/cs685/schedule.html
[schedule]
Week 1: introduction, language models, representation learning
Week 2: neural LMs, RNNs, backpropagation
Week 3: Attention mechanisms
Week 4: Transformers, transfer learning
Week 5: BERT and how to use it for downstream tasks
Week 6: further improving transfer learning in NLP
Week 7: improving text generation
Week 8: data augmentation and collection
Week 9: model distillation and retrieval-augmented LMs
Week 10: Transformer implementation, vision + language
Week 11: Exam week!
Week 12: Ethics and probe tasks
Week 13: Semantic parsing and commonsense reasoning

Posted by uniqueone
,

이미 많은 분들이 아실 것 같지만, AI에 필요한 수학 관련한 좋은 무료 강좌들입니다.

특히 3Blue1Brown과 Seeing Theory 컨텐츠는 워낙 쉽게 잘 설명을 해놓았고, visulization이 좋아서 입문자에게 좋습니다.

1. Linear Algebra
- 3Blue1Brown 채널 : https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab
- MIT 강의 : https://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/video-lectures/

2. Probability
- Harvard 강의 : https://www.youtube.com/playlist?list=PL2SOU6wwxB0uwwH80KTQ6ht66KWxbzTIo
- Seeing Theory : https://seeing-theory.brown.edu/index.html#firstPage

3. Calculus
- 3Blue1Brown 채널 : https://www.youtube.com/playlist?list=PLZHQObOWTQDMsr9K-rj53DwVRMYO3t5Yr

4. Multivarate Calculus
- Coursera 강의 : https://www.coursera.org/learn/multivariate-calculus-machine-learning

Originally from Santiago's tweet

Posted by uniqueone
,

결론은 summation across chaannel이다. 각 채널별로 콘볼루션 계산 후 더하여 output을 만든다. 

[1] https://stackoverflow.com/questions/43306323/keras-conv2d-and-input-channels

[2] https://datascience.stackexchange.com/questions/76456/why-do-we-use-2d-kernel-for-rgb-data

----------------------------------------------------------------------------------------------------------------

[1] stackoverflow.com/questions/43306323/keras-conv2d-and-input-channels

Keras Conv2D and input channels

 

The Keras layer documentation specifies the input and output sizes for convolutional layers: https://keras.io/layers/convolutional/

Input shape: (samples, channels, rows, cols)

Output shape: (samples, filters, new_rows, new_cols)

And the kernel size is a spatial parameter, i.e. detemines only width and height.

So an input with c channels will yield an output with filters channels regardless of the value of c. It must therefore apply 2D convolution with a spatial height x width filter and then aggregate the results somehow for each learned filter.

What is this aggregation operator? is it a summation across channels? can I control it? I couldn't find any information on the Keras documentation.

Thanks.

pythonkeras

Share

Improve this question

Follow

asked Apr 9 '17 at 11:46

yoki

1,5584 gold badges15 silver badges24 bronze badges

  • 1
  • You need to read this. – Autonomous Apr 9 '17 at 22:27
  •  
  • From this page: "In the output volume, the d-th depth slice (of size W2×H2) is the result of performing a valid convolution of the d-th filter over the input volume with a stride of SS, and then offset by d-th bias. ". So I still don't follow how these convolutions of a volume with a 2D kernel turn into a 2D result. Is the depth dimension reduced by summation? – yoki Apr 10 '17 at 6:53 
  • 1
  • "Example 1. For example, suppose that the input volume has size [32x32x3], (e.g. an RGB CIFAR-10 image). If the receptive field (or the filter size) is 5x5, then each neuron in the Conv Layer will have weights to a [5x5x3] region in the input volume, for a total of 5*5*3 = 75 weights (and +1 bias parameter). Notice that the extent of the connectivity along the depth axis must be 3, since this is the depth of the input volume." - I guess you are missing it's 3D kernel [width, height, depth]. So the result is summation across channels. – Nilesh Birari Apr 10 '17 at 11:21
  • 1
  • @Nilesh Birari , my question is exactly how to know what Keras is doing. I guess it's summation, but how can I know for sure? – yoki Apr 10 '17 at 11:54

Add a comment

3 Answers

ActiveOldestVotes

38

 

It might be confusing that it is called Conv2D layer (it was to me, which is why I came looking for this answer), because as Nilesh Birari commented:

I guess you are missing it's 3D kernel [width, height, depth]. So the result is summation across channels.

Perhaps the 2D stems from the fact that the kernel only slides along two dimensions, the third dimension is fixed and determined by the number of input channels (the input depth).

For a more elaborate explanation, read https://petewarden.com/2015/04/20/why-gemm-is-at-the-heart-of-deep-learning/

I plucked an illustrative image from there:

Share

Improve this answer

Follow

answered Jul 12 '17 at 10:26

noio

5,4357 gold badges37 silver badges61 bronze badges

  • 4
  • So do each channel of the filter have their own weights which can be optimized? Or do we just compute the weights for one channel and use that as values for the rest of the channels of the filter. – Moondra Nov 20 '17 at 23:02
  • 1
  • The kernels are different for all channels. See my answer. – Alaroff May 24 '18 at 7:42
  •  
  • I think different kernels are used only for illustration. In Keras it may be implemented with same Kernel across channels. – Regi Mathew May 29 '19 at 6:29

Add a comment

 

Report this ad

34

I was also wondering this, and found another answer here, where it is stated (emphasis mine):

Maybe the most tangible example of a multi-channel input is when you have a color image which has 3 RGB channels. Let's get it to a convolution layer with 3 input channels and 1 output channel. (...) What it does is that it calculates the convolution of each filter with its corresponding input channel (...). The stride of all channels are the same, so they output matrices with the same size. Now, it sums up all matrices and output a single matrix which is the only channel at the output of the convolution layer.

Illustration:

Notice that the weights of the convolution kernels for each channel are different, which are then iteratively adjusted in the back-propagation steps by e.g. gradient decent based algorithms such as stochastic gradient descent (SDG).

Here is a more technical answer from TensorFlow API.

Share

Improve this answer

Follow

edited May 23 '18 at 10:09

 

answered May 13 '18 at 14:36

Alaroff

1,52511 silver badges9 bronze badges

Add a comment

28

I also needed to convince myself so I ran a simple example with a 3×3 RGB image.

# red # green # blue 1 1 1 100 100 100 10000 10000 10000 1 1 1 100 100 100 10000 10000 10000 1 1 1 100 100 100 10000 10000 10000

The filter is initialised to ones:

1 1 1 1

I have also set the convolution to have these properties:

  • no padding
  • strides = 1
  • relu activation function
  • bias initialised to 0

We would expect the (aggregated) output to be:

40404 40404 40404 40404

Also, from the picture above, the no. of parameters is

3 separate filters (one for each channel) × 4 weights + 1 (bias, not shown) = 13 parameters


Here's the code.

Import modules:

import numpy as np from keras.layers import Input, Conv2D from keras.models import Model

Create the red, green and blue channels:

red = np.array([1]*9).reshape((3,3)) green = np.array([100]*9).reshape((3,3)) blue = np.array([10000]*9).reshape((3,3))

Stack the channels to form an RGB image:

img = np.stack([red, green, blue], axis=-1) img = np.expand_dims(img, axis=0)

Create a model that just does a Conv2D convolution:

inputs = Input((3,3,3)) conv = Conv2D(filters=1, strides=1, padding='valid', activation='relu', kernel_size=2, kernel_initializer='ones', bias_initializer='zeros', )(inputs) model = Model(inputs,conv)

Input the image in the model:

model.predict(img) # array([[[[40404.], # [40404.]], # [[40404.], # [40404.]]]], dtype=float32)

Run a summary to get the number of params:

model.summary()

Share

Improve this answer

Follow

answered Dec 26 '18 at 9:37

remykarem

1,43717 silver badges22 bronze badges

Add a comment

 

 

[2] https://datascience.stackexchange.com/questions/76456/why-do-we-use-2d-kernel-for-rgb-data

I have recently started kearning CNN and I coukdnt understand that why are we using a 2D kernel like of shape (3x3) for a RGB data in place of a 3D kernel like of shape (3x3x3)?

Are we sharing the same kernel among all the channels because the data would look the same in all the channels?

-->

welcome to the community

I guess there's a confusion in your understanding of the kernel we use in case of rgb data. We normally use a kernel of equal number of channels as the input coming in (in this case as you mentioned it's RGB, so my number of channels for convolution operation would be 3). So instead of using a 3 X 3 Kernel, we use a 3 X 3 X 3 kernel. Weight matrix multiplication of kernel and image pixels happen channel-wise.

However, having said this, you can use a kernel of size 3 X 3 when input image is rgb, by specifying the stride as 1 in the third dimension. What this will do is convolute the kernel not only horizontally and vertically but also through the depth or specifically through the channels as well. I don't exactly know why one would like to do it.

Apart from this I guess the course or the video you are referring to might have specified '2D convolution on a 3D image'. That doesn't mean using a 2D kernel. And a 2D convolution on a 3D image uses a 3D kernel and after weight matrix multiplication you get a 2D image hence justifying the 2D convolution name.

 

 

 

 

 

 

 

 

 
 
Posted by uniqueone
,

윈도우 10에 텐서플로우 2.x버전에서 gpu로 실행 시

failed to create cublas handle: CUBLAS_STATUS_ALLOC_FAILED 에러 날 때는 

 

import tensorflow as tf
config = tf.compat.v1.ConfigProto(gpu_options = tf.compat.v1.GPUOptions(per_process_gpu_memory_fraction=0.8)
#device_count = {'GPU': 1}
)
config.gpu_options.allow_growth = True
session = tf.compat.v1.Session(config=config)
tf.compat.v1.keras.backend.set_session(session)

를 코드 상단에 추가해주자.

github.com/tensorflow/tensorflow/issues/35887#issuecomment-679329549

 

 

 

 

 

Posted by uniqueone
,

www.youtube.com/watch?v=TfwjDgNoZYk

Hello Friends, Stay tuned and enjoy Machine Learning !!! Cheers !!! #freecourses #kaggle #machinelearning Connect with me, ☑️ YouTube : https://www.youtube.com/c/DataMagic2020 ☑️ Facebook : https://www.facebook.com/datamagic2020 ☑️ Instagram : http://instagram.com/datamagic2020 ☑️ Twitter : http://www.twitter.com/datamagic5 ☑️ Telegram: https://t.me/datamagic2020 For Business Inquiries : datamagic2020@gmail.com Best book for Machine Learning : https://amzn.to/3qCe0Rf 🎥 Playlists : ☑️Machine Learning Basics https://www.youtube.com/playlist?list... ☑️Feature Engineering/ Data Preprocessing https://www.youtube.com/playlist?list... ☑️OpenCV Tutorial [Computer Vision] https://www.youtube.com/playlist?list... ☑️Machine Learning Algorithms https://www.youtube.com/playlist?list... ☑️Machine Learning Environment Setup https://www.youtube.com/playlist?list... ☑️Machine Learning Model Deployment https://www.youtube.com/playlist?list... ☑️Machine Learning Projects https://www.youtube.com/playlist?list... ☑️Kaggle Tutorial https://www.youtube.com/playlist?list... ☑️Microsoft Lobe Tutorial https://www.youtube.com/playlist?list... Thank you for watching !! Please Like, Comment, Share and Subscribe!!! This episode can answer below queries:

Posted by uniqueone
,

딥러닝 기본과 NLP를 익히는데 도움이 될 만한 최신 (2020년 2021년) 동영상 강좌 13종입니다.

하나 하나 직접 들어본 분의 추천이니 관심 있으신 분들은 보시면 좋을 듯 합니다.

1. Deep Learning: CS 182 Spring 2021
Includes a great introduction to deep learning starting with the machine learning basics moving into more core topics like optimization. (by Sergey Levine)

2. Deep Learning (with PyTorch)

This is one of the most recent deep learning courses focusing on hot topics like self-supervised learning, transformers, and energy based models. (by Alfredo Canziani)

3. Deep Learning Crash Course 2021
This course is focused on the popular free book available on the d2l.ai website. If you have been studying the book, this set of lectures will come in handy. (by Alex Smola)

4. Natural Language Processing
If you are not too familiar with natural language processing (NLP) concepts, this is a great place to start. It provides short and accessible summaries of some of the most important techniques used to solve NLP problems. (by Machine Learning University)

5. CMU Neural Nets for NLP 2021
This course covers topics related to how neural networks are used in natural language processing (NLP). (by Graham Neubig)

6. CS224N: Natural Language Processing with Deep Learning
This has been one of the most popular NLP courses for some time now. It focuses on the use of the latest deep learning techniques applied to NLP problems. (by Chris Manning)

7. fast.ai Code-First Intro to Natural Language Processing
The NLP courses above focus heavily on the theory. To get the practical side of NLP, this fast.ai course will be a great place to start. (by Rachel Thomas)

8. CMU Multilingual NLP 2020
Graham Neubig also provides another great course that focuses on multilingual NLP. Topics range from data annotation to code switching to low resource automatic speech recognition. (by Graham Neubig)

9. Deep Learning for Computer Vision 2020
This course focuses heavily on the latest techniques in deep learning for computer vision tasks. From attention mechanism to generative models. (by Justin Johnson)

10. Deep Reinforcement Learning: CS 285 Fall 2020
Focuses on the use of deep learning-based architectures for reinforcement learning problems. (by Sergey Levine)

11. Full Stack Deep Learning 2021
While most of the courses above focus heavily on theory, this course specifically focuses on the ecosystem of tools used to develop and deploy deep learning models. (by Josh Tobin, Pieter Abbeel, Sergey Karayev)

12. Practical Deep Learning for Coders
This is another course by fast.ai focusing on a coder-first approach to deep learning. (by Jeremy Howard)

13. Applied ML
This is an ongoing course teaching how to build a product grade product through ML techniques and tools. (by Made with ML)


Posted by uniqueone
,

https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/863920357673398/

캐글 코리아 (Kaggle Korea) : 안녕하세요! 이번에 끝난 캐글 대회 RANZCR CLiP - Catheter and Line Position Chall

안녕하세요! 이번에 끝난 캐글 대회 RANZCR CLiP - Catheter and Line Position Challenge 에서 11위/1547명 으로 솔로 금메달을 따게 되어서, 간단하게 대회 리뷰해보고자 글을 올리게 되었습니다 :)​ ​ 1. 대회

www.facebook.com

안녕하세요! 이번에 끝난 캐글 대회 RANZCR CLiP - Catheter and Line Position Challenge 에서 11위/1547명 으로 솔로 금메달을 따게 되어서, 간단하게 대회 리뷰해보고자 글을 올리게 되었습니다 :)​

1. 대회 소개​
chest x-ray 이미지를 인풋으로 받아, 환자에게 삽입된 카테터(튜브)의 종류 및 올바른 위치에 삽입됐는지의 여부를 분류하는 ​ multi-label classification 문제입니다. classification 레이블 뿐 아니라, 일부 이미지에 대해서는 카테터의 위치 정보가 주어졌습니다. (첨부한 두 번째 그림 참고 - 같은 색의 점들을 이으면 카테터의 위치가 됩니다.)​

2. 솔루션 https://www.kaggle.com/c/ranzcr-clip-catheter-line-classification/discussion/226557​

1) 고해상도를 어떻게 활용할 것인가? - Downconv​

2048x2048 이상의 높은 해상도의 이미지가 주어졌습니다. 그러나 이 이미지를 바로 인풋으로 넣으면 GPU 메모리가 감당하지 못하고, 그렇다고 해서 작게 resizing해서 넣으면 정보를 잃어버립니다.​
Conv2d 레이어 하나를 이용해 2048->1024로 이미지를 변환하는 downconv를 도입해 이를 해결했습니다. avg pooling한 이미지를 이 downconv의 아웃풋과 concat해서 CNN의 인풋으로 넣었습니다.​
(첨부한 세 번째 그림 참고)​

2) 카테터 위치 정보를 어떻게 활용할 것인가? - Pre-training​

카테터 위치 정보는 단순 분류 레이블보다 공간적인 측면에서 훨씬 더 많은 정보를 가지고 있기 때문에 모델이 이를 활용할 수 있도록 하는 것이 중요했습니다. 따라서 저는 encoder에 추가적으로 classification head를 부착한 UNet 구조를 사용하였습니다.​
카테터 위치 정보를 segmentation mask 형태로 전처리해, 이를 타겟으로 UNet을 학습시켰고, pre-trained UNet encoder를 가지고 classification 학습을 시켰습니다.​
(첨부한 첫 번째 그림 참고)​

3) unlabeled data를 어떻게 활용할 것인가? - Pseudo-training​

주어진 labaled 데이터셋 말고, 외부 x-ray 데이터셋들이 많이 존재합니다. 이런 데이터셋들은 카테터 레이블링이 되어있지 않습니다. 최근 unlabaled 데이터셋을 이용한 semi-supervised 및 self-supervised learning들이 제안되고 있습니다.​
제 경우 pseudo-labeling 후 재학습시키는 방법(pseudo-training이라고 우선은 명명하겠습니다)이 효과를 발휘했습니다.​
(첨부한 네 번째 그림 참고)​

3. 1위 솔루션 https://www.kaggle.com/c/ranzcr-clip-catheter-line-classification/discussion/226633​

* 카테터 관련 마스크 3개 생성, 이를 예측하는 UNet 모델 여러개 학습 후 pseudo-training​
* 원래 이미지에 예측된 마스크 3개를 concat한 것을 인풋으로 사용하여 분류 모델 여러개 학습 후 pseudo-training​
* multi-label 중 적절한 경우 multi-class loss 적용​
* segmentation 이미지 사이즈 > 1024, classification 이미지 사이즈: 384~512 (segmentation에서 훨씬 높은 이미지 해상도를 필요로 함을 알 수 있습니다.)​

4. 느낀점​

* 아이디어를 실험해볼 때, 세부 구현 방법에 따라 그 결과가 달라지는 경우가 있는 것 같습니다.​
* 고해상도, 큰 모델일수록 성능이 올라가는 이미지 대회는 특히 GPU/TPU장비가 중요한 것 같습니다. 4 x RTX3090 & 쓰레드리퍼3990x 서버를 제공해주시고, 대회 막판에 추가 서버들도 쓸 수 있게 해주신 Upstage 에 감사의 말씀 드립니다 :)​
* 여담으로, 이번 대회에서 실험한 로그들을 살펴보니, 280개의 실험을 했고, 60여개의 학습 옵션을 만들었고, 여러 실험들을 하는 데 사용된 학습시간은 총 1051시간이네요. 제가 아직 실력이 부족해서인지, 시행착오가 많았던 것 같습니다..ㅎㅎ​

많이 부족한 글 읽어주셔서 감사합니다!

Posted by uniqueone
,

[ TF Everywhere 행사 영상 및 메이킹 영상 공유]
안녕하세요! 어제 날짜로 TF Everywhere 텐플마을에 오신것을 환영합니다 행사가 성공적으로 마무리 되었습니다. 와-아! 게더타운부터 유튜브 스트리밍까지 700🔥이 넘는 뷰를 달성하며 많은 분들께서 관심을 가져주셨는데요. 👾게더 타운에서 사과찾기, 9와 3/4 공간 찾기👾등 팝업이벤트도 너무 빠르게 성공 해주셔서 역시 개발자 컨퍼런스 답다~ 싶게 열정이 뿜뿜!! 저도 많이 배워간 행사였습니다.
(본론) 유튜브 스트리밍으로 각 세션을 참관하셨지만 안타깝게 게더 타운 티켓을 겟하지 못하신 분들을 위해! 이 행사에 대해 짤막하게 메이킹 영상을 만들어보았습니다! 더불어 병렬적으로 진행된 네가지 세션에 대한 업로드 영상도 함께 공유하니 현장에서 멀티 세션을 모두 보지 못해 아쉬웠던 분들 역시 보시면 좋을 것 같네요 :)

모든 스피커분들 감사드리고, 행사에 큰 도움 주신 권순선, 김나연 님 너무 감사드립니다! 좋은 주말 되세요!

- Beginner Session: https://youtu.be/2QxfO_md9N4
- Developer Session: https://youtu.be/Xe_gFoVTwcQ
- Competition Session: https://youtu.be/xgt7FKfpF2Q
- Tutorial&Guide Session: https://youtu.be/9Y5TunPY-xg

Posted by uniqueone
,

cusolver64_10.dll not found만 찾을 수 없다고 해서 

stackoverflow.com/questions/65608713/tensorflow-gpu-could-not-load-dynamic-library-cusolver64-10-dll-dlerror-cuso

에서 'Rename file cusolver64_11.dll To cusolver64_10.dll '

2021-03-16 19:26:14.435563: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cudart64_110.dll
2021-03-16 19:26:14.498628: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cublas64_11.dll
2021-03-16 19:26:14.499003: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cublasLt64_11.dll
2021-03-16 19:26:14.527712: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cufft64_10.dll
2021-03-16 19:26:14.532245: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library curand64_10.dll
2021-03-16 19:26:14.535978: W tensorflow/stream_executor/platform/default/dso_loader.cc:60] Could not load dynamic library 'cusolver64_10.dll'; dlerror: cusolver64_10.dll not found
2021-03-16 19:26:14.585485: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cusparse64_11.dll

Posted by uniqueone
,

tensorflow-gpu설치하다 다음의 오류났다

Installing collected packages: tensorflow-gpu

ERROR: Could not install packages due to an EnvironmentError: [WinError 5] 액세스가 거부되었습니다: 'C:\ProgramData\Anaconda3\envs\venv20\Lib\site-packages\tensorflow\lite\experimental\microfrontend\python\ops\_audio_microfrontend_op.so'

Consider using the `--user` option or check the permissions.

cmd를 관리자 권한으로 해도 났다. 그래서

pip install --user tensorflow-gpu

라고 github.com/pypa/pip/issues/6068의 조언대로 하니 설치됐다.

Posted by uniqueone
,

https://www.myheritage.com/deep-nostalgia
MyHeritage 라는 독일 회사에서 개발한 Deep Nostalgia 라는 엔진이라고 합니다
오래된 흑백 사진을 애니매이션화 해준다고 해서 예전에 뽑아본 blind face restoration 결과를 입력으로 넣어봤는데요.
완벽해 보이지는 않지만 흥미로운 결과들이 나오네요 :)

Posted by uniqueone
,

https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/853573108708123/

김동규

안녕하세요 캐글코리아!! 올해 1월부터 매달 열리는 playground 대회인 Tabular Playground Series - 2월 대회가 끝이 났습니다. 1433팀 중 6위를 해서 기쁜 마음에 공유해봅니다! (나름 한국 1등이네요 ㅎㅎ)

www.facebook.com


안녕하세요 캐글코리아!!
올해 1월부터 매달 열리는 playground 대회인 Tabular Playground Series - 2월 대회가 끝이 났습니다. 1433팀 중 6위를 해서 기쁜 마음에 공유해봅니다! (나름 한국 1등이네요 ㅎㅎ)
이 대회는 간단한 tabular data를 이용해서 예측하는 regression 문제입니다. 주로 LGBM같은 GBDT 모델들을 사용합니다. 저도 LGBM 모델을 사용했습니다.
높은 점수의 핵심은 semi-supervised learning의 일종인 pseudo labelling을 사용한 것이었습니다. test data를 최대한 잘 학습시킨 이후에, 그 학습시킨 데이터까지 포함하여 다시 train을 시키는 방법입니다. 보통 train data가 부족할 때 사용하지만 이 대회에서는 성능 향상에 매우 적합했습니다. 그래서 ensemble 없이 하나의 LGBM 모델만으로 높은 순위를 달성할 수 있었습니다.
제 코드입니다. https://www.kaggle.com/vkehfdl1/6th-place-solution-pseudo-labelling-lgbm
더불어서 이번 대회 1,2,3등은 DAE를 사용했습니다. DAE는 Denoising Auto Encoder로 노이즈를 포함한 feature를 반복적으로 학습시키는 것인데요. 이 auto encoder 뉴럴 넷의 hidden layer의 weight들을 feature로 사용하는 방식입니다. Tabular data에서는 보통 GBDT 모델이 성능이 잘 나오는데, 이 DAE 방식으로 활용으로 도저히 GBDT 모델로는 상상도 못하는 성능이 나오더라고요. 1위 분의 코드와 설명을 보며 저도 열심히 공부 중입니다.
한국 캐글러 분들 항상 응원합니다! 더 노력하는 캐글러가 되어야 겠습니다.

축하드려요! 참고로 1등은 DAE를 사용했는데, 2등은 보통 GBM+NN 앙상블을 사용했습니다. Bojan이 자신의 8등 솔루션을 공유하면서 1/2/3등이 DAE를 사용했을 것이다...라고 언급을 했었는데, 실제 2등인 Dave E (지난 1월 TPS 4등)이 자신은 DAE 사용할 시간이 없었다고 했죠. DAE가 두 달 연속 TPS 대회에서 1등을 한 것을 보니 다음 대회에서는 DAE 기반 솔루션이 많이 나올 것으로 보입니다. 다음 달에도 좋은 성적 거두시길 바랍니다!




Posted by uniqueone
,

#kerasexamples #모든예제 https://keras.io/examples/ 에 가보니 정말 많은 예제들이 만들어져 있네요. Knowledge Distillation 그리고 최근에 나온 VIT, Switch Transformer까지 있네요. (며칠전에 허깅페이스에서 switch transfoemer 구현해달라는 issue를 본듯한데요. 3번째 이미지). 이 예제들은 한번씩 읽어 보시기에 너무 좋을듯 합니다.

https://youtu.be/Y2K13XDqwiM 을 보니 이런 코드를 하나씩 골라서 설명을 하는데 저희 TF-KR 의 PR12 처럼 10여명 함께 팀으로 KR12 (Keras example Reading) 만들어서 예제 하나씩 설명해보고 또 이 예제를 어디 사용할수 있는지 응용한두게 찾아서 적용해보는것을 해볼까요? 요즈음 AI교육을 많이 하시던데 좋은 교제일듯 합니다.

KR12 관심있으신분들 아래 댓글로 남겨주시면 teaming 해서 PR12처럼 KR12 한번 달려보도록 하겠습니다. (12분이 Zoom으로 모여서 한주에 예제 2~3개 설명하고 토론하고 그 영상을 공개하는 모임입니다.)

Posted by uniqueone
,

The best machine learning course I have worked on till now is the Andrew Ng's machine learning course in Coursera. You will find the link to the working examples of almost all the machine learning method of his course in this article. It's a free machine learning course. #machinelearning #datascience #python

https://towardsdatascience.com/a-full-length-machine-learning-course-in-python-for-free-f2732954f35f



Posted by uniqueone
,

[ TF Everywhere 행사 영상 및 메이킹 영상 공유]
안녕하세요! 어제 날짜로 TF Everywhere 텐플마을에 오신것을 환영합니다 행사가 성공적으로 마무리 되었습니다. 와-아! 게더타운부터 유튜브 스트리밍까지 700🔥이 넘는 뷰를 달성하며 많은 분들께서 관심을 가져주셨는데요. 👾게더 타운에서 사과찾기, 9와 3/4 공간 찾기👾등 팝업이벤트도 너무 빠르게 성공 해주셔서 역시 개발자 컨퍼런스 답다~ 싶게 열정이 뿜뿜!! 저도 많이 배워간 행사였습니다.
(본론) 유튜브 스트리밍으로 각 세션을 참관하셨지만 안타깝게 게더 타운 티켓을 겟하지 못하신 분들을 위해! 이 행사에 대해 짤막하게 메이킹 영상을 만들어보았습니다! 더불어 병렬적으로 진행된 네가지 세션에 대한 업로드 영상도 함께 공유하니 현장에서 멀티 세션을 모두 보지 못해 아쉬웠던 분들 역시 보시면 좋을 것 같네요 :)

모든 스피커분들 감사드리고, 행사에 큰 도움 주신 권순선, 김나연 님 너무 감사드립니다! 좋은 주말 되세요!

- Beginner Session: https://youtu.be/2QxfO_md9N4
- Developer Session: https://youtu.be/Xe_gFoVTwcQ
- Competition Session: https://youtu.be/xgt7FKfpF2Q
- Tutorial&Guide Session: https://youtu.be/9Y5TunPY-xg

Posted by uniqueone
,

안녕하세요!
카사바 잎 질병 분류 대회(Cassava Leaf Disease Classification Competition)가 끝나고 개인적으로 코드 정리하고 있는데 같이 공유하면 좋을 것 같아 영상을 제작하고 있습니다.
(Pytorch로 작성하고 있지만 도움이 되는 부분들이 있을 것 같아 염치불구하고 공유드립니다.ㅎㅎ)

영상에서는 학습(Training) 파이프라인과 추론(Inference)에 대한 내용을 주로 다룹니다. 비어있는 코드를 처음부터 하나하나 채워가는 형식으로 만들고 있어서 공부하고 싶으신 분들에게 도움이 되지 않을까 합니다! (고수 분들은 재미가 없으실 겁니다.ㅎㅎ)
파이프라인 작성이 끝나면, 최근에 핫한 Vision Transformer (ViT) 사용법과 대회에서 공유된 상위권 솔루션들도 가볍게 이야기를 해볼까 하는데, 관심 있으신 분들에게 도움이 되길 바랍니다!
Intro
https://www.youtube.com/watch?v=7wdqASYZBls&t=5s
개요 및 데이터 설명
https://www.youtube.com/watch?v=pWhA7V0L1SE
데이터 로드 및 기본 설정
https://www.youtube.com/watch?v=wp3cUKEM5Xk&t=1065s
Cross-Validation (CV) Split
https://www.youtube.com/watch?v=pWhA7V0L1SE
이후 추가 예정!
p.s. 영상 제작이 처음이라 부족한 점이 많네요. orz

Posted by uniqueone
,

안녕하세요, Cognex Research Engineer 이호성입니다.

요즘 컴퓨터 비전계를 뜨겁게 달구고 있는 모델이 있습니다. 바로 자연어 처리에서 이제는 대세로 자리잡은 Transformer 입니다. 지금까지는 거의 모든 모델이 Convolutional Neural Network 기반의 Architecture가 주를 이뤘는데 작년부터 점점 성능 격차가 줄어들기 시작하면서 빠르게 성장하고 있어서 최근 저도 Transformer 기반 연구들을 공부하고 있는데요,

보통 낯선 분야에 대해 공부를 할때 저는 잘 정리가 된 Survey Paper를 하나 잡아서 진득하게 파는 편입니다. 운 좋게도 올해 1월에 "Transformers in Vision: A Survey"라는 제목의 Survey 논문이 공개되어서 이를 읽고 차근 차근 정리해보았습니다.

논문 링크: https://arxiv.org/abs/2101.01169
블로그 글: https://hoya012.github.io/blog/Vision-Transformer-1/

논문 자체의 분량이 많아서 한편에 정리하려다 여러 편으로 나누게 되었으며, 이번 편에서는 Transformer에 대해 간략하게 정리하고, CNN과 대비해서 어떠한 장,단점을 갖는지 살펴본 뒤, Image Classification에 Self-Attention과 Transformer가 적용된 주요 연구들을 정리했습니다. 공부하시는데 도움이 되었으면 좋겠습니다.

P. S. 이번 글을 작성하면서 공부하는데 PR-12 스터디의 발표 영상들이 큰 도움이 되었는데요, 현재 PR-12 스터디 신규 인원 모집 중이니 많은 관심 부탁드립니다!

Posted by uniqueone
,

Poor smartphone photo scans are really annoying and these researchers finally figured out how to fix the quality! (Checkout code implementation inside link)
https://www.catalyzex.com/paper/arxiv:2102.06120

👇 Free extension to get code for ML papers (❤️' by Andrew Ng) Chrome: https://chrome.google.com/webstore/detail/find-code-for-research-pa/aikkeehnlfpamidigaffhfmgbkdeheil
Firefox: https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex

Posted by uniqueone
,

Finally a dataset for virtual hair editing and hairstyle classification! https://www.catalyzex.com/paper/arxiv:2102.06288

👇 Free extension to get code for ML papers (❤️' by Andrew Ng) Chrome: https://chrome.google.com/webstore/detail/find-code-for-research-pa/aikkeehnlfpamidigaffhfmgbkdeheil
Firefox: https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex

Posted by uniqueone
,

State of the art in image manipulation (stylegan)
https://www.catalyzex.com/paper/arxiv:2102.02766

👇 Free extension to get code for ML papers (❤️' by Andrew Ng) Chrome: https://chrome.google.com/webstore/detail/find-code-for-research-pa/aikkeehnlfpamidigaffhfmgbkdeheil
Firefox: https://addons.mozilla.org/en-US/firefox/addon/code-finder-catalyzex

Posted by uniqueone
,

https://www.facebook.com/groups/KaggleKoreaOpenGroup/permalink/841339839931450/

Issac Lee

안녕하세요! 질문이 있습니다. 노트북 쓰다보면 패키지를 인스톨해서 쓰는 경우가 있는데, 매번 패키지를 인스톨하는걸 피할 수 있는 방법이 있나요? 예를들어 현재 작업하고 있는 노트북에 설

www.facebook.com


안녕하세요! 질문이 있습니다. 노트북 쓰다보면 패키지를 인스톨해서 쓰는 경우가 있는데, 매번 패키지를 인스톨하는걸 피할 수 있는 방법이 있나요?

예를들어 현재 작업하고 있는 노트북에 설치된 패키지들을 저장해서 다음 새로운 노트북을 열었을때 똑같은 환경이 열리도록 만드는 방법을 알고 싶습니다!

Issac Lee 캐글 노트북에서 !wget 깃헙에있는파일주소 하시면 되는데요. https://towardsdatascience.com/4-awesome-ways-of-loading-ml-data-in-google-colab-9a5264c61966 여기서 2번 하시면 똑같이 돼요.

그러니까 깃헙에 관련 패키지 인스톨 파일을 .py형태로 잘 정리해서 올리시고, 그 url을 가져오셔서 캐글노트북에 저 블로그 2번처럼 하시면 완성!



Posted by uniqueone
,