'SLAM'에 해당되는 글 42건

  1. 2021.02.01 #SLAM #Study #SLAMDUNK #Season2 #Complete Online SLAM Study SLAM Dunk Season 2가
  2. 2021.02.01 안녕하세요, SLAM 공부하는 장형기입니다! 😆 최근 Visual-SLAM 공부를 위한 로드맵을 만들었습니다. 현재까지는 1. 컴퓨터 비전 1
  3. 2020.10.29 안녕하세요, SLAM 공부하는 장형기입니다. Roland Siegwart 교수님 랩실에서 Line 기반 place recognition 방식이
  4. 2020.10.13 안녕하세요~ 저희 그룹에서 지난 반기동안 진행된 Sensor Fusion Study 관련 전체 유튜브 및 슬라이드쉐어 스터디자료를 깃헙으로 정리
  5. 2020.09.02 안녕하세요, SLAM 공부중인 장형기입니다. 이번에 Visual-SLAM에서 필수적으로 사용되는 RANSAC, 그리고 에러 데이터를 (outl
  6. 2020.08.26 안녕하세요. ECCV 메인 컨퍼런스도 이제 이틀차에 접어 들었습니다. 어제 오프닝에서 다른 학회들과 마찬가지로 각종 시상식 코너가 있었는데,
  7. 2020.08.25 Super Fast and Accurate 3D Object Detection based on LiDAR Fast training, Fast i
  8. 2020.08.24 안녕하세요 lidar slam 공부 중인 기섭입니다. lidar slam 과 딥러닝을 어떻게 접목해야 할지 평소에 고민이 많은데요, 다름이
  9. 2020.08.21 안녕하세요, SLAM 공부하는 장형기입니다. 최근 Visual-SLAM 논문들이 새로 나오면서, 이전에 했던 강의 슬라이드 내용을 업데이트 하
  10. 2020.08.19 #돌리면서배우는SLAM 안녕하세요, lidar slam 공부중인 기섭입니다. 오늘은 2D lidar slam 튜토리얼을 하나 작성해보았습
  11. 2020.07.03 안녕하세요 lidar slam 공부중인 김기섭입니다. LeGO-LOAM 저자의 신작이 공개되었습니다 늘 코드와 데이터를 공개해줘서 공부에
  12. 2020.06.22 #3분슬램 안녕하세요, lidar slam 공부중인 김기섭입니다. SLAM을 몰라도 한번 돌려보면 재밌어진다! 라고 평소에 생각하는데요.
  13. 2020.06.22 #3분슬램 안녕하세요 좋은 일요일입니다! visual slam 에서 현재 가장 큰 축으로 ORB-SLAM 와 DSO가 있는데요, DSO
  14. 2020.06.17 #CVPR2020 딥러닝 기반의 피쳐 추출 알고리즘인 Superpoint와 딥러닝 기반의 대응점 탐색 알고리즘인 Superglue를 소개하
  15. 2020.04.29 안녕하세요, LiDAR SLAM공부중인 김기섭입니다. LiDAR에서 xyz 외에 intensity 도 중요한 정보인데요, 다들 어떻게 쓰
  16. 2020.04.14 안녕하세요 SLAM 공부 김기섭입니다. 엊그제 즈후라는 중국사이트에서 슬램 인터뷰 후기를 읽었는데요 (영어로 번역해서 보시면 됩니다) 몇개
  17. 2020.04.13 안녕하세요, 오늘은 공부자료 하나 소개해드리려고 합니다. 최성록박사님의 An Invitation to 3D Vision: A Tutoria
  18. 2020.04.09 #코드 안녕하세요 LiDAR SLAM 공부하는 김기섭입니다. 이번에 C++로 LiDAR SLAM 코드를 작성하였는데 완료하여서 공유하고자
  19. 2020.04.07 AirSim은 MS에서 만든 자율주행/자율비행 알고리즘 개발을 위한 시뮬레이터 입니다. 하지만 딥러닝에 국한되지 않고 SLAM이나 기타 컴퓨터
  20. 2020.04.06 SLAM 온라인 스터디 SLAM DUNK 2020 | 이지훈, 김선호님 발표 동영상 https://youtu.be/oAlm1L7IFIA 발
  21. 2020.04.06 안녕하세요 ㅎ SLAM KR의 신동원입니다. 어제 밤에는 SLAM DUNK Season 1의 마지막 스터디를 진행했습니다 ㅎ 2월 2일부
  22. 2020.03.31 SLAM 온라인 스터디 SLAM DUNK 2020 | 윤성호, 이제홍님 발표 동영상 https://youtu.be/AJ5jbuthjc0
  23. 2020.03.16 SLAM 온라인 스터디 SLAM DUNK 2020 | 이용이님 발표 동영상 https://youtu.be/KmurS57AsoQ 발표자료 (
  24. 2020.03.13 SLAM에 관련된 중요한 논문들을 뿜어내신 교수님들과 연구자들에 대한 리스트를 만들고 표로 정리해봤습니다! 연구자들마다 키워드 정리 + Goo
  25. 2020.03.03 sfm 과 mvs 의 관계 및 차이에 관해 좋은 설명이 있어서 정리해보았습니다. 출처: https://towardsdatascience.co
  26. 2020.02.23 1. SLAM이란? https://cv-learn.com/SLAM-f16a75f894ca48d3aa851bca99ec7cce 2. SLAM을
  27. 2020.02.19 안녕하세요 SLAM공부 김기섭입니다. # 지난번에 KITTI dataset 을 열어보면서 SLAM 공부 시작해보면 좋다고 전해드렸었는데요
  28. 2020.02.10 안녕하세요 Lidar SLAM공부중인 김기섭 입니다 # 지난주에 SLAM덩크 스터디에서 이종훈 님께서 레인지넷에 대해 소개해주셨는데요, 1
  29. 2020.02.06 안녕하세요 SLAM 공부 김기섭입니다. 최근 SLAM 이 간단한 환경에서는 많이 풀렸다고 생각되서인지, 극한 환경 (안개, 한밤중 등)
  30. 2020.01.30 SLAM이 처음이신분들은 SLAM의 수학적 원리 이해도 좋지만 다양한 데이터셋을 받고, 열어보고, 만져보는거부터 출발하셔도 좋을거같아요

#SLAM #Study #SLAMDUNK #Season2 #Complete
Online SLAM Study SLAM Dunk Season 2가
총 13주의 스터디를 끝으로 마무리가 되었습니다ㅎ
양질의 발표 준비해주신 스터디 참가원 분들께 감사드리고
앞으로도 더욱 유익하고 재미있는 컨텐츠로 찾아뵙도록 하겠습니다!

플레이리스트
https://www.youtube.com/playlist?list=PLubUquiqNQdP_H6uUmU-9f0y_LheA3Hil&fbclid=IwAR0pXG8MYnZ63fCddmnSpwepD27SEp5fzkUlp5J8yWnwG624yu6iJ7I5V4c

* 참여자분들의 질문&답변, 디스커션이 포함된 영상을 원하시는 분들은 아래의 구글 폼을 작성해주시면 영상 링크를 전달드리도록 하겠습니다!
https://docs.google.com/forms/d/e/1FAIpQLSeip8TIpjeK-q8jSH3llwVSe87RLGqfuSLd4W3diClELcs7Yg/viewform

Posted by uniqueone
,

안녕하세요, SLAM 공부하는 장형기입니다! 😆

최근 Visual-SLAM 공부를 위한 로드맵을 만들었습니다. 현재까지는 1. 컴퓨터 비전 입문 로드맵, 2. SLAM 입문 로드맵, 3. Monocular Visual-SLAM 로드맵, 4. RGB-D Visual-SLAM 로드맵을 작성했습니다. 추후 VIO/VI-SLAM, Stereo-SLAM, Visual-LiDAR Fusion, Deep SLAM, Visual-Localization 등등 작성 예정입니다.

혼자 만든거다보니 아직 부족한 점이 많이 있습니다. 많은 피드백 부탁드리고, Github Issue나 PR을 통한 컨트리뷰션 환영합니다!
https://github.com/changh95/visual-slam-roadmap

Posted by uniqueone
,

안녕하세요, SLAM 공부하는 장형기입니다.

Roland Siegwart 교수님 랩실에서 Line 기반 place recognition 방식이 새로 나왔습니다. RGB-D 센서로부터 나오는 Visual + Geometric 정보로부터 line을 추출하고, 딥러닝 Attention을 통해 line clustering 및 descriptor 생성을 해주네요.
정확도만 보자면 SIFT + BoW보다는 좋고, SuperPoint + BoW와 비슷합니다. 하지만 NetVLAD에 비해서는 아직 많이 뒤처지는 모습을 보이네요.
Visual Feature가 부족한 산업 환경 등에서 유용하게 쓰일 수 있을 것 같습니다.

논문 링크: https://arxiv.org/pdf/2010.10867.pdf

Posted by uniqueone
,

안녕하세요~ 저희 그룹에서 지난 반기동안 진행된 Sensor Fusion Study 관련 전체 유튜브 및 슬라이드쉐어 스터디자료를 깃헙으로 정리하여 공유드립니다. 🙂 스타 많이 눌러주세요~

마지막 시간에는 실제 센서퓨전이 현실에서 어떻게 응용되는지 imu/gps/radar/lidar/camera fusion 관련 작은 세미나도 가졌습니다. 그동안 훌륭하신 스터디 원분들과 함께해서, 지식적으로 성장 뿐만아니라 좋은 에너지와 보람을 느꼈던 시간이었습니다. 함께 잘 이끌어주신 hayden님 너무 감사드려요.

저희가 학습한 KF, EKF, UKF, H infinity Filter, Particle Filter 등을 kitti dataset 을 파싱해 python 코드로 직접 구현하는 스터디를 Sensor Fusion 2 에서 진행할 예정이니 많이 기대해주세요~


Skip to content

Sign up

ai-robotics-kr/sensor_fusion_study

Sensor Fusion Study Based on "Optimal State Estimation"

 7 stars  0 forks

 Star

 Watch

Code

Issues

Pull requests

Actions

Projects

Security

Insights

Dismiss

Join GitHub today

GitHub is home to over 50 million developers working together to host and review code, manage projects, and build software together.
Sign up

 master 

Go to file

Latest commit



howtowhy



22 days ago

Git stats

Files

View code

README.md

Sensor Fusion Study

Sensor Fusion Study Based on "Optimal State Estimation - Dan Simon"

Sponsor by AI Robotics KR https://www.facebook.com/groups/airoboticskr/



Members

Study Lead :

Stella Seoyeon Yang @howtowhy, Hayden

Study Contributors :

Sora Kang, Dong Hyun Kim, Jeong Eun Park @jeongeun980906, Jin Hyuk Song @Jinhyeok1489, Young Beom Kim @eddy979797, Hae Gu Lee, Sung Min Ahn @aminsung, Soo Young Kim @kimsooyoung, Young Joo Kim, Kile

𝐂𝐡𝟏. 𝐋𝐢𝐧𝐞𝐚𝐫 𝐒𝐲𝐬𝐭𝐞𝐦 : Hayden

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch1-linear-system-hayden

Youtube : https://youtu.be/-6pO8G8PHC4

𝐂𝐡𝟐. 𝐏𝐫𝐨𝐛𝐚𝐛𝐢𝐥𝐢𝐭𝐲 𝐓𝐡𝐞𝐨𝐫𝐲 : Seo Yeon Stella Yang

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-probability-theory-stella

Youtube :https://youtu.be/38dVDay2XnA

𝐂𝐡 𝟑. 𝐋𝐞𝐚𝐬𝐭 𝐒𝐪𝐮𝐚𝐫𝐞 𝐄𝐬𝐭𝐢𝐦𝐚𝐭𝐢𝐨𝐧 : Sora Kang, Stella, Hayden

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch3-least-square-estimation-stella-hayden

Youtube : https://youtu.be/C_gtrXk3zNo

𝐂𝐡𝟒. 𝐏𝐫𝐨𝐩𝐚𝐠𝐚𝐭𝐢𝐨𝐧 𝐨𝐟 𝐬𝐭𝐚𝐭𝐞𝐬 𝐚𝐧𝐝 𝐜𝐨𝐯𝐚𝐫𝐢𝐚𝐧𝐜𝐞 : Dong Hyun Kim

Slide: https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch4-propagation-of-states-and-covariance

Youtube:https://youtu.be/38dVDay2XnA

𝐂𝐡 𝟓. 𝐓𝐡𝐞 𝐃𝐢𝐬𝐜𝐫𝐞𝐭𝐞-𝐓𝐢𝐦𝐞 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫: Jeong Eun Park

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch5-the-discretetime-kalman-filter

Youtube : https://www.youtube.com/watch?v=j9CRDGqmJ1I

𝐂𝐡 𝟔. 𝐀𝐥𝐭𝐞𝐫𝐧𝐚𝐭𝐞 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫 𝐅𝐨𝐫𝐦𝐮𝐥𝐚𝐭𝐢𝐨𝐧𝐬: Jin Hyuk Song

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch6-alternate-kalman-filter-formulations-jinhyuk-song

Youtube: https://www.youtube.com/watch?v=xtSLagWgG3g

𝐂𝐡 𝟕. 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫 𝐆𝐞𝐧𝐞𝐫𝐚𝐥𝐢𝐳𝐚𝐭𝐢𝐨𝐧𝐬 : Young Beom Kim

Slide :https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch7-kalman-filter-generalizations

Youtube :https://youtu.be/y1T4ogYlJb0

𝐂𝐡 𝟖. 𝐓𝐡𝐞 𝐂𝐨𝐧𝐭𝐢𝐧𝐮𝐨𝐮𝐬-𝐓𝐢𝐦𝐞 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫 : Hae Gu Lee

Slide :https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch8-the-continuoustime-kalman-filter

Youtube :https://youtu.be/HtS2SJcXcTE

𝐂𝐡 𝟗. 𝐎𝐩𝐭𝐢𝐦𝐚𝐥 𝐒𝐦𝐨𝐨𝐭𝐡𝐢𝐧𝐠: Hayden

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch9-optimal-smoothing-hayden

Youtube : https://youtu.be/Amm6pObx8No

𝐂𝐡 𝟏𝟎. 𝐀𝐝𝐝𝐢𝐭𝐢𝐨𝐧𝐚𝐥 𝐓𝐨𝐩𝐢𝐜𝐬 𝐢𝐧 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫𝐢𝐧𝐠: Stella Seoyeon Yang

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch11-additional-topic-in-kalman-filter-stella-seoyeon-yang

Youtube: https://youtu.be/TI_fV4t6pOU

𝐂𝐡 𝟏𝟏. 𝐓𝐡𝐞 𝐇-𝐈𝐧𝐟𝐢𝐧𝐢𝐭𝐲 𝐅𝐢𝐥𝐭𝐞𝐫 : Young Beom Kim

Slide :https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch11-the-hinfinity-filter

Youtube :https://youtu.be/I_Kuj3coyFI

𝐂𝐡 𝟏𝟐. 𝐀𝐝𝐝𝐢𝐭𝐢𝐨𝐧𝐚𝐥 𝐓𝐨𝐩𝐢𝐜𝐬 𝐢𝐧 𝐇-𝐈𝐧𝐟𝐢𝐧𝐢𝐭𝐲 𝐅𝐢𝐥𝐭𝐞𝐫𝐢𝐧𝐠 : Hayden

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch12-additional-topics-in-hinfinity-filtering-hayden

Youtube :https://youtu.be/Y7xQXTdHKWw

𝐂𝐡 𝟏3. 𝐍𝐨𝐧𝐥𝐢𝐧𝐞𝐚𝐫 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫𝐢𝐧𝐠 : Sung Min Ahn

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch13-nonlinear-kalman-filtering-ahn-min-sung

Youtube :https://youtu.be/xucMwb7yAwY

𝐂𝐡 𝟏4. 𝐓𝐡𝐞 𝐔𝐧𝐬𝐜𝐞𝐧𝐭𝐞𝐝 𝐊𝐚𝐥𝐦𝐚𝐧 𝐅𝐢𝐥𝐭𝐞𝐫 : Soo Young Kim

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch14-the-unscented-kalman-filter-sooyoung-kimg

Youtube :https://youtu.be/niHpxUUbZ6c

𝐂𝐡 𝟏5. 𝐓𝐡𝐞 𝐏𝐚𝐫𝐭𝐢𝐜𝐥𝐞 𝐅𝐢𝐥𝐭𝐞𝐫 : Stella Seoyeon Yang

Slide : https://www.slideshare.net/roboticskrai/sensor-fusion-study-ch15-the-particle-filter-seoyeon-stella-yang

Youtube :https://youtu.be/23QPRsIlJHk

Additional Session :

𝐑𝐞𝐚𝐥𝐰𝐨𝐫𝐥𝐝 𝐒𝐞𝐧𝐬𝐨𝐫 𝐅𝐮𝐬𝐢𝐨𝐧 𝟏 : Soo Young Kim, Stella Seoyeon Yang

Slide1:https://www.slideshare.net/roboticskrai/sensor-fusion-study-real-world-1-lidar-radar-fusion-kim-soo-young-237932335

Slide2:https://www.slideshare.net/roboticskrai/sensor-fusion-study-real-world-2-gps-ins-fusion-stella-seoyeon-yang-237976578Youtube :https://youtu.be/23QPRsIlJHk

Youtube : https://youtu.be/74bdIvTIjvY

𝐑𝐞𝐚𝐥𝐰𝐨𝐫𝐥𝐝 𝐒𝐞𝐧𝐬𝐨𝐫 𝐅𝐮𝐬𝐢𝐨𝐧 𝟐 : Young Joo Kim, Kile

Youtube :https://youtu.be/t-4bAf3woSU

License

[Apache License 2.0][https://github.com/mercy-project/TLdroid/blob/develop/LICENSE]

Releases

No releases published

Packages

No packages published

© 2020 GitHub, Inc.

Terms

Privacy

Security

Status

Help

Contact GitHub

Pricing

API

Training

Blog

About





Posted by uniqueone
,

안녕하세요, SLAM 공부중인 장형기입니다.

이번에 Visual-SLAM에서 필수적으로 사용되는 RANSAC, 그리고 에러 데이터를 (outlier) 제거하는데에 사용되는 M-Estimator 기술들을 설명하는 글을 적고 있습니다.

각각의 기술들의 기술적 진화와 OpenCV에서 구현한 방법및 문제점, 간단한 코드 구현, 그리고 산업/연구 계열에서 사용하는 최신 SOTA 방법론까지 커버해보고 있습니다.

현재 3개의 글이 더 추가될 예정이며, M-estimator의 개념과 사용법에 대해 추가할 예정입니다.

많은 관심 부탁드립니다. 감사합니다!

1) Outlier란?
https://cv-learn.com/Outlier-Robust-estimation-0-Outlier-fa0c9cb92fdc4de79900118766c55cbf

2) RANSAC 소개
https://cv-learn.com/Outlier-Robust-Estimation-1-RANSAC-82e8aefaa56e493cb324ad752f9242f6

3) 기존 RANSAC의 단점 + PROSAC 소개
https://cv-learn.com/Outlier-Robust-Estimation-2-RANSAC-PROSAC-c7243d860b454493b68ff8a34bff4deb

4) OpenCV RANSAC을 그냥 쓰면 안되는 이유 + 업그레이드 RANSAC
https://cv-learn.com/Outlier-Robust-Estimation-3-OpenCV-RANSAC-RANSAC-086b2977b5b14212a3be566861fa3647

Posted by uniqueone
,

안녕하세요. ECCV 메인 컨퍼런스도 이제 이틀차에 접어 들었습니다.

어제 오프닝에서 다른 학회들과 마찬가지로 각종 시상식 코너가 있었는데, PAMI Everingham Prize를 받은 Johannes Schönberger가 눈에 확들어 와서 한번 소개를 드려도 좋겠다 싶어서.. 학회 쉬는 시간을 이용하여 또 글을 써봅니다.

이분의 대표 작품은 바로 COLMAP이라는 오픈소스 SfM (Structure From Motion) 소프트웨어 인데요,

여기서 SfM이란? 우리가 흔히 쓰는 카메라를 단안 카메라 (Monocular) 라고 부르는데요, 우리가 한쪽 눈을 가렸을 때 원근감이 없어지는 것처럼 카메라 하나만 가지고는 3차원 공간상의 구조 정보를 얻을 수가 없습니다. 하지만, 카메라를 이동 시키면 같은 장면을 여러각도에서 보게 되는 효과를 얻게 되죠.. 한쪽 눈 감고 좌우로 움직이면 가까이 있는 물체는 많이 움직이고 멀리있는 물체는 조금만 움직이는 것 처럼.. 카메라를 움직이면서 각 픽셀들이 어찌 이동하는 지를 이용하여 깊이 정보 (Disparity map또는 depth map)을 얻어내고 그걸 계속 차곡차곡 잘 합쳐서 공간이나 물체를 3D로 만들어 내는 기술입니다.

다시 본론으로 들어와서.. COLMAP은 그런 SfM방법 중 가장 오픈소스로서 문서화도 잘 되어있으면서 성능도 좋은 녀석이라, 요즘 2D 이미지로 3D 로 뭔가를 하고자하는 수 많은 연구에서 베이스라인으로도 쓰이고, weak-supervision이나 self-supervision값을 만들어 내는 용도로 활발하게 사용이 되고 있습니다. 궁금하신 분은 핸드폰으로 자기 책상을 여러각도로 찍어보고 프로그램을 돌려보면 오.. 이런게 있구나.. 하실 수도 있을 것 같네요 ㅎㅎ (https://github.com/colmap/colmap) 바이너리도 배포가 되고 있고, 리눅스(우분투)에 익숙하시다면 컴파일 난이도가 높지는 않습니다.

비전 분야에선 워낙 유명하신 ETH의 Marc Pollefeys의 제자로 교수님과 마찬가지로 현재는 MS에서 일을 하시고 있네요. 이분 박사 학위 논문을 읽어보면.. 정말 최신 SfM의 역사가 담겨있는 교과서 느낌이 들었는데.. 연구나 프로그래밍 실력이 정말 대단한 것 같음을 느꼈습니다.

혹시 로봇에 단안 카메라를 장착하고 이것저것 해보고 계시다면, SfM을 이용해서 로봇의 인지능력을 3D공간으로 끌어 올리시는 것도 좋은 시도가 되지 않을까 생각합니다.

P.S: 앞으로도 이렇게 과학계 샛별같은 사람 또는 대가님들을 소개하는 글을 종종 올릴까하는데 그룹 분들의 의견도 함 들어보고 싶네요!

Posted by uniqueone
,

Super Fast and Accurate 3D Object Detection based on LiDAR
Fast training, Fast inference
An Anchor-free approach
No Non-Max-Suppression

Model:
ResNet-based Keypoint Feature Pyramid Network (KFPN)

Inputs: Bird-eye-view (BEV) maps that are encoded by height, intensity, and density of 3D LiDAR point clouds.

Outputs: 7 degrees of freedom (7-DOF) of objects: (cx, cy, cz, l, w, h, θ)
cx, cy, cz: The 3D center objects.
l, w, h: length, width, and height of the bounding box.
θ: The heading angle in radians of the bounding box.
Objects: Cars, Pedestrians, Cyclists.

The pre-trained model has been released in the repo.

Source code: https://github.com/maudzung/Super-Fast-Accurate-3D-Object-Detection

Posted by uniqueone
,

안녕하세요 lidar slam 공부 중인 기섭입니다.

lidar slam 과 딥러닝을 어떻게 접목해야 할지 평소에 고민이 많은데요,
다름이 아니라 3D DL 동향에 대해 간단히 소개해드리려고 합니다.

robotics 에서 주로 lidar 를 통해 3D point cloud 를 얻게 됩니다.
하지만 3D data 는 image 와 달리 pixel구조를 갖지 않기 때문에 ("unstructured" and "unordered") visual domain 에서 잘 개발된 2D convolution 및 노하우들을 사용하기 어려운 단점이 있었습니다.

1. 시즌 1 - 시작 : PointNet 계열
그래서 PointNet (17 CVPR)이 point를 MLP를 통해 학습하면 이 문제를 해결할 수 있다고 보였고, 이후 연구들은 좀 더 receptive filed 를 어떻게 하면 더 flexible 하게 가져갈 수 있을지, 그래서 local structure 를 더 잘 포착해서 더 좋은 피처를 만들 수 있을지에 관해 연구들이 되어온거같습니다.
주요논문: PointNet, PointNet++, DGCNN, KPConv

2. 로보틱스 - 우회? : projection and 2D conv 계열
하지만 왠지 로보틱스에서 접하는 large-scale and sparse lidar scan 의 경우 pointnet 기반의 방법이 잘 안된다는 심증 + 물증(19 ICCV SemanticKITTI가 지적한 바 있습니다) 들이 학계에 있는거 같구요,
그래서 2D range image 상에서 하면 잘된다는 방법들이 주로 개발되어 오고 있는거같습니다.
(RangeNet++, LO-Net, DeepLO)
최근에는 Ouster lidar 같이 2D form으로 잘 arranged 된 lidar 도 개발되고 있어서 역시 이런 우회?도 타당하고 분명히 효과있는 것 같구요.

3. 시즌 2? : Sparse Conv 계열
근데 2D projection image 가 과연 최선일까 라고 계속 생각이 들긴 하는데요,
최근에는 3D conv 를 MLP로 우회해서 하는 것이 아니라 기존의 conv 연산을 sparse 하게 할 수 있는 툴들이 공개되고 있는거같습니다. 그래서 3D or 더 높은 k-dim 에서 연산을 바로 할 수 있는 거 같구요.
주요논문: SparseConvNet (18 CVPR), MinkowskiNet (19 CVPR)
저도 아직 방법은 자세히 이해하지는 못했는데요,
최근 (2019, 2020) 에 급격히 이 계열의 툴 (Minkowski Engine) 을 이용한 applications 들이 등장하고 잘된다고 보고가 되고 있는 것 같습니다. https://github.com/NVIDIA/MinkowskiEngine/wiki/Usage
타겟 어플리케이션의 종류도 segmentation 등에 국한되지 않은 것 같구요

그래서 결국 최신의 3D DL tool 을 어떻게 lidar slam 과 물릴지 관심이 많은데요
관심만 많습니다..
비슷한 고민있으신 분들 종종 이야기나눌 기회가 있다면 좋을 거 같습니다.

감사합니다!



Posted by uniqueone
,

안녕하세요, SLAM 공부하는 장형기입니다.

최근 Visual-SLAM 논문들이 새로 나오면서, 이전에 했던 강의 슬라이드 내용을 업데이트 하였습니다.

이전과 동일하게 Feature-based SLAM, Direct SLAM, Visual-Inertial SLAM, Deep Learning SLAM 내용이 있고, 추가로 SLAM의 배경 내용이 되는 Kalman filter / Monte-Carlo Localization, 2020년 신규 업데이트 된 논문들, 그리고 기술 소개에 대한 부분을 조금 더 추가하였습니다. 파일에 영상이 많아 슬라이드쉐어 보다 원본 파일을 보시는 것을 추천드립니다.

감사합니다.

비디오 링크 포함 ppt (추천):
[https://cv-learn.com/PPT-SLAM-63bfe2f3902840e1b9db8d5387050574](https://cv-learn.com/PPT-SLAM-63bfe2f3902840e1b9db8d5387050574)

저용량 ppt:
[https://www.slideshare.net/HyunggiChang/visualslam-in-1-day](https://www.slideshare.net/HyunggiChang/visualslam-in-1-day)

Posted by uniqueone
,

#돌리면서배우는SLAM

안녕하세요, lidar slam 공부중인 기섭입니다.

오늘은 2D lidar slam 튜토리얼을 하나 작성해보았습니다.

SLAM을 몰라도 해보실 수 있을거같습니다.

지난 2019 ROSCon 에서 공개된

SLAM-toolbox 라는 프로그램을 돌리는 예제 및 설명입니다.

https://www.notion.so/giseopkim/SLAM-toolbox-aac021ec21d24f898ce230c19def3b7b

감사합니다~

Posted by uniqueone
,

안녕하세요 lidar slam 공부중인 김기섭입니다.

LeGO-LOAM 저자의 신작이 공개되었습니다

늘 코드와 데이터를 공개해줘서 공부에 큰 도움이 되는 분입니다 ㅎㅎ

IROS 2020 이라고 합니다. MIT에 포닥간 동안 한거같네요

LOAM + IMU + GPS 다섞고

실전 라이다 매핑용 논문인듯합니다

실험이 엄청 많네요

논문: https://arxiv.org/abs/2007.00258

코드: https://github.com/TixiaoShan/LIO-SAM

동영상: https://www.youtube.com/watch?v=A0H8CoORZJU&t=245s

감사합니다

Posted by uniqueone
,

#3분슬램

안녕하세요, lidar slam 공부중인 김기섭입니다.

SLAM을 몰라도 한번 돌려보면 재밌어진다! 라고 평소에 생각하는데요.

3분이면 (녹화하는데는 16분 걸렸지만...)

따라해볼수 있는 A-LOAM 실습 영상을 찍어보았습니다.

https://youtu.be/Ea2sDqXf6ZY

특히 A-LOAM 원래 깃헙 리포에서는 velodyen lidar 에 대해서만 launch 파일이 준비되어 있어서

다른 lidar 에 대해 사용하고 싶을 때 어떻게 해야하는지 다뤄보았습니다.

MulRan dataset 에 있는 Ouster lidar 에 대해 사용해보았습니다.

이상입니다!

Posted by uniqueone
,

https://m.youtube.com/watch?feature=youtu.be&v=YPkSXTaGACA


#3분슬램

안녕하세요 좋은 일요일입니다!

visual slam 에서 현재 가장 큰 축으로 ORB-SLAM 와 DSO가 있는데요,

DSO 를 ros 에 물리는 과정이 리드미에서 크게 친절하지 않아서

한번 영상으로 찍어보았습니다.

https://youtu.be/YPkSXTaGACA

사실 돌려보는데 3분보다는 오래 걸리지만...

그만큼 쉽게 DSO도 한번 돌려보시면

SLAM이 재밌어질거라 믿습니다 !

감사합니다

Posted by uniqueone
,

#CVPR2020

딥러닝 기반의 피쳐 추출 알고리즘인 Superpoint와

딥러닝 기반의 대응점 탐색 알고리즘인 Superglue를 소개하고 있습니다 ㅎ

Visual SLAM 분야에도 딥러닝이 많이 활용되고 놀랍도록 좋은 결과를 보이고 있네요 ㅎ

Posted by uniqueone
,

안녕하세요, LiDAR SLAM공부중인 김기섭입니다.

LiDAR에서 xyz 외에 intensity 도 중요한 정보인데요,

다들 어떻게 쓰시고 계신지 궁금합니다. 막상 쓰려고 보면 값이 이상하다 이런이야기도 있는거 같아서요.

최근에 네이버랩스 챌린지 데이터셋의 HDL32 스캔을 열어보다가 먼 지점의 포인트들의 인텐시티가 강한 경향을 봤는데 왜그런지 이유를 모르겠습니다ㅠ

암튼 그거랑 별개로 최근 리포트 중 intensity 를 썼더니 SLAM (을 위한 모듈) 이 잘되더라

라는 논문이 있어 소개해드리고자 합니다.

1.

I-LOAM: Intensity Enhanced LiDAR Odometry and Mapping

https://irap.kaist.ac.kr/publications/yspark-2020-ur.pdf

LOAM에 intensity 를 썼더니 odometry가 더 잘되더라 라는 내용입니다. UR 2020 이라고 합니다.

2.

Intensity Scan Context: Coding Intensity and Geometry Relations for Loop Closure Detection

https://arxiv.org/pdf/2003.05656.pdf

Scan context 에 intensity 를 썼더니 loop detection 이 더 잘되더라 라는 내용입니다. ICRA 2020 이라고 합니다.

둘다 간단한 접근임에도 실용적이고 좋아보입니다.

이상입니다!

Posted by uniqueone
,

안녕하세요 SLAM 공부 김기섭입니다.

엊그제 즈후라는 중국사이트에서 슬램 인터뷰 후기를 읽었는데요 (영어로 번역해서 보시면 됩니다)
몇개 질문들이 요약되어 있더라구요
https://zhuanlan.zhihu.com/p/46696986
(ps. 그 외에 슬램 포스트들도 좋아보입니다)
https://www.zhihu.com/search?type=content&q=slam
https://www.zhihu.com/topic/20033502/hot

슬램 인터뷰 질문들을 구글 스프레드 시트에 옮겨서 정리해보았습니다.
https://bit.ly/slam_interview_20

그리고 혹시 천천히 생각날때마다 같이 채워주실분 계실까요?
저도 모든 센서를 다 해본 것도 아니고 여전히 모르는게 많아서
다른분들이 질문을 채워주시면 뭘 모르는지를 알게 되는 상태가 되어서
공부하는데 도움도 크게 될것같습니다.

감사합니다!

Posted by uniqueone
,

안녕하세요, 오늘은 공부자료 하나 소개해드리려고 합니다.

최성록박사님의
An Invitation to 3D Vision: A Tutorial for Everyone 입니다.
멀뷰책을 바로 읽으려다 좌절했던 저에게 빛이되었던... 자료입니다.

슬라이드
https://github.com/sunglok/3dv_tutorial/releases/download/misc/3dv_slides.pdf
코드
https://github.com/sunglok/3dv_tutorial

그리고 아래 자료에서
http://ksme.or.kr/Newsletter/201905/data/2.%ED%85%8C%EB%A7%88%EA%B8%B0%ED%9A%8D.pdf
최성록박사님의 <단안 카메라를 이용한 3차원 인지 기술 소개> 에 visual SLAM에 대한 개념이 잘 정리되어 있습니다.

Posted by uniqueone
,

#코드
안녕하세요 LiDAR SLAM 공부하는 김기섭입니다.

이번에 C++로 LiDAR SLAM 코드를 작성하였는데 완료하여서 공유하고자 합니다.
Scan Context 와 LeGO-LOAM 을 통합하였습니다.
https://github.com/irapkaist/SC-LeGO-LOAM

Scan Context 루프 디텍터는 한개의 h와 cpp로 구성되어있어서
꼭 LOAM이 아니더라도 다른 odometry와도 쉽게 물리실수있습니다.
https://github.com/irapkaist/scancontext/tree/master/cpp/module/Scancontext

구동 예시로 라이다 매핑 과정도 녹화해보았습니다.
https://www.youtube.com/watch?v=bEqCehMJ_Hk&feature=youtu.be

많이 써주세요~~
감사합니다!

Posted by uniqueone
,

https://cv-learn.com/0-AirSim-36906ed3efb94c6094f66b30e88b0611

AirSim은 MS에서 만든 자율주행/자율비행 알고리즘 개발을 위한 시뮬레이터 입니다. 하지만 딥러닝에 국한되지 않고 SLAM이나 기타 컴퓨터 비전 알고리즘 개발에도 충분히 활용될 수 있습니다.

AirSim이 얼마전에 업데이트 되면서 VS2019를 이용한 새로운 설치 방법이 공개된 것 같습니다. 이전부터 AirSim에는 한글판 윈도우 OS를 사용할 때 고질적으로 나타나는 오류가 있는데요. 공식 가이드에 적혀있지 않아서 많은 분들이 설치에 어려움을 겪으시는 것 같습니다. 아쉽게도 그 오류는 아직도 해결되지 않았더라구요 😔

해당 문제에 대한 해결법과 AirSim의 쉬운 설치 법에 대한 방법을 정리해봤습니다.


Posted by uniqueone
,

SLAM 온라인 스터디 SLAM DUNK 2020 | 이지훈, 김선호님 발표

동영상
https://youtu.be/oAlm1L7IFIA

발표자료

(1) Generative Query Network
https://drive.google.com/open?id=1vVwQ-TWZD_VUy2qm6zGkIFyZBFeJQHLP

(2) CNNSLAM
https://drive.google.com/open?id=1piKkQ_shmmuCwkasHl15NKOiSWKaV0Ya

Posted by uniqueone
,

안녕하세요 ㅎ

SLAM KR의 신동원입니다.

어제 밤에는 SLAM DUNK Season 1의 마지막 스터디를 진행했습니다 ㅎ

2월 2일부터 4월 5일까지 약 10주간의 대장정을 무사히 끝마치게 되어 기쁘네요 ㅎ

이번 스터디는 SLAM 논문 읽기 모임 형태로 진행해 봤는데

퀄리티도 높았고 논문분석, 코드분석, 수식설명, 경험공유 등의 다양한 컨텐츠로 채워주신

모든 연사자 분들께 감사하다는 말씀 드리고 싶습니다 ㅎ

아쉽게도 이번 코로나 사태 때문에 마지막 시간을 오프라인 모임으로 함께하지는 못했지만

다음에 사태가 진정된 다음 같이 모이는것도 좋을것 같습니다 ㅎ

이번 SLAMDUNK Season 1의 플레이리스트를 다음과 같이 정리했습니다.

https://www.youtube.com/playlist?list=PLubUquiqNQdOR8YNksFPcVuziVjP4Uxkq

썸네일도 간단하게나마 추가해서 어떤 내용을 다루고 있는 영상인지 파악할수 있게 했습니다 ㅎ

이번 스터디는 수준이 높아서 저 스스로도 공부가 많이 되었지만

다른 분들 발표는 아직 제대로 이해하지 못한 부분도 많아서

녹화한 영상은 두고두고 필요할때마다 생각날때마다

다시 한번씩 봐야 제대로 이해를 할수 있을것 같네요 ㅎ

길이길이 남는 그런 컨텐츠가 되면 좋을것 같습니다 ㅎ

수고하셨습니다ㅋ 감사합니다!ㅎ

(유튜브 영상에 좋아요와 구독 부탁드립니다 ~! ㅎㅎ)

Posted by uniqueone
,


SLAM 온라인 스터디 SLAM DUNK 2020 | 윤성호, 이제홍님 발표

동영상
https://youtu.be/AJ5jbuthjc0

발표자료
(1) Monocular Direct Sparse Localization in a Prior 3D Surfel Map
https://drive.google.com/open?id=1pYSgZuCg7SgGeYPM36JEEA50xQxOutzy

(2) FastSLAM
https://drive.google.com/open?id=1sVoCvtqC-Nd85pf2kkXbgoIs2uM2d4x1

Posted by uniqueone
,

SLAM 온라인 스터디 SLAM DUNK 2020 | 이용이님 발표

동영상
https://youtu.be/KmurS57AsoQ

발표자료
(1) LIO-mapping
https://drive.google.com/open?id=1ur4XO_sdu6jVjGPgM5HA1chHY2ap_f5N

Posted by uniqueone
,

SLAM에 관련된 중요한 논문들을 뿜어내신 교수님들과 연구자들에 대한 리스트를 만들고 표로 정리해봤습니다!

연구자들마다 키워드 정리 + Google Scholar 링크 달아놨습니다!

[https://cv-learn.com/SLAM-75cbbf7e653e470caf31629385eae997](https://cv-learn.com/SLAM-75cbbf7e653e470caf31629385eae997)

Posted by uniqueone
,

sfm 과 mvs 의 관계 및 차이에 관해 좋은 설명이 있어서 정리해보았습니다.

출처: https://towardsdatascience.com/the-future-of-mapping-is-learned-e13e93c03e22

Posted by uniqueone
,

1. SLAM이란?

https://cv-learn.com/SLAM-f16a75f894ca48d3aa851bca99ec7cce

2. SLAM을 처음 공부하시는 분들을 위해

https://cv-learn.com/SLAM-d938568f7720452e9e21ec217bb08046

3. SLAM 공부 좀 해볼까? (읽기 좋은 자료 + 논문 추천)

https://cv-learn.com/SLAM-01d9076491eb4f47b7a8dd80bd80fdbe

4. Visual SLAM 공부 키워드 리스트

https://cv-learn.com/SLAM-7ab572d0e60441ba85fe195428e7acf8

요즘 쓰고 있는 SLAM 관련 블로그 글을 공유합니다.

SLAM을 처음 공부하시는 분들부터, 이미 공부를 하고 계신 분들까지도 도움이 될 것 같다고 생각합니다 ㅎㅎ

앞으로도 SLAM 관련 글을 꾸준히 적으려고 계획하고 있습니다. 궁금하신 점이나 피드백은 페이스북 댓글 또는 블로그 댓글로 남겨주시면 감사하겠습니다 :)

Posted by uniqueone
,

안녕하세요 SLAM공부 김기섭입니다.

#

지난번에 KITTI dataset 을 열어보면서 SLAM 공부 시작해보면 좋다고 전해드렸었는데요

https://www.facebook.com/groups/slamkr/permalink/1087797968246513/

#

실제로 SLAM 알고리즘을 개발하거나 테스트할때는

동적물체의 존재, 환경의 종류 (고속도로/시골/도시 등) 에 따라 잘 될때도 있고 안될때도 있어서

데이터가 먼저 어떤 특성을 가지고 있는지 잘 살피는 게 중요한데요

그래서 데이터를 먼저 열어서 찬찬이 살펴보는게 중요하다고 개인적으로 생각하고 있습니다.

#

근데 열어서 살펴보자니

KITTI 시퀀스는 모두 22개나 되고 (트레이닝11개 / 테스트11개)

다운받아서 압축푸는것도 한세월이고 우분투에서는 파일 개수가 많으면 탐색이 뭔가 빠릿빠릿 잘 안되는 느낌이 들어서요

#

왼쪽 흑백이미지에 대하여 쭉 비디오로 만들어서 유튜브에 올렸습니다. 편의상 3 frame 씩 스킵했습니다.

22개 시퀀스 모두 재생목록으로 만들어 두었습니다.

http://bit.ly/kitti_odom_videos

KITTI를 다운받지 않더라도 한번 슥 보시면 키티 데이터셋이 이런거구나 쉽게 파악하실 수 있을 것 같습니다

감사합니다~

Posted by uniqueone
,

안녕하세요 Lidar SLAM공부중인 김기섭 입니다

#
지난주에 SLAM덩크 스터디에서 이종훈 님께서 레인지넷에 대해 소개해주셨는데요,
19 ICCV에 소개된 시맨틱 키티라는 point-wise 로 fully labeled 된 dataset이 있었기에 가능했던 연구였습니다.

#
시맨틱키티는
28가지 종류의 라벨 (도로, 폴, 인도, 자동차, 사람 등) 및
movable 한 object의 경우 (자동차, 사람 등) instance ID 또한 제공합니다.
이 정보를 이용하면 기존 segmentation work 뿐 아니라 object tracking 또는 dynamic/static 판별 등의 연구도 진행할 수 있을 것 같네요.
예시 영상입니다 https://youtu.be/gNeEfPEyHuw

#
저자가 공개한 파이썬API도 공개되어 있습니다.
https://github.com/PRBonn/semantic-kitti-api
저는 개인적으로 매트랩을 선호해서 매트랩 API도 간단히 만들어보았습니다.
https://github.com/kissb2/semantickitti-matlab

#
시맨틱 라이다 슬램 연구 관심 많으신분들 함께해요
감사합니다.

Posted by uniqueone
,

안녕하세요 SLAM 공부 김기섭입니다.

최근 SLAM 이 간단한 환경에서는 많이 풀렸다고 생각되서인지,

극한 환경 (안개, 한밤중 등) 에서도 SLAM이 잘되게 하자 라는 쪽으로 연구가 많이 이뤄지고 있는 것 같습니다. (예시: https://youtu.be/hDZy47MaPDQ?t=109)

#

한편, 극한 환경을 위해서는 기존에 많이 쓰던 센서 (camera, lidar) 로 알고리즘을 잘 개발하는 것뿐 아니라

이러한 환경 자체에 강인한 센서를 사용하는 것도 문제를 쉽게 해결하는 방법일 수 있는데요

관련 데이터셋을 소개합니다.

#

ICRA 2019 학회의 SLAM dataset workshop 에서 BEST POSTER PRESENTATION AWARD 를 수상한 논문인데요, ViViD : Vision for Visibility Dataset

Vision for Visibility 라는 이름의 약자로 Beyond-visibility vision sensors 로 thermal camera 와 event camera 를 동시에 포함하고 있는게 특징같습니다.

아웃도어와 인도어에서 다양한 시퀀스들을 포함하고 있네요

#

논문 https://drive.google.com/file/d/1DqiMbdbOKX29Qgk-V5B6JVFPkWKLjSqN/view

발표자료 https://drive.google.com/file/d/1HMCVOeCpdI84IBWQ5dw08amVP8TppSZ_/view

데이터는 여기서 받을수있습니다 https://sites.google.com/view/dgbicra2019-vivid/

감사합니다! (급마무리)

Posted by uniqueone
,

SLAM이 처음이신분들은

SLAM의 수학적 원리 이해도 좋지만

다양한 데이터셋을 받고, 열어보고, 만져보는거부터 출발하셔도

좋을거같아요

그런의미에서 SLAM쪽에서 가장 유명한 KITTI dataset

을 열어보는 노트북이 있어 공유합니다.


Posted by uniqueone
,