안녕하세요 Tensorflow KR.

이번에 제가 하고있는 논문스터디에서 기계번역 서베이를 준비하면서 자연어처리 백그라운드(Seq2Seq 부터 BERT까지)에 대한 내용을 함께 준비 해봤는데요. NLP 전반적으로 폭넓게 다루고 있는 영상이라 자연어처리 공부를 시작한지 얼마 안되신 분들이라면 도움 되실분들이 있을 것 같아서 여기에도 업로드 해봅니다.

영상에서 "왜?" 라는 질문을 많이 포함하고 있어서(왜 multihead? 왜 layer norm? 왜 pos embeddimg? 등..) 어텐션이나, Tranaformer 등에 대해 대략적으로만 알고 뭔가 와닿지는 않는 그런 분들이 들으시면 아마 도움이 더 많이 되시지 않을까 생각합니다.(백그라운드만 1시간 발표라, 배보다 배꼽이 더 커져서 결국 발표를 두번이나 했네요ㅋㅋㅋㅋㅠ)

참고로 집현전 추가 모집 문의가 정말 많이 왔는데요. 현재로서는 일정이나 깃헙, 영상등 관리하는게 빠듯해서 당장은 어려울 것 같구요. 시즌1을 성공적으로 마치게 되면 (모든분들이 한번씩 발표하고나서) 새 인원모집에 대해 다시 공지를 드리려고 합니다. 집현전 영상의 경우는 매달 저희가 읽은 논문과 자료들을 TFKR에 제가 정리해서 업로드 해드리겠습니다! 감사합니다~https://m.youtube.com/watch?v=KQfvEg-fGMw&feature=youtu.be

Posted by uniqueone
,