AI
-
Word Embedding 01 (One-hot Encoding / Word2Vec ) 정리AI/NLP 2021. 12. 31. 19:54
[논문 목록] 1. Word2Vec : Efficient Estimation of Word Representations in Vector Space (https://arxiv.org/abs/1301.3781) 들어가기 앞서 컴퓨터는 텍스트 그 자체보다는 숫자를 더 잘 처리합니다 따라서, 자연어 처리에서는 텍스트를 숫자로 바꾸는 여러 기법을 사용합니다. 가장 기본적인 방법으로 원 핫 인코딩이 있습니다. 원 핫 인코딩은 표현하고자 하는 단어를 1로, 그렇지 않은 단어들은 0으로 표현하며 한 단어를 의미하는 벡터의 차원은 단어 집합의 크기가 됩니다. 각 단어는 하나의 고유한 원 핫 벡터로 표현됩니다. 하지만 원 핫 인코딩에는 각 단어 벡터 간의 관계, 즉 의미상의 유사성을 표현할 수 없다는 한계가 있습니다. ..
-
Word Embedding 02 ( Glove / FastText ) 정리AI/NLP 2021. 12. 31. 17:12
[논문 제목] 1. GloVe : global vectors for word representation (https://nlp.stanford.edu/pubs/glove.pdf) 2. FastText : Enriching Word Vectors with Subword Information (https://arxiv.org/abs/1607.04606) 들어가기 앞서 https://asidefine.tistory.com/152 Word Embedding 01 (One-hot Encoding / Word2Vec ) 정리 [논문 목록] 1. Word2Vec : Efficient Estimation of Word Representations in Vector Space (https://arxiv.org/abs/1..
-
Deep Residual Learning for Image Recognition 정리 및 코드 구현 by Pytorch [ResNet]AI/Computer Vision 2021. 9. 25. 19:53
Deep Residual Learning for Image Recognition 정리 및 코드 구현 by Pytorch [ResNet] 1. Introduction "Is learning better networks as easy as stacking more layers?" -> 오히려 the problem of vanishing/exploding gradients => Overfitting이 문제인가? 아님. 네트워크의 층이 깊어질수록, degradation problem이 발견 (degradation problem은 layers가 깊어지면 깊어질수록 training error가 더 높아지며, 따라서 test error또한 동일하게 높아지는 현상) -> accuracy는 saturated (마치 뭔가..
-
강화 학습 참고할 사이트AI 2021. 9. 23. 13:16
https://dnddnjs.gitbooks.io/rl/content/policy_iteration.html Policy Iteration · Fundamental of Reinforcement Learning dnddnjs.gitbooks.io https://github.com/rlcode/reinforcement-learning-kr GitHub - rlcode/reinforcement-learning-kr: [파이썬과 케라스로 배우는 강화학습] 예제 [파이썬과 케라스로 배우는 강화학습] 예제. Contribute to rlcode/reinforcement-learning-kr development by creating an account on GitHub. github.com https://sumn..
-
Rethinking the Inception Architecture for Computer Vision 정리 [Inception-V2 / Inception-V3]AI/Computer Vision 2021. 9. 14. 09:25
Rethinking the Inception Architecture for Computer Vision 정리 [Inception-V2 / Inception-V3] 선행되어 연구되었던 Going deeper with convolutions, 즉 GoogLeNet은 VGG을 이기고 2014년 IRSVRC에서 우승했지만, 워낙 구조가 복잡하고 연산량이 많아서 잘 쓰이지 않았다. 이를 개선하고자 후속 연구인 Rethinking the Inception Architecture for Computer Vision에서는 연산량을 줄이기 위한 실험과 이를 적용한 모델들인 Inception-V2/Inception-V3 개발! 0. Abstract 본 논문에서는 Inception-v2와 Inception-v3을 소개함. ..
-
Cascaded Pyramid Network for Multi-person pose estimationAI/Object Detection & Pose Estimation 2021. 9. 9. 16:17
1. introduction object의 정확한 검출에 악영향을 미치는 경우가 많다. ex. keypoint들끼리 겹쳐있다. 다른 object에 가려서 보이지 않는 키포인트가 있다. 이런 한계를 극복하고 분류하기 어려운 hard keypoint를 잘 검출하기 위해 두개의 stage로 이루어진 CPN을 제안한다. Human Detector + GlobalNet + RefineNet Human Detector: 해당 논문에서 사용한 base object detector는 FPN(Feature Pyramid Network)에서 RoI pooling을 Mask R-CNN의 RoI Align으로 바꾼 것 GlobalNet: 간단한 keypoint들은 잘 localize시키지만 뭉쳐있거나 보이지 않는 키포인트들은..
-
Detectron2 이란? Pytorch 기반의 Object Detection, Segmentation 라이브러리!AI/Object Detection & Pose Estimation 2021. 9. 9. 15:12
https://www.youtube.com/watch?v=EVtMT6Ve0sY https://www.youtube.com/watch?v=q9TVt0T2a1M https://lynnshin.tistory.com/57 Detectron2 로 Mask R-CNN 학습하기 1. 아나콘다 가상환경 세팅 $ conda create -n detectron2 python==3.8 -y $ conda activate detectron2 2. PyTorch 설치 https://pytorch.org/get-started/previous-versions/ 에서 CUDA 버전에 맞는 PyTorch 설.. lynnshin.tistory.com https://github.com/facebookresearch/detectron2/b..
-
Going deeper with convolutions 정리 및 코드 구현 by PyTorch & Tensorflow [GoogLeNet]AI/Computer Vision 2021. 9. 5. 17:47
Going deeper with convolutions 정리 및 코드 구현 by PyTorch & Tensorflow [GoogLeNet] 0. abstract GoogLeNet은 2014년 ILSVRC에서 VGGNet(VGG19)을 이기고 우승을 차지한 알고리즘이다. GoogLeNet은 19층의 VGG19보다 좀 더 깊은 22층으로 구성되어 있다. 이 모델의 주요 특징은 연산을 하는 데 소모되는 자원의 사용 효율이 개선되었다는 것이다. 즉, 정교한 설계 덕에 네트워크의 depth와 width를 늘려도 연산량이 증가하지 않고 유지된다는 뜻이다. 이때, 성능을 최적화하기 위해 Hebbian principle과 multi-scale processing을 적용하였고, 이 구조를 GoogLeNet이라 부른다고 ..