분류 전체보기
-
[GNN] 4. GNN 개요AI/GNN 2022. 2. 13. 00:47
[GNN] 4. GNN 개요 1. Graph란? - 왜 Graph? - Graph의 종류 - Graph의 표현 - Graph Tasks - Graph의 Motif 2. Graph Representation Learning - Node Embedding - Graph Embedding 3. GNN 이전의 Graph 학습 - Node Feature Eigenvector centrality Betweenness centrality Closeness centrality ..... - Link Feature Distance-based feature Local neighborhood overlap Global neighborhood overlap - Graph Feature Graphlet kernel Weisfe..
-
[GNN] 4-1. Recurrent Graph Neural Networks (RecGNNs)AI/GNN 2022. 2. 13. 00:43
[GNN] 4-1. Recurrent Graph Neural Networks (RecGNNs) 1. Graph란? - 왜 Graph? - Graph의 종류 - Graph의 표현 - Graph Tasks - Graph의 Motif 2. Graph Representation Learning - Node Embedding - Graph Embedding 3. GNN 이전의 Graph 학습 - Node Feature Eigenvector centrality Betweenness centrality Closeness centrality ..... - Link Feature Distance-based feature Local neighborhood overlap Global neighborhood overlap -..
-
[GNN] 2. GNN 이전의 Machine Learning을 활용한 Graph 학습AI/GNN 2022. 2. 13. 00:09
[GNN] 2. GNN 이전의 Machine Learning을 활용한 Graph 학습 1. Graph란? - 왜 Graph? - Graph의 종류 - Graph의 표현 - Graph Tasks - Graph의 Motif 2. GNN 이전의 Machine Learning을 활용한 Graph 학습 - Node Feature Eigenvector centrality Betweenness centrality Closeness centrality ..... - Link Feature Distance-based feature Local neighborhood overlap Global neighborhood overlap - Graph Feature Graphlet kernel Weisfeiler-Lehman Ke..
-
[GNN] 0. GNN 논문 공부 순서AI/GNN 2022. 2. 12. 17:29
[GNN] 0. GNN 논문 공부 순서 이 공부 순서는 CS224w와 Survey Paper, 그리고 여러 블로그들을 참고하여 작성되었다. 목차 1. Graph란? - 왜 Graph? - Graph의 종류 - Graph의 표현 - Graph Tasks - Graph의 Motif 2. Graph Representation Learning - Node Embedding - Graph Embedding 3. GNN 이전의 Graph 학습 - Node Feature Eigenvector centrality Betweenness centrality Closeness centrality ..... - Link Feature Distance-based feature Local neighborhood overlap G..
-
GPT-1 / BERT / GPT-2 간단 정리AI/NLP 2022. 2. 7. 12:59
GPT-1 / BERT / GPT-2 간단 정리 [논문 목록] GPT-1 : Improving Language Understanding by Generative Pre-Training (2018) BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding (2018) GPT-2 : Language Models are Unsupervised Multitask Learners (2018) [목차] 1. GPT-1 2. BERT 3. GPT-2 4. GPT와 BERT의 특징 차이 GPT-1 0. Abstract 1. Introduction 2. Related work 3. Framework 3.1. Unsupervised ..
-
NLP 논문 공부 순서 (2023.12 업데이트)AI/NLP 2022. 2. 4. 21:01
2023.12.27 업데이트 - ChatGPT도 등장한지 벌써 1년이나 되었습니다. GPT-3과 ChatGPT 이후로 NLP 분야에서도 흐름이 엄청 빠르게 바뀌었기 때문에 예전에 기록해두었던 논문 목록을 업데이트 하면 좋을 것 같다는 생각에 추가해두었습니다.- 'NLP 논문 공부 순서'로 블로그 유입이 많기도 하고, 여쭤보시는 분들도 있어서 저의 경우 NLP 공부를 어떻게 했었는지 (학부생 시절) 몇 자 적습니다. 궁금한 점 있으면 댓글로 남겨주셔도 됩니다! 1. 아예 인공지능 분야에 대해서 모르는 분이시라면 머신러닝, 수학부터 차근차근 공부하시다가 딥러닝 공부하시는 게 좋을 것 같습니다. 딥러닝도 비전이나 자연어처리, 음성 처리 등 다양한 분야가 있다보니 먼저 기초부터 단단히 하시고 세부 분야로 파..
-
NLP Benchmark Datasets 정리 (GLUE / SQuAD/RACE)AI/NLP 2022. 2. 4. 20:32
NLP task 정리 (GLUE / SQuAD/RACE) 자연어처리 논문들에서 많이 보이는 Benchmark Dataset들에 대해서 틈틈이 정리해보려고 한다. GLUE 모델을 설계할 때 가장 중요한 것 중 하나는 '모델을 어떻게 평가할 것인가'입니다. 이에 맞게 테스트셋을 구축하고 테스트셋에 대한 평가 지표를 체계적으로 설계함으로써 원하는 태스크에 대한 모델의 성능을 적절하게 평가할 수 있습니다. 평가 방법이 비교적 명확하고 표준화 되어 있는 CV와는 달리 NLP의 경우에는 언어와 태스크에 따른 모델 평가 방법이 제대로 표준화되어 있지 않았습니다. 또한 전이 학습(Transfer Learning)과 관련한 연구가 활발히 NLP에 적용됨에 따라 특정 문제만을 해결하기 위한 Single task model..
-
RoBERTa: A Robustly Optimized BERT Pretraining Approach 정리AI/NLP 2022. 2. 4. 16:57
RoBERTa: A Robustly Optimized BERT Pretraining Approach 정리 들어가기 전에.... https://asidefine.tistory.com/181 GPT-1 / BERT / GPT-2 간단 정리 GPT-1 / BERT / GPT-2 간단 정리 [논문 목록] GPT-1 : Improving Language Understanding by Generative Pre-Training (2018) BERT : Pre-training of Deep Bidirectional Transformers for Language Unders.. asidefine.tistory.com https://asidefine.tistory.com/179 NLP task 정리 (GLUE / SQu..