전체 글
-
[논문 리뷰] “I Have No Text in My Post” : Using Visual Hints to Model User Emotions in Social Media (WWW ‘22 / Best Paper Candidate)AI/NLP 2022. 6. 30. 17:29
[논문 리뷰] “I Have No Text in My Post” : Using Visual Hints to Model User Emotions in Social Media (WWW ‘22 / Best Paper Candidate) 본 논문은 WWW 2022에서 Best Paper 후보에 올랐고, 저자가 한국 분이셔서 냉큼 읽었다. 나 또한 Social Media를 분석하는 것에 관심이 있고, 현재 연구하는 내용도 Reddit에서 Text와 Image를 모두 고려하고 있기 때문에 매우 흥미롭게 읽었다. 아래 설명은 존댓말로... Introduction 논문의 연구 배경에 대해서 말씀드리겠습니다. 현재 대부분의 소셜 미디어 플랫폼에서는 Text와 이미지, 비디오와 같이 다양한 종류의 정보들을 활용하여 상호작..
-
[Story Generation Study Week 02 : Story Generation & Story Completion] Event Representations for Automated Story Generation with Deep Neural Nets (AAAI, 2018) ReviewAI/NLP 2022. 6. 29. 16:16
[Story Generation Study Week 02 : Story Generation & Story Completion] Event Representations for Automated Story Generation with Deep Neural Nets (AAAI, 2018) Review [Story Generation Study Week 02 : Story Generation & Story Completion] [commonsense] A Corpus and Cloze Evaluation for Deeper Understanding of Commonsense Stories (NAACL, 2016) [event] Event Representations for Automated Story Gener..
-
[Story Generation Study Week 03 : Story Generation & Story Completion] Story Realization: Expanding Plot Events into Sentences (AAAI, 2020) ReviewAI/NLP 2022. 6. 29. 16:15
[Story Generation Study Week 03 : Story Generation & Story Completion] Story Realization: Expanding Plot Events into Sentences (AAAI, 2020) Review Summary [2주차 논문 Remind] 0. Event Representation : 각 문장을 Event의 형식으로 표현한 것 1. event2event : 하위의 여러 event represnetation 생성 2. event2sentence : 추상적인 event → 인간이 읽을 수 있는 자연스러운 문장으로 translate 원본 : https://asidefine.tistory.com/195 Event Representation은 St..
-
[Story Generation Study Week 01 : Fundamental of Text Generation] GPT-1 / GPT-2 Review & 스터디 메모AI/NLP 2022. 6. 29. 13:11
[Story Generation Study Week 01 : Fundamental of Text Generation] GPT-1 / GPT-2 Review & 스터디 메모 [Story Generation Study Week 01 : Fundamental of Text Generation] GPT-1: Improving Language Understanding by Generative Pre-Training (2018) GPT-2: Language Models are Unsupervised Multitask Learners (2019) GPT-3: Language Models are Few-Shot Learners (2020) GPT-1 unlabeled data를 이용해 전반적인 단어의 임베딩을 먼저 갖..
-
[Story Generation Study Week 01 : Fundamental of Text Generation] GPT-3 : Language Models are Few-Shot Learners (2020) ReviewAI/NLP 2022. 6. 28. 12:41
[Story Generation Study Week 01 : Fundamental of Text Generation] GPT-3 : Language Models are Few-Shot Learners (2020) Review [Story Generation Study Week 01 : Fundamental of Text Generation] GPT-1: Improving Language Understanding by Generative Pre-Training (2018) GPT-2: Language Models are Unsupervised Multitask Learners (2019) GPT-3: Language Models are Few-Shot Learners (2020) 방학 중 내가 너무너무너무..
-
GNN Seminar 정리AI/GNN 2022. 3. 2. 00:38
GNN에서 readout은 생성된 노드 embedding을 하나의 벡터로 변환하여 그래프 전체의 embedding을 생성하는 기능을 수행한다. 따라서, GAT을 비롯한 GNN을 이용하여 노드에 대한 embedding, classification, regression을 수행하고자 하는 경우에는 GNN 구조에 readout이 포함되지 않는다. 그러나 그래프 embedding이나 분자 속성 예측과 같이 그래프 단위의 작업을 수행할 때는 readout이 GNN 구조에 포함되어야 한다. 일반적으로 readout은 모든 노드들의 embedding을 평균내거나 더함으로써 그래프 embedding을 생성한다.
-
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks (CycleGAN) 정리AI/Computer Vision 2022. 2. 14. 13:30
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks (CycleGAN) 정리 1. Introduction Image-to-image translation은 짝진 형태의 이미지 train 세트를 이용해 인풋 이미지와 아웃풋 이미지를 매핑하는 것이 목표인, 컴퓨터 비전과 그래픽의 한 분야입니다. 하지만 많은 태스크에 있어서 짝이 지어진 학습 데이터를 얻는 것이 불가능합니다. Image-to-image translation의 대표적인 모델인 Pix2pix는 GAN loss를 합친 목적 함수를 이용하여 성능을 높였지만, training data가 pair로 존재해야만 한다는 한계점이 존재합니다. 따라서 CycleGAN 논..
-
How Powerful are Graph Neural Networks? (GIN) 정리AI/GNN 2022. 2. 13. 01:51
How Powerful are Graph Neural Networks? (GIN) 정리 들어가기 전에.... 이 부분은 논문의 2. Preliminaries에 해당되는 내용이나, 먼저 알고 가는 것이 논문 이해에 도움이 되어 먼저 작성합니다. 먼저 MPNN에 대해서 설명을 드리고, 이어서 WL test에 대해서 설명드리도록 하겠습니다. 1. MPNN 지난 시간과 지지난 시간에 살펴보았던 GraphSAGE나 GAT와 같은 spatial 기반의 방법들은 노드들의 spatial 관계를 활용하여 학습하는 방법으로, convolution 과정을 통해서 주변 노드의 representation(feature vector)만을 학습하여 중심 노드의 representation을 업데이트 하는 방식을 사용합니다. 이런 방..