计划回顾
上周未完成的计划:
Graph paper: 50%.
- MoNet
 - GraphSage
 - GAT
 
Higher-order graph: 45.4%.
- Weisfeiler and Leman Go Neural: Higher-order Graph Neural Networks
 - 🌟 Simultaneous group and individual centralities. Phillip Bonacich. Soc. Netw., 13(2):155–168, 1991.
 - ⭐ Random walks and diffusion on networks, Physics Reports, N. Masuda, M. A. Porter, and R. Lambiotte, 2017.
 - 🌟High-ordered random walks and generalized Laplacians on hypergraphs. Linyuan Lu and Xing Peng. In International Workshop on Algorithms and Models for the Web-Graph, pages 14–25. Springer, 2011.
 - http://www.geometry.caltech.edu/pubs/dGDT16.pdf
 - Discrete Connection and Covariant Derivative for Vector Field Analysis and Design (10.21)
 
Optimization: 100%
Misc: 0%.
Video: 66.7%.
-  Game of thrones: Season 6 
- Episode 6
 - Episode 7
 
 
Game: 90%.
- 隐形的守护者第十章
 
总结:
- 为什么有些任务全部完成了,有些任务几乎没有完成呢?我觉得原因可以分为以下几点:
- 任务的可执行度上。比如:higher-order graph的论文阅读。我这里虽然列出了list,但是,list上的item之间缺乏联系。 我在读完一篇论文之后,可能心里存在很多疑问,此时与我的疑问最相关的论文并没有出现在list上,导致我不想沿着list去读。在读完list上的一篇论文之后,我不知道为什么要去读下一篇,list失去了引导力,致使我无法完成。与之相比,optimization的任务内部非常的连贯,我愿意按照它执行。
 
 - Video这种娱乐性质的任务为什么没有完成?
- 习惯没有养成。我坚持的是routine指导行为的方法,绝不要忽视习惯的力量。而我现在的routine并没有建立起来,比如健身时间,休息时间,娱乐时间,都是散乱的。不过,鉴于这周小伙伴住在我房间里的情况,我不能太过任性,一味坚持自己的时间表,还需要适当考虑到她的生活习惯。习惯留待她离开之后再培养叭。
 
 
收获
本周在论文上的收获不大,在课程mathematical optimization收获更多些,坚持按计划学习了课程。此外,重新布置起自己的blog,在对blog进行修整之后,还要经营我和元元的blog哦~
周六和熊,小可爱,室友一起度过了12个小时,虽然这个时间预算对我来说有些超支了😂,完全没想到会和小伙伴玩这么久。不过元元有句话开导的很对“不要因为烦恼而影响玩耍时的快乐”,“很占据时间,又不能拒绝”时,我应该尽力去享受这段时间,而不是为被额外占据掉的时间焦虑。我对自己的时间真的很吝啬。其实反过来想想,对于与朋友在一起的时间,如果事先有个预期的话,我会舒服很多。害,说到底就是想尽可能地掌控。
Mathematical Optimization
对于这次总结,我希望达到的目的不是复述知识,而是建立起知识之间的联系,突出要点。
经过复习,我发现我对以下内容掌握得不够:
- degenerate/degeneracy: 引入这个概念是为了干什么?
 


Graph models
本周的认识都是high-level的,没有基础知识的积累:GIN的那篇paper从现有的基于邻居消息传递的GNN框架的局限性出发,引起我思考:什么样的模型是基于这个框架的,除此之外还有哪些其他模型种类。各种基于Laplacian的模型是不是也基于这个邻居消息传递的?比如GCN,其实是根据Laplacian矩阵选择weighted的邻居的。
下周计划
Mathematical optimization
Video
- 10.5 (10.26)
 - 10.8 (10.27)
 - 10.12 (10.29)
 - 10.15 (10.30) (last 7 minutes)
 
Script:
- 18-37 (10.28)
 
Graph Papers
这周准备采取综述,书籍和最新论文相结合的模式来进行领域学习。学习的目的:
- 了解图领域的主要任务
 - 了解现有模型没有解决的问题
 - 未来可能的发展方向是什么
 - 如何把经典理论和现代nn的方法结合起来呢?
 -  ICLR2021专栏:
- Graph-graph similarity network
 - how to find your friendly neighborhood: graph attention design with self-supervision
 - graph neural network pooling by edge cut
 
 -  NIPS专栏:
- (10.26) 🌟 Random walks on hypergraphs. Timoteo Carletti, Federico Battiston, Giulia Cencetti, and Duccio Fanelli. Phys. Rev. E, 101(2):022308, 2020. 及其周边
 - Path Integral Based convolution and pooling for graph neural networks
 - Convergence and Stability of GCN on Large Random graphs
 - Erdos Goes Neural: an Unsupervised Learning Framework for Combinatorial Optimization on Graphs
 - Learning Graph Structure With A Finite-State Automaton Layer
 
 - KDD2020: GraphSTONE
 -  综述:
- 📖 The Emerging Field of Signal Processing on Graphs
 - 📖 Discrete Signal Processing on Graphs
 - 📖 ⭐ Introducing Hypergraph Signal Processing:Theoretical Foundation and Practical Applications
 - 📖 Centralities in simplicial complexes. applications to protein interaction networks.Ernesto Estrada and Grant J Ross. 2018.
 - 📖 Centrality measures in simplicial complexes, Daniel Herna ́ndez Serrano and Dar ́ıo Sa ́nchez G ́omez. 2019
 
 
Life
- Guitar: 七月上
 - 毛笔字一张
 -  Deutsch lernen 看三集
- 1
 - 2
 - 3
 
 -  权力的游戏:
- 第六季第五集
 - 第六集
 - 第七集
 
 - 做一个南瓜发糕
 - 隐形的守护者玩完
 - 开始玩 我的世界