博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Deep Graph Infomax(DGI) 论文阅读笔记
阅读量:4557 次
发布时间:2019-06-08

本文共 1008 字,大约阅读时间需要 3 分钟。

代码及论文github

本文中出现的错误欢迎大家指出,在这里提前感谢w
这篇文章先锤了一下基于random walk的图结构上的非监督学习算法,指出了random walk算法的两个致命缺点。
1.以图的结构信息为代价,过分强调点之间的临近信息。(random walk算法的假设:相邻的节点更有可能具有相同的label)
2.模型效果过多依赖超参的选择,即改变超参,模型的效果会急剧下降。
后面这篇文章介绍了自己的非监督学习是基于mutual information的,关于这里有一篇很好的博客介绍它的含义,这对我们接下来论文的理解也有帮助。

我靠我终于搞明白为什么paper里面一直在讲一个二分类问题,而它跑的实验却是一个多分类问题了,这个问题是我看了它的源码才知道的。

这里面是两个不同的模型,在一开始的二分类使用的是交叉熵loss,目的是训练出来前面的GCN采样层的效果,让这个GCN层能够有效地提取图结构的信息。这里的二分类是指图中原有的点(正样本)和作者自己构造了一个假图的点(负样本)。
训练完第一个模型后,下一个模型名字叫LogReg。它本质就是一个全连接层,使用xavier的方法进行全连接层的初始化。是将GCN层中提取出的特征描述\(h_i\)直接输入到全连接层,然后分为nb_classes类,做一个有监督的训练,训练这一层全连接层。在第二个模型中,前面的readout function和discriminator都没有用了!
那么为什么说这个方法是一个无监督的方法呢?因为在第一个模型,represntation提取过程中,作者是自己构造的正样本和负样本训特征提取器的(也就是GCN)。这个过程是一个无监督的过程,至于后面全连接层的训练,并不是本文的重点,只是为了让提取的patch represetation发挥它的效果。
根据后面给的效果图来看,这个方法的F1-score逼近或超过有监督学习的F1-score了。是不是感觉很牛逼!
据悉,Deep InfoMax这篇论文的作者有一个是刚获图灵奖的机器学习三巨头之一Yoshua Bengio,去年参加微软CCC有幸见过一面,真瘦,真高啊。感觉这个Deep InfoMax会在无监督学习领域火一把。
---
剩余东西,近几天更新

转载于:https://www.cnblogs.com/1623-1017/p/11227234.html

你可能感兴趣的文章
数据可视化(5)--jqplot经典实例
查看>>
u盘复制提示文件过大
查看>>
grails项目数据源配置
查看>>
mysql数据库索引简单原理
查看>>
【爱笑话7.0版】笑话两万篇,免费阅读,绝无广告
查看>>
The square chest
查看>>
不用第三个变量实现a,b的值交换
查看>>
四则运算
查看>>
为VS2010默认模板添加版权信息(转)
查看>>
int类型属性判空
查看>>
remote: ERROR: missing Change-Id in commit message footer
查看>>
js中的事件总结
查看>>
关于Unity实现三维物体裁剪功能
查看>>
BZOJ4033 [HAOI2015]树上染色 【树形dp】
查看>>
POJ 3659 Cell Phone Network 最小支配集模板题(树形dp)
查看>>
最少构造出回文 (最长公共子序列+思维)
查看>>
20135201李辰希 《Linux内核分析》第四周 扒开系统调用的“三层皮”
查看>>
如何快速的开发一个完整的iOS直播app(美颜篇)
查看>>
基于node.js+socket.io+html5实现的斗地主游戏(1)概述
查看>>
Oracle EBS 清除并发请求和(或)管理器数据 请求
查看>>