免责声明:网站内容仅供个人学习记录,禁做商业用途,转载请注明出处。

版权所有 © 2017-2020 NEUSNCP个人学习笔记 辽ICP备17017855号-2

Normalized Mutual Information 的Python 实现 (NMI.py)

NMI是Normalized Mutual Information的简称,用于比较社团划分结果与ground-truth之间的接近程度,取值范围为[0, 1],出自2006年 Danon 的论文 [1]。 有两种计算方法,为了方便大家检测结果,写了一个通用的Python版计算函数,当然也可以直接调用库函数计算。代码如下: # -*- coding: utf-8 -*- import math def NMI(c1, c2): ''' Calculate Normalized Mutual Informati...

继续阅读 »
分享到:

有关AutoEncoder自动编码器的一些知识

最近笔者在看一些有关于深度学习的内容,了解了有关于AutoEncoder的一些知识,在这里分享给大家。内容中参考了一些CSDN和博客园中博客的相关内容。 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这...

继续阅读 »
分享到:

机器学习—神经网络之感知器

感知器算法基于单层神经网络的范畴,不仅是第一个以算法描述的学习算法,而且很直观,也较为容易实现。同时,它也是是最先进的机器学习算法之一人工神经元网络(也可称作深入学习)的绝好切入点。 感知器的最初概念可以追溯到Warren McCulloch和Walter Pitts在1943年的研究,他们将生物神经元类比成带有二值输出的简单逻辑门。以更直观的方式来看,神经元可被理解为生物大脑中神经网络的子节点。在这里,变量信号抵达树突。输入信号在神经细胞体内聚集,当聚集的信号强度超过一定的阈值,就会产生一个输出信...

继续阅读 »
分享到: