TensorFlow人工智能引擎入门教程之八 接着补充一章MLP多层感知器网络原理以及 使用
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 这一章我们讲MLP 多层感知器 的使用,多层感知器 ,常用来做分类,效果非常好,比如文本分类,效果比SVM 贝叶斯 好多了,这些以前的机器学习很有名的算法,我现在基本不用它们,现在是深度学习 的AI时代。 多层感知器的介绍 MLP(多层感知器)神经网络是常见的ANN算法,它由一个输入层,一个输出层和一个或多个隐藏层组成。 在MLP中的所有神经元都差不多,每个神经元都有几个输入(连接前一层)神经元和输出(连接后一层)神经元,该神经元会将相同值传递给与之相连的多个输出神经元 一个神经网络训练网将一个特征向量作为输入,将该向量传递到隐藏层,然后通过权重和激励函数来计算结果,并将结果传递给下一层,直到最后传递给输出层才结束 首先我们来 下面是一个2层的多层感知器 其中 relu可以换成 tanh或者sigmoid 比如 tf.nn.sigmoid(tf.matmul(X, w_h)) #WX+B def multilayer_perceptron(_X, _weights, _biases): layer_1 = tf.nn.relu(tf.add(tf.matmul(_X, _weights['h1']), _biases['b1'])) #Hidden layer with RELU activation