博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
tf rnn layer
阅读量:2135 次
发布时间:2019-04-30

本文共 981 字,大约阅读时间需要 3 分钟。

流程

先介绍下数据和整体流程

生成数据
import numpy as nprows = 10000columns = 100emb_size = 5train_x = np.random.random(size=(rows, columns, emb_size))train_y = np.random.randint(low=0, high=2, size=(rows, 1))
tf 计算流程
import tensorflow as tffrom tensorflow import kerasmodel = keras.Sequential()model.add(keras.layers.Input(shape=[columns, emb_size], name='my_input')) # batch_size为Nonemodel.add(keras.layers.SimpleRNN(units=10, use_bias=False, kernel_initializer=keras.initializers.Zeros()))model.add(keras.layers.Dense(1, kernel_initializer=keras.initializers.Orthogonal(gain=1.0, seed=None)))model.compile(loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),              optimizer=tf.keras.optimizers.Adam(1e-4),              metrics=['accuracy'])model.fit(train_x, train_y, epochs=10, batch_size=100)
tf 实现SimpleRNN
class MySimpleRNN(keras.layers.B):	def __init__(self):		super(MySimpleRNN, self).__init__()		pass	def build(self):		pass	def call(self):		pass
numpy 计算流程
import numpy as np

转载地址:http://ulugf.baihongyu.com/

你可能感兴趣的文章
详解 Stacking 的 python 实现
查看>>
简述极大似然估计
查看>>
用线性判别分析 LDA 降维
查看>>
用 Doc2Vec 得到文档/段落/句子的向量表达
查看>>
使聊天机器人具有个性
查看>>
使聊天机器人的对话更有营养
查看>>
一个 tflearn 情感分析小例子
查看>>
attention 机制入门
查看>>
手把手用 IntelliJ IDEA 和 SBT 创建 scala 项目
查看>>
双向 LSTM
查看>>
GAN 的 keras 实现
查看>>
AI 在 marketing 上的应用
查看>>
Logistic regression 为什么用 sigmoid ?
查看>>
Logistic Regression 为什么用极大似然函数
查看>>
SVM 的核函数选择和调参
查看>>
LightGBM 如何调参
查看>>
用 TensorFlow.js 在浏览器中训练神经网络
查看>>
cs230 深度学习 Lecture 2 编程作业: Logistic Regression with a Neural Network mindset
查看>>
梯度消失问题与如何选择激活函数
查看>>
为什么需要 Mini-batch 梯度下降,及 TensorFlow 应用举例
查看>>