tensorflow

TensorFlow 入门

眉间皱痕 提交于 2020-10-28 18:04:32
一、初识Tensorflow 编译Tensorflow lite tflitecamerademo 安装Tensorflow 通过下面链接安装 http://www.tensorfly.cn/tfdoc/get_started/os_setup.html Tensorflow 有CPU以及GPU两个版本 根据你的情况选择安装 clone Tensorflow源码 git clone--recurse-submodules https://github.com/tensorflow/tensorflow.git 安装bazel 工程构建工具与maven和gradle 类似 安装链接: https://docs.bazel.build/versions/master/install-os-x.html Mac电脑直接brew install bazel安装 安装Android SDK 以及NDK 注意SDK api版本需要>=23 推荐26 NDK版本 <= 14 推荐14 修改bazel 外部依赖配置文件WORKSPACE 打开tensorflow 源码 根路径下WORKSPACE文件 添加你本地Android SDK以及NDK配置信息 准备工作完成以后执行编译命令进行lite android demo 编译 bazel build --config=android_arm -

Java调用Tensorflow模型

允我心安 提交于 2020-10-28 15:16:33
说明 关于Tensorflow的使用与模型生成,谷歌推荐的保存模型为PB文件,因为它具有语言独立性,可独立运行,封闭的序列化格式,任何语言都可以解析它,因此也就允许其他语言进行开发对接。本文就以一个简单案例的方式来说明模型的生成和调用。 Tensorflow生成逻辑回归模型,模型保存为二进制PB文件 本文所有的案例是一个逻辑回归模型,y=wx+b。训练与生成模型的代码如下所示: import tensorflow as tf import numpy as np import matplotlib.pyplot as plt from tensorflow.python.framework import graph_util ## -1到1之间随机数 100个 train_X = np.linspace(-1, 1, 100) train_Y = 2*train_X + np.random.randn(*train_X.shape)*0.1 # 显示模拟数据点 plt.plot(train_X, train_Y, 'ro', label='test') plt.legend() plt.show() # 创建模型 # 占位符 X = tf.placeholder("float",name='X') Y = tf.placeholder("float",name='Y') #

GitHub上1月份热门Python开源项目

岁酱吖の 提交于 2020-10-28 11:57:29
来源于开源最前线 猿妹整编 转载请注明来源作者 本文我们将和大家介绍 GitHub 上 1 月份最受欢迎的 11 个Python开源项目,在这些项目中,你有在用或用过哪些呢? 1 12306 https://github.com/testerSunshine/12306 Star 6514 12306智能刷票助手,就是程序员自己写的一个抢票脚本,该依赖库的Python版本支持2.7.10 - 2.7.15,其设计思路如下: 2 py12306 https://github.com/pjialin/py12306 Star 3408 这也是一个12306购票助手,支持分布式,多账号,多任务购票以及Web页面管理,支持python 3.6以上版本 3 flair https://github.com/zalandoresearch/flair Star 4893 Flair是最近开源的一个基于Pytorch的NLP框架,具有以下特性: 一个功能强大的NLP库 ,Flair允许您将最先进的自然语言处理(NLP)模型应用于您的文本,例如命名实体识别(NER),词性标注(PoS),意义消歧和分类。 单个模型, 可用于预测多种文本语言输入的PoS或NER标记。 文本嵌入库, Flair具有简单的界面,允许您使用不同 组合 的单词和文档嵌入,包括创建者提出的Flair嵌入

语音合成最新进展

Deadly 提交于 2020-10-28 06:05:08
Tacotron2 前置知识 通过时域到频域的变换,可以得到从侧面看到的 频谱 ,但是这个频谱并没有包含时域的中全部的信息,因为频谱只代表各个频率正弦波的振幅是多少,而没有提到相位。基础的正弦波$Asin(wt+\theta)$中,振幅、频率和相位缺一不可。不同相位决定了波的位置,所以对于频域分析,仅有频谱是不够的,还需要一个相位谱。 时域谱:时间-振幅 频域谱:频率-振幅 相位谱:相位-振幅 参见: 傅里叶分析之掐死教程(完整版)更新于2014.06.06 传统语音合成: 单元挑选和拼接:将事先录制好的语音波形小片段缝合在一起。边界人工痕迹明显 统计参数:直接合成语音特征的平滑轨迹,交由声码器合成语音。发音模糊不清且不自然 Tacotron2分为两部分: 一个seq2seq结构的特征预测网络,将字符向量映射到梅尔声谱图 一个WaveNet修订版,将梅尔声谱图合成为时域波形 梅尔频谱是对短时傅里叶变换获得的声谱(即线性声谱)频率轴施加一个非线性变换,其依据人耳特性:低频细节对语音的理解十分关键,而高频细节可以淡化,对频率压缩变换而得。Tacotron2使用低层的声学特征梅尔声谱图来衔接两个部分的原因: 梅尔频谱容易通过时域波形计算得到 梅尔频谱对于每一帧都是相位不变的,容易使用均方差(MSE)训练 梅尔声谱抛弃了相位信息,而像Griffin-Lim算法对抛弃的相位信息进行估计

2018年英特尔秋季人工智能技术研讨会

此生再无相见时 提交于 2020-10-28 05:01:49
2018年10月16日,在上海英特尔举办了秋季人工智能技术研讨会,主要从芯片硬件和深度学习底层加速工具包介绍了所做的事情。我今天将分享一下我所看到的内容给大家。 Intel针对CPU版本的tensorflow进行了优化,在ResNet50网络上进行了训练和推理测试,同样的硬件条件下,与没有优化的CPU版本的tensorflow结果相比,速度分别提高了14倍和3.2倍。 Intel优化的CPU版本的tensorflow目前只支持最新版的1.10.0,安装也非常简单只需要加一条语句即可:conda install tensorflow -c intel。 Intel对现在大多数深度学习网络进行了优化,例如SSD,UNet,DCGAN等。 Intel对tensorflow中优化的操作有前传操作(conv2d,relu,maxpool,batchnorm,concat等)和后传操作(reluGrad,maxpoolGrad,batchnormGrad等)。 TensorTuner是用来在Intel至强CPU上来调整tensorflow配置的工具。 Intel至强和FPGA芯片可以用于集成,存储,处理,管理和分析等方向。 Intel不同的芯片应用于不同的深度学习需求。 OPENVINO TOOLKIT是用来加速计算机视觉和深度学习推理性能工具包。

您的CPU支持该TensorFlow二进制文件未编译为使用的指令:AVX AVX2

混江龙づ霸主 提交于 2020-10-27 18:28:42
问题: I am new to TensorFlow. 我是TensorFlow的新手。 I have recently installed it (Windows CPU version) and received the following message: 我最近安装了它(Windows CPU版本),并收到以下消息: Successfully installed tensorflow-1.4.0 tensorflow-tensorboard-0.4.0rc2 成功安装tensorflow-1.4.0 tensorflow-tensorboard-0.4.0rc2 Then when I tried to run 然后当我尝试跑步 import tensorflow as tf hello = tf.constant('Hello, TensorFlow!') sess = tf.Session() sess.run(hello) 'Hello, TensorFlow!' a = tf.constant(10) b = tf.constant(32) sess.run(a + b) 42 sess.close() (which I found through https://github.com/tensorflow/tensorflow ) (我通过 https:/

目标检测:Anchor-Free时代

為{幸葍}努か 提交于 2020-10-27 17:44:25
  自从2018年8月CornerNet开始,Anchor-Free的目标检测模型层出不穷,最近达到了井喷的状态,宣告着目标检测迈入了Anchor-Free时代。   其实Anchor-Free并不是一个新概念了,大火的YOLO算是目标检测领域最早的Anchor-Free模型,而最近的Anchor-Free模型如FASF、FCOS、FoveaBox都能看到DenseBox的影子。   下面主要讲一下有代表性的Anchor-Free模型(包括DenseBox、YOLO、CornerNet、ExtremeNet、FSAF、FCOS、FoveaBox),分成3个部分来介绍(早期探索、基于关键点、密集预测),具体细节就不展开了~    早期探索   1   DenseBox   最早知道这篇文章,是在去年刚接触目标检测的时候,看了一篇地平线对DenseBox作者的采访,当时因为刚接触感触不深,但是从当前的时间节点回头看,DenseBox的想法是多么的超前啊。   采访中说道,当年DenseBox其实早在2015年初就已经开发出来了,这比同期的Faster-RCNN系列提前数月,但是论文直到9月才在arxiv上发布。如果DenseBox能在2015年初就发表,那么最近几年目标检测的发展会不会是另外一番景象呢~   两点贡献:   1.证明单个FCN可以检测出遮挡严重、不同尺度的目标。   2

vaptcha、京东、58等手势验证码图像识别与轨迹提取(思路)

烂漫一生 提交于 2020-10-27 16:21:23
本文来自老大哥,文安哲提供! 博客跳转: https://wenanzhe.com/ 弟弟这边将会根据哲哥的文章做一个深入的总结!(文章略有改动,如果觉得有点啰嗦,可以去看看我大哥的文章!) 最近看群里面大家讨论研究手势验证码比较多,然后我也顺带研究做了一下,给各位老公们分享一下做的过程。 首先,一起来康康手势验证码长啥样! vaptcha: 京东(个人挺喜欢京东手势的背景): 58: 大概就是长这个样子,需要按照图像中的那条轨迹再图片上滑动,不得不说这类验证码确实体验感拉满,让人很想立马关掉这个网站。 下面我们以vaptcha 来进行一个讲解(vaptcha是这三个里面最恶心的,恶心程度下面会介绍到): 那么言归正传,这类验证码该怎么做识别部分呢? 按照我们正常的思维方式就是要提取出来图中轨迹的部分和形状。 之前我试验了通过opencv二值化然后提取物体轮廓等等方法,可能对单一一张图有用,但是拿到其他图上效果就不是很好了。 直到有一天我看到了一张图 瞬间就反应过来我们可以通过语义切割的方式去获取轨迹部分。 使用MaskRcnn即可相对准确的切割出我们想要的部分。 1、采集图像样本。 这里没啥好说的,通过不断地请求获取验证码得到原始的手势验证码的图像。这里我大概采集了100张左右。 2、标记样本 这里我们使用Labelme工具来标注。 传送门 标记出来的效果大概就这这个样子 3

229页CMU博士张昊毕业论文公布,探索机器学习并行化的奥秘

本小妞迷上赌 提交于 2020-10-27 09:53:46
  机器之心报道    机器之心编辑部    CMU 机器人研究所张昊(Hao Zhang)博士论文新鲜出炉,主要围绕着机器学习并行化的自适应、可组合与自动化问题展开。   随着近年来,机器学习领域的创新不断加速,SysML 的研究者已经创建了在多个设备或计算节点上并行机器学习训练的算法和系统。机器学习模型在结构上变得越来越复杂,许多系统都试图提供全面的性能。尤其是,机器学习扩展通常会低估从一个适当的分布策略映射到模型所需要的知识与时间。此外,将并行训练系统应用于复杂模型更是增加了非常规的开发成本,且性能通常低于预期。   近日,CMU 机器人研究所博士张昊公布了自己的博士学位论文《机器学习并行化的自适应、可组合与自动化》, 旨在找出并解决并行 ML 技术和系统实现在可用性和性能方面的研究挑战 。   具体而言,该论文 从可编程性、并行化表示、性能优化、系统架构和自动并行化技术等几方面对分布式并行 ML 展开了研究,并认为分布式并行机器学习可以同时实现简洁性和高效性 。此外,该论文表明,并行 ML 的性能可以通过生成自适应 ML 模型结构和集群资源范式的策略实现大幅度提升,同时通过将「如何并行化」这一核心问题形式化为端到端优化目标以及构建可组合分布式 ML 系统来自动优化这类自适应、自定义策略,进而可以解决可用性挑战。   论文链接:https://www.cs.cmu.edu/