深度学习

这年头不会Python看来是不行了,推荐一份Python书单!

倖福魔咒の 提交于 2020-08-06 04:49:08
​ Python是一种跨平台的计算机程序设计语言。是一个高层次的结合了解释性、编译性、互动性和面向对象的脚本语言。最初被设计用于编写自动化脚本(shell),随着版本的不断更新和语言新功能的添加,越多被用于独立的、大型项目的开发。 Python现如今已成为真正的万金油语言,哪里需要哪里用,不管是做web,做爬虫自动化,做数据分析,甚至是做机器学习和深度学习都是信手拈来,周边的类库丰富到无法想象。 今天就来推荐一份Python书单,这年头程序员不能不会python了! Python系列书单 ​ Python基础教程 本书包括Python程序设计的方方面面:首先从Python的安装开始,随后介绍了Python的基础知识和基本概念,包括列表、元组、字符串、字典以及各种语句;然后循序渐进地介绍了一些相对高级的主题,包括抽象、异常、魔法方法、属性、迭代器;此后探讨了如何将Python与数据库、网络、C语言等工具结合使用,从而发挥出Python的强大功能,同时介绍了Python程序测试、打包、发布等知识;最后,作者结合前面讲述的内容,按照实际项目开发的步骤向读者介绍了10个具有实际意义的Python项目的开发过程。 作者简介 Magnus Lie Hetland 挪威科技大学副教授,教授算法;黑客,喜欢钻研新锐编程语言,是Python语言的坚定支持者。写过很多Python方面的书和在线教程

阿里云ECS云服务器通用型g6和g5的区别以及选择建议

半城伤御伤魂 提交于 2020-08-06 04:16:51
阿里云ECS云服务器通用型g6和g5的区别以及选择建议 阿里云ECS云服务器通用型g6和通用型g5实例有什么区别?通用型g5和g6都是用于性能均衡场景,CPU内存比都是1:4,本文来说说通用型g6和通用型g5的区别以及选择方法:官方文档: 云服务器ECS共享标准型S6实例 ECS云服务器通用型g6和通用型g5有什么区别? 顾名思义,通用型g6是通用型g5的升级版,ECS云服务器通用型g6是第六代云服务器,性能全面提升的同时价格有所下调,如何选择?云E优站长博客建议选择通用型g6实例。 通用型g6云服务器是阿里云的第六代云服务器,第六代云服务器是基于第二代Intel至强可扩展处理器,睿频从上一代2.7Ghz提升到3.2Ghz,E2E计算性能有3-15%的提升;支持vnni指令集,对于深度学习的推理场景有2-4倍性能提升;虚拟化优化性能抖动,ping flood延时超过1ms的报文数<1/100万。 通用型g6和通用型g5区别对比表 综上,阿里云ECS云服务器通用型g6是通用型g5的升级版,性能有所提升,如何选择?新手站长网还是建议性价比放在第一位,虽然通用型g6是g5的升级版,但是通用型g5的性能也不差,如果通用型g5拥有更优惠的折扣,通用型g5也是可以选择的。 来源: oschina 链接: https://my.oschina.net/u/4386652/blog/4282672

如今大火的算法框架TensorFlow,都有哪些值得一看的好书呢?

生来就可爱ヽ(ⅴ<●) 提交于 2020-08-06 03:41:43
​ TensorFlow™是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief 。 Tensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于谷歌内部的产品开发和各领域的科学研究 。 TensorFlow由谷歌人工智能团队谷歌大脑(Google Brain)开发和维护,拥有包括TensorFlow Hub、TensorFlow Lite、TensorFlow Research Cloud在内的多个项目以及各类应用程序接口(Application Programming Interface, API)。自2015年11月9日起,TensorFlow依据阿帕奇授权协议(Apache 2.0 open source license)开放源代码 。 今天这一份书单,将来介绍几本关于TensorFlow的优质书籍。 TensorFlow系列书单 ​ 走向TensorFlow 2.0:深度学习应用编程快速入门 本书探讨了开源机器学习软件库TensorFlow 2.0的诸多应用实践,内容涵盖各种热门的应用场景,包括图像识别、自然语言对话机器人、基于生成网络的图片风格迁移、文本情感分析等。

如何三步搭建一套声纹系统

偶尔善良 提交于 2020-08-06 03:23:04
背景介绍 声纹检索,顾名思义就是说话人识别,通过声音来验证或者识别说话人的声音。声纹识别的关键步骤就是声音向量化,将说话人的声音将其转化成结构化的向量。阿里云AnalyticDB向量版,提供了一套声纹验证检索的解决方案。用户只需要使用简单的几条SQL命令,三步之内就可以搭建一套高精度的声纹检索验证服务。 声纹识别技术 1)声纹检索演示 图1展示了AnalyticDB向量数据库的声纹检索系统的演示界面。为了方便用户体验,我们将380个人的声音信息,转化成向量存储在系统中。当前演示系统分成两部分,第一部分是检索部分,用户输入录制好的声音文件或者用户现场进行录音上传声音文件,提交到声纹库进行声音的匹配检索。第二部分是注册部分,用户可以注册上传自己的声音到当前的声纹库里面,方便后期的查询验证。在接下来的章节中,我们分别介绍各个功能。 图1 . 声纹演示系统 图2上传一段S0004的测试音频“BAC009S0004W0486.wav”到声纹库里面进行检索,可以看到top1的结果S0004就会在最上面进行展示。 图2 . 查询声音 图3展示了声纹注册系统,用户可以注册自己的声音到后台声纹库里面,方便检索。比方说,用户Hanchao注册自己的声音(只有7s长度),到当前的系统里面来。当前系统支持无文本注册,用户可以说任何话来进行注册。 图3 . 注册声音 图4演示用户现场录制声音,上传到系统中

阿里云ECS云服务器通用型g6和g5的区别以及选择建议

廉价感情. 提交于 2020-08-06 02:17:58
阿里云ECS云服务器通用型g6和g5的区别以及选择建议 阿里云ECS云服务器通用型g6和通用型g5实例有什么区别?通用型g5和g6都是用于性能均衡场景,CPU内存比都是1:4,本文来说说通用型g6和通用型g5的区别以及选择方法:官方文档: 云服务器ECS共享标准型S6实例 ECS云服务器通用型g6和通用型g5有什么区别? 顾名思义,通用型g6是通用型g5的升级版,ECS云服务器通用型g6是第六代云服务器,性能全面提升的同时价格有所下调,如何选择?云E优站长博客建议选择通用型g6实例。 通用型g6云服务器是阿里云的第六代云服务器,第六代云服务器是基于第二代Intel至强可扩展处理器,睿频从上一代2.7Ghz提升到3.2Ghz,E2E计算性能有3-15%的提升;支持vnni指令集,对于深度学习的推理场景有2-4倍性能提升;虚拟化优化性能抖动,ping flood延时超过1ms的报文数<1/100万。 通用型g6和通用型g5区别对比表 综上,阿里云ECS云服务器通用型g6是通用型g5的升级版,性能有所提升,如何选择?新手站长网还是建议性价比放在第一位,虽然通用型g6是g5的升级版,但是通用型g5的性能也不差,如果通用型g5拥有更优惠的折扣,通用型g5也是可以选择的。 来源: oschina 链接: https://my.oschina.net/u/4265788/blog/4282674

反卷积Deconvolution

邮差的信 提交于 2020-08-06 02:16:31
反卷积(转置卷积、空洞卷积(微步卷积))近几年用得较多,本篇博客主要是介绍一下反卷积,尤其是怎么计算反卷积(选择反卷积的相关参数) 图1 空洞卷积(微步卷积)的例子,其中下面的图是输入,上面的图是输出,显然这是一个upsampling的过程,我们也称为反卷积。 首先,既然本文题名为反卷积(Deconvolution) ,当然就是要介绍各种反卷积,不得不说的是随着近几年人工智能如火如荼,大牛纷纷在各个角度开始深入研究这个深度学习,这当然就是更广了同时也更深了,但是只要抓住深度学习的命门,其实很多工作都是顺理成章的,没有想象中的那么复杂,也许这也是我对深度学习的一点小小的感悟。反卷积,它有这几个比较熟悉的名字,例如转置卷积、上采样、空洞卷积、微步卷积,但我们认为,最直接的就是反卷积=上采样=(转置卷积+微步卷积) ⊆ 空洞卷积=一般意义上的广义卷积(包含上采样和下采样)。 另外,在概念上,我们只是将其称为反卷积,这不是通过数学意义上的严格证明,其实只是说恢复了特征图的尺寸大小,数值上存在差异。 为了方便说明,对二维的离散卷积,定义如下: 方形的特征输入( i 1 = i 2 = i ) 方形的卷积核尺寸( k 1 = k 2 = k ) 每个维度相同的步长( s 1 = s 2 = s ) 每个维度相同的padding ( p 1 = p 2 = p ) 下图表示参数为 ( i = 5

有哪些开源的 Python 库让你相见恨晚?

你说的曾经没有我的故事 提交于 2020-08-05 23:51:16
Arrow 我们知道 Python 已经内置了好几个处理时间相关的库,但是对于时间以及时区间的转换并不清晰,操作起来略繁琐,而 Arrow 可以弥补这个问题,它提供了更友好的方法,方便我们对时间,日期,格式化等操作。 很多人学习python,不知道从何学起。 很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。 很多已经做案例的人,却不知道如何去学习更加高深的知识。 那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码! QQ群:1097524789 项目地址: https://github.com/crsmithdev/arrow start:6.1k thefuck 这个名字一看就厉害啊,我们常常会使用到命令行,但有时候会对一些命令不是很熟悉,或者说偶尔出现打错命令的情况,然后有人就用 Python 搞了这个项目,当你输错命令的时候,你只要再输一个 “fuck”,就能马上更正你的命令。很牛逼有没有,以前我们一遇到不爽的,说句 woc 也没什么鸟用,但是在这里遇到不爽的,说句 fuck 还真能帮你解决问题: 项目地址: https://github.com/nvbn/thefuck star:4w+ face_recognition 这是一个强大、简单、易上手的人脸识别开源项目,并且配备了完整的开发文档和应用案例

视频滤镜算法初识

吃可爱长大的小学妹 提交于 2020-08-05 23:39:18
今天为大家介绍一下什么是滤镜,所谓滤镜,最初是指安装在相机镜头前过滤自然光的附加镜头,用来实现调色和添加效果,也就是硬件滤镜。 我们做的滤镜算法又叫做软件滤镜,是对大部分硬件镜头滤镜进行的模拟,当然,误差也就再所难免,我们的宗旨只是无限逼近。也是这个原因,我们无法再现真实的拍摄场景,无法复原照片中未包含的信息,进而也难以实现某些特殊滤镜效果,诸如偏光镜和紫外线滤色镜(UV)的效果等等。 目前,从强大的PHOTOSHOP桌面应用,到美图app等受欢迎的手机应用,都拥有着种类繁多,异彩纷呈的滤镜特效,这也是我们要了解的主角。 软件滤镜发展到今天,可以定义为广义的滤镜,这里将它通俗的分为如下几类: ①颜色(LUT)滤镜 ②几何滤镜 ③混合滤镜 ④智能滤镜 颜色(LUT)滤镜,即调色滤镜,也是最常见的滤镜,通常对一张图像像素进行某种调色之后,得到的效果,就称之为调色滤镜特效,这种滤镜特效,如果不使用纯粹的算法编程得到,而是通过LUT(LookUp Table)颜色查找表,来记录并映射调色算法,减少滤镜耗时开销,得到滤镜特效,就成为LUT滤镜,LUT滤镜是颜色滤镜的优化升级版; 几何滤镜,这个定义可以这样理解,比如哈哈镜效果,这种跟颜色无关,通过改变像素几何信息,得到的特效,称之为几何滤镜;目前FACEU,B612等流行的APP中,各种人脸变形特效都属于几何滤镜; 混合滤镜

轻量化AI服务再添两将!阿里云机器学习PAI DSW 2.0 & Alink商业版重磅发布

萝らか妹 提交于 2020-08-05 21:10:20
DSW 2.0:面向AI研发的集成开发平台 DSW(Data Science Workshop)是阿里巴巴PAI团队根据多年的AI算法和产品研发经验积累,围绕提高AI算法研发效率,降低研发成本而推出的一款适用于各类AI开发者的云端机器学习集成开发环境。DSW2.0是借助阿里云ECS,Docker和Kubernetes等云原生技术,能够在几分钟内帮用户完成环境搭建,相对DSW1.0开放更高的开发权限,满足各个层面客户的使用需求。 云原生架构 DSW借助阿里云ECS,Docker和Kubernetes等云原生技术,能够在几分钟内帮用户完成环境搭建。用户可以根据算法需要和成本考虑,选择阿里云ECS提供的包括CPU和异构计算GPU在内的所有资源规格。 满足不同层次开发习惯 结合交互式编程和命令行输入,DSW提供了三种编程入口: WebIde适用于工程化要求比较高的项目;JupyterLab适用于快速POC试验;Terminal入口可用于快速执行Shell命令,运行程序和简单的编辑等。 预装丰富插件 DSW还开发和预装了各种JupyterLab和WebIDE插件,比如广受深度学习开发者喜爱的可视化工具Tensorboard,用户在DSW内通过Launcher,Commands打开,甚至还可以使用%tensorboard魔法命令直接在Notebook中开启等多种方式使用Tensorboard

[转]用深度学习给黑白照片上色

坚强是说给别人听的谎言 提交于 2020-08-05 20:37:33
用深度学习给黑白照片上色 觉得有用的话,欢迎一起讨论相互学习~ 转载自 https://www.jianshu.com/p/ab1a003f2275#4 真诚感谢简书博主氧化反应的分享,让我学习到了很多! 深度学习里面有很多看起来很简单但是实际却有大用场的算法。Autoencoder作为其中的一种就是。作为一种无监督学习的手段,autoencoder在维度灾难里为数据降维有着深远的意义。 什么是Autoencoder呢?我大概的理解是这样的,比如说我们提取一张500x500的彩色图片的时候,按照每个像素来算就有500x500x3(RGB颜色)=750000个像素,这么多的像素就得对应这么多的权重,如果再是大一点的数据那训练的时候用的资源就海了去了。但是,图片里每一个像素都是有用的么?不尽然,比如我想要一个模型,来感知一张人脸是开心还是不开心,除了面部的那些像素,其余的很多像素都是浪费的,或者说对判别人的表情不是那么重要的,而且这些有用的像素分布在一个三维的空间里,就像一大袋米里面的几颗绿豆,这种稀疏性也会给训练带来不必要的麻烦。那我怎么能把图中的信息浓缩起来?用极少甚至一个维度的向量就能表示最重要的信息呢? Autoencoder就是很好的一个工具。给一个图。 假设我们用cnn的方法对一张图做autoencoding, 大家知道cnn网络是提取图里的有效信息