layer

windows下用c++调用caffe做前向

偶尔善良 提交于 2021-02-11 13:10:42
参考博客: https://blog.csdn.net/muyouhang/article/details/54773265 https://blog.csdn.net/hhh0209/article/details/79830988 新建caffe的属性表,caffe_gpu_x64_release.props 将NugetPackages,caffe,CUDA中的头文件加进去 属性-C/C++-附加包含目录: D:\caffe20190311\NugetPackages\OpenCV.2.4.10 \build\native\include D:\caffe20190311\NugetPackages\OpenBLAS. 0.2.14.1 \lib\native\include D:\caffe20190311\NugetPackages\protobuf -v120.2.6.1 \build\native\include D:\caffe20190311\NugetPackages\glog. 0.3.3.0 \build\native\include D:\caffe20190311\NugetPackages\gflags. 2.1.2.1 \build\native\include D:\caffe20190311\NugetPackages\boost. 1.59.0

NLP笔记:词向量和语言模型

偶尔善良 提交于 2021-02-11 09:15:34
NLP问题如果要转化为机器学习问题,第一步是要找一种方法把这些符号数学化。 有两种常见的表示方法:    One-hot Representation,这种方法把每个词表示为一个很长的向量。这个向量的维度是词表大小,其中绝大多数元素为 0,只有一个维度的值为 1,这个维度就代表了当前的词。例如[0,0,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0]。这种表示方法会造成“词汇鸿沟”现象:不能反映词与词之间的语义关系,因为任意两个词都是正交的;而且,这种表示的维度很高。   Distributed Representation,表示的一种低维实数向量,维度以 50 维和 100 维比较常见,这种向量的表示不是唯一的。例如:[0.792, −0.177, −0.107, 0.109, −0.542, …]。这种方法最大的贡献就是让相关或者相似的词,在距离上更接近了。向量的距离可以用最传统的欧氏距离来衡量,也可以用 cos 夹角来衡量。       如果用传统的稀疏表示法表示词,在解决某些任务的时候(比如构建语言模型)会造成维数灾难。使用低维的词向量就没这样的问题。同时从实践上看,高维的特征如果要使用 Deep Learning,其复杂度太高,因此低维的词向量使用的更多。 并且 ,相似词的词向量距离相近,这就让基于词向量设计的一些模型自带平滑功能。 word2vec 是

自然语言处理--Word2vec(二)

放肆的年华 提交于 2021-02-11 09:15:01
前一篇, word2vec(一) 主要讲了word2vec一些表层概念,以及主要介绍CBOW方法来求解词向量模型,这里主要讲论文 Distributed Representations of Words and Phrases and their Compositionality 中的skip-gram model方法,这可以被视作为一种概率式方法。 前面有一篇讲过自然语言处理的词频处理方法即TF-IDF,这种方法往往只是可以找出一篇文章中比较关键的词语,即找出一些主题词汇。但无法给出词汇的语义,比如同义词漂亮和美丽意思差不多应该相近,巴黎之于法国等同于北京之于中国。对于一句话,如何根据上下文推断出中间的词语是什么,或者由某一个词推测出它的上下文一般是什么词语。这两种不同的思考方式正好对应两种Word2vec模型,即CBOW模型和Skip-gram模型。      词向量即将字词从文字空间映射到向量空间,每一个字词都会有一个对应的代表其语义的向量。我们可以用传统的N-gram方法来得到向量,即统计方法,如           对于每一个单词,都可以根据词频来得出一个对应的向量,也是根据上下文得出,有一定的语义,但是这种方式的弊端是随着语料库中词语越多,模型参数越大,假设有N个词语,则得到的模型参数为N^2,如果N很大,则非常浪费内存,而且很多词语之间本身是不相关的,即很多位置都是0

Research Guide for Video Frame Interpolation with Deep Learning

纵饮孤独 提交于 2021-02-10 18:47:40
Research Guide for Video Frame Interpolation with Deep Learning This blog is from: https://heartbeat.fritz.ai/research-guide-for-video-frame-interpolation-with-deep-learning-519ab2eb3dda In this research guide, we’ll look at deep learning papers aimed at synthesizing video frames within an existing video. This could be in between video frames, known as interpolation, or after them, known as extrapolation . The better part of this guide will cover interpolation. Interpolation is useful in software editing tools as well as in generating video animations. It can also be used to generate clear

iOS 14下面图片无法加载,包括weex、YYAnimateView、SDAnimatedImageView

≡放荡痞女 提交于 2021-02-10 17:53:57
升级xcode12后,编译运行App发现大片大片的图片加载不出来,包括weex的图片和YYAnimateView的图片都有问题。 经过一番研究之后,发现是iOS 14下UIKit对 `displayLayer:`的处理机制有所变化。 `displayLayer:`是`CALayerDelegate`的代理方法。在iOS 14之前,UIKit在调用这个方法之前就会去渲染`UIImageView.image`。 而在iOS 14,UIKit则是先去调用代理方法,如果你实现了`displayLayer:`这个方法,那么UIKit就不会再去渲染了。 如果改成下面这样就可以正常加载了: ``` - (void)displayLayer:(CALayer *)layer { UIImage *currentFrame = _curFrame; if (currentFrame) { layer.contentsScale = currentFrame.scale; layer.contents = (__bridge id)currentFrame.CGImage; } else { // If we have no animation frames, call super implementation. iOS 14+ UIImageView use this delegate method

用 tensorflow实现DeepFM

删除回忆录丶 提交于 2021-02-10 11:27:21
http://www.fabwrite.com/deepfm 文章 DeepFM: A Factorization-Machine based Neural Network for CTR Prediction 介绍了一种深度学习模型,以实现点击率预估。用 tensorflow 试着写了 DeepFM,见 https://github.com/zgw21cn/DeepFM 。 1. FNN、PNN、wide&deep等此前几种深度模型 见下图。 (1) FNN,见图左边。用 FM 预训练embedding layer,然后DNN训练。作者认为有两点局限:embedding layer 的参数会受到 FM 的影响;预训练计算量大,效率问题。同时 FNN仅能捕捉高阶特征,相比之下,DeepFM 无需预训练,且能捕捉高阶和低阶特征。 (2) PNN,见图中间。为了捕捉高阶特征间的组合作用,PNN在 embedding layer 和首层 hidden layer 间引入了 product layer。根据 product 类型的不同,有多种类型的 product layer。product 类型有内积、外积、内积和外积的混合。 PNN的局限在于,外积由于是近似计算会丢失信息而比内积不可靠;内积更可靠,但是仍会计算量大。类似于 FNN,PNN忽略了低阶特征。 (3) Wide&Deep

ios

人走茶凉 提交于 2021-02-10 06:23:28
#import <UIKit/UIKit.h> @interface ScrollUpDownView : UIView // 设置 要现实的文字 @property(nonatomic, strong)NSArray * array; // 开启定时器 - ( void )onOpenTimer; // 关闭定时器 - ( void )onOffTimer; @end #import " ScrollUpDownView.h " @interface ScrollUpDownView () @property(nonatomic, weak)UILabel * label1; @property(nonatomic, weak)UILabel * label2; @property(nonatomic, assign)NSInteger count; @property(nonatomic, strong)NSTimer * timer; @property(nonatomic, assign) CGFloat mainH; @property(nonatomic, assign) CGFloat mainW; @property(nonatomic, assign) CGFloat mainX; @property(nonatomic, assign) CGFloat

Use layer output in keras custom loss

≡放荡痞女 提交于 2021-02-09 02:48:52
问题 I am developing a custom loss function in Keras and I need the first layer output. How can I retrieve it? def custom_loss(y_true, y_pred): cross = K.mean(K.binary_crossentropy(y_true, y_pred), axis = 1) layer_output = model.get_layer_output(1) # this is what i'd like to use return cross + perturb 回答1: Checking the docs you can retrieve a layer by using the model.get_layer() method. You can then pass the desired index or well pass the name of the layer. After getting a layer you can easily

Use layer output in keras custom loss

那年仲夏 提交于 2021-02-09 02:47:33
问题 I am developing a custom loss function in Keras and I need the first layer output. How can I retrieve it? def custom_loss(y_true, y_pred): cross = K.mean(K.binary_crossentropy(y_true, y_pred), axis = 1) layer_output = model.get_layer_output(1) # this is what i'd like to use return cross + perturb 回答1: Checking the docs you can retrieve a layer by using the model.get_layer() method. You can then pass the desired index or well pass the name of the layer. After getting a layer you can easily

tensorflow2.0第2章 Tensorflow keras实战

倖福魔咒の 提交于 2021-02-09 02:05:33
本门课程的基础章节,详细介绍了如何使用tf.keras进行模型的搭建以及大量的深度学习的理论知识。理论知识包括分类问题、回归问题、损失函数、神经网络、激活函数、dropout、批归一化、深度神经网络、Wide&Deep模型、密集特征、稀疏特征、超参数搜索等及其在图像分类、房价预测上的实现。 课程代码的tensorflow版本: 大部分代码是tensorflow2.0的; 课程以tf.keras API为主,因为keras在1.3以后的版本就引入进来了,因而部分代码可以在tf1.3+运行; 另外有少量tensorflow1.*版本代码,这些版本的代码并不能在2.0上运行,因为很多API都已经过时了。 理论部分: tensorflow-keras简介; 分类问题、回归问题、损失函数; 神经网络、激活函数、批归一化、Dropout; wide&deep模型; 超参数搜索。 实战部分: keras搭建分类模型; keras回调函数; keras搭建回归模型; keras搭建深度神经网络; keras实现wide&deep模型; keras与scikit-learn实现超参数搜索。 tensorflow-keras简介 keras是什么: 基于python的高级神经网络API,它是一套API,而不是一个完整的库; Francois Chollet(现在在Google,tf