wise

OPPO没有梦想

雨燕双飞 提交于 2021-02-14 16:54:45
撰文 / 张楠 编辑 / 李幼薇 OPPO正在原地踏步。 2019年,据IDC公布的中国手机排行显示,OPPO排在小米后位居第五,而到了2020年,OPPO却仍然排在小米后位居第五。 有人说,OPPO离它的对手越来越远,也有人说OPPO仍然在前进,只是走得没有以前快了。 实际上,OPPO正在面临产品能力的丧失,这家17岁的公司正在变得“老气横秋”,没有“年轻人”应有的冲劲,甚至就连比它大16岁的华为已经跃居全球出货量第二大手机公司,排名仅次于三星。 虽然陈明永在今年的创新大会上提及对于友商他并不太参与,而更多的是本分做事,但一个不争的事实是,OPPO已经走得过于缓慢,直到今天它才提出三驾马车式的生态战略,以及IoT布局。 OPPO也想奋起直追,它在用一种自认为最科学的经营方式经营着一家硬件公司,但在实战中却忽视了一点:这个行业中落后了就会被永远落下。OPPO在IoT和生态战略面临小米、华为的挑战时,也显得手足无措。 01 主战场遭打击 最新的例子是Find X2系列。2019年3月,OPPO推出高端旗舰机Find X2系列,定价6999元高位,但这次并没有引起Find系列初期的销售效果。 Find系列是OPPO于2018年6月发布的首款高端旗舰机,售价4999元起。在当时这款手机引爆了销售热潮,可以说是OPPO高端史上最为畅销的一款手机,在当年甚至比肩华为。 “Find

caffe solver 配置详解

こ雲淡風輕ζ 提交于 2021-02-14 02:30:08
caffe solver通过协调网络前向推理和反向梯度传播来进行模型优化,并通过权重参数更新来改善网络损失求解最优算法,而solver学习的任务被划分为:监督优化和参数更新,生成损失并计算梯度。caffe solver是caffe中的核心,它定义着整个模型如何运转,不管是命令行方式还是pycaffe接口方式进行网络训练或测试,都是需要一个solver配置文件的,而solver的配置参数总共有42个,罗列如下: net weight_decay net_param regularization_type train_net stepsize test_net stepvalue train_net_param clip_gradients test_net_param snapshot train_state snapshot_prefix test_state snapshot_diff test_iter snapshot_format test_interval solver_mode test_compute_loss device_id test_initialization random_seed base_lr type display delta average_loss momentum2 max_iter rms_decay iter_size debug

一文解读 | 计算机视觉中的注意力机制

回眸只為那壹抹淺笑 提交于 2021-02-13 02:55:46
点击上方“ 迈微电子研发社 ”,选择“ 星标★ ”公众号 重磅干货,第一时间送达 之前在看DETR这篇论文中的self_attention,然后结合之前实验室组会经常提起的注意力机制,所以本周时间对注意力机制进行了相关的梳理,以及相关的源码阅读了解其实现的机制. 一、注意力机制(attention mechanism) attention机制可以它认为是一种资源分配的机制,可以理解为对于原本平均分配的资源根据attention对象的重要程度重新分配资源,重要的单位就多分一点,不重要或者不好的单位就少分一点,在深度神经网络的结构设计中,attention所要分配的资源基本上就是权重了。 视觉注意力分为几种,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征,有通道注意力,像素注意力,多阶注意力等,也有把NLP中的自注意力引入。 二、自注意力(self-attention) 参考文献: Attention is All you Need http://papers.nips.cc/paper/7181-attention-is-all-you-need 参考资料: zhuanlan.zhihu.com/p/48 GitHub: git hub.com/huggingface/ 自注意力有时候也称为内部注意力,是一个与单个序列的不同位置相关的注意力机制

Python中乘法

与世无争的帅哥 提交于 2021-02-12 04:00:54
1.numpy乘法运算中"*"或multiply(),是数组元素逐个计算,具体代码如下: import numpy as np # 2-D array: 2 x 3 two_dim_matrix_one = np.array([[1, 2, 3], [4, 5, 6]]) another_two_dim_matrix_one = np.array([[7, 8, 9], [4, 7, 1]]) # 对应元素相乘 element-wise product element_wise = two_dim_matrix_one * another_two_dim_matrix_one print('element wise product: %s' %(element_wise)) # 对应元素相乘 element-wise product element_wise_2 = np.multiply(two_dim_matrix_one, another_two_dim_matrix_one) print('element wise product: %s' % (element_wise_2))    2.numpy乘法运算中dot是按照矩阵乘法的规则来运算的,具体实现代码如下: 来源: oschina 链接: https://my.oschina.net/u/4395699/blog

计算机视觉中的注意力机制

给你一囗甜甜゛ 提交于 2021-02-02 21:57:10
点击上方 “ 机器学习与生成对抗网络 ”,关注"星标" 获取有趣、好玩的前沿干货! 作者:HUST小菜鸡 https://zhuanlan.zhihu.com/p/146130215 文仅交流,未经允许不得转载 之前在看DETR这篇论文中的self_attention,然后结合之前实验室组会经常提起的注意力机制,所以本周时间对注意力机制进行了相关的梳理,以及相关的源码阅读了解其实现的机制 一、注意力机制(attention mechanism) attention机制可以它认为是一种资源分配的机制,可以理解为对于原本平均分配的资源根据attention对象的重要程度重新分配资源,重要的单位就多分一点,不重要或者不好的单位就少分一点,在深度神经网络的结构设计中,attention所要分配的资源基本上就是权重了 视觉注意力分为几种,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征,有通道注意力,像素注意力,多阶注意力等,也有把NLP中的自注意力引入。 二、自注意力(self-attention) 参考文献:Attention is All you Need 参考资料:https://zhuanlan.zhihu.com/p/48508221 GitHub:https://github.com/huggingface/transformers

总结:机器学习中的基本数学知识

℡╲_俬逩灬. 提交于 2021-01-29 17:46:20
注:本文的代码是使用Python 3写的。 机器学习中的基本数学知识 线性代数(linear algebra) 第一公式 矩阵的操作 换位(transpose) 矩阵乘法 矩阵的各种乘积 内积 外积 元素积(element-wise product/point-wise product/Hadamard product 加 低等数学 几何 范数(norm) 拉格朗日乘子法和KKT条件 微分(differential) 表示形式 法则 常见导数公式 统计学/概率论 信息论 香农熵(Shannon Entropy) 博弈论 不知道放到哪儿 机器学习 激活函数 损失函数 附录 希腊字母的含义和发音 数学符号的含义和发音 参照 线性代数(linear algebra) 第一公式 f(x)=xwT+b 这是在机器学习中,最常见的公式。我把这个称为机器学习的第一公式,实际上就是线性分类函数(linear classifier)。 训练分类器的目标就是求出 ( w , b ) (w,b) 。 其中: x x 是一个一行矩阵 [ [ x 1 , x 2 , . . . , x n ] ] [[x1,x2,...,xn]] 。 w w 是一个一行矩阵 [ [ w 1 , w 2 , . . . , w n ] ] [[w1,w2,...,wn]] 。 x x 和 w w 的维度相同。 b b

[阅读笔记]Attention Is All You Need

无人久伴 提交于 2021-01-11 08:13:34
Transformer 本文介绍了 Transformer 结构, 是一种 encoder-decoder , 用来处理序列问题, 常用在NLP相关问题中. 与传统的专门处理序列问题的encoder-decoder相比, 有以下的特点: 结构完全 不依赖于CNN和RNN 完全依赖于 self-attention 机制, 是一种 堆叠的self-attention 使用 全连接层 逐点 point-wise 计算的 整个Transformer的结构图如下所示: Encoder and Decoder Stacks 如上所说, Transformer是基于 stacked self-attention 的, stack 方式具体为: Encoder Encoder是由$N=6$个独立的层堆叠而成的, 每层有两个子层: 第一个层为 multi-head self-attention 结构 第二层为 simple, position-wise fully connected feed-forward network , 即基于位置的简单全连接反馈网络 在每个子层又引入了 residual connection , 具体的做法为每个子层的输入与输出 相加 , 这就要求每个子层的输入与输出的维度是完全相等的. 然后再使用 layer normalization . 因此每个子层的最终输出为:

论文笔记:Attention Is All You Need

半城伤御伤魂 提交于 2021-01-11 07:53:14
Attention Is All You Need 2018-04-17 10:35:25 Paper: http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version): https://github.com/jadore801120/attention-is-all-you-need-pytorch Video Tutorial: https://www.youtube.com/watch?v=S0KakHcj_rs 另一个不错的关于这个文章的 Blog: https://kexue.fm/archives/4765 1. Introduction:   现有的做 domain translation 的方法大部分都是基于 encoder-decoder framework,取得顶尖性能的框架也都是 RNN + Attention Mechanism 的思路。而本文别出心裁,仅仅依赖于 attention 机制,就可以做到很好的性能,并且,这种方法并适用于并行(parallelization)。    2. Model Architecture :   大部分神经序列转换模型(neural sequence transduction models)都有 encoder

CVPR 2020 论文大盘点-抠图Matting篇

拥有回忆 提交于 2020-12-29 12:50:57
抠图 (Image Matting)是一个非常有趣的领域,它的任务是对图像前景像素的不透明度(alpha 通道)进行计算,方便后续的图像合成编辑。 传统的Matting方法需要输入三色图(Trimap),如下: 该 图来自 :http://wangchuan.github.io/archive/projects/robust-matting/ 上图中第一行是原图,第二行是Trimap,Trimap用三个数值标识了三类区域:肯定是背景、肯定是前景和不确定,即图中黑、白、灰。 但近来Matting领域一大特征是越来越多的算法尝试无需输入Trimap的抠图,并有了非常惊艳的表现,这大大提高了Matting的易用性,CVPR 2020 三篇 Matting相关论文均如此。 在短视频应用持续爆发的当下,基于此类技术抠图再图像合成, 无需绿幕 即可实现 大片特效 的需求肯定会越来越多。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 如果想要下载所有CVPR 2020论文,请点击这里: CVPR 2020 论文全面开放下载,含主会和workshop [1].Background Matting: The World Is Your Green Screen 作者 | Soumyadip Sengupta, Vivek

金蝶K3 WISE BOM多级展开_BOM成本表

微笑、不失礼 提交于 2020-12-26 03:44:39
/* ***** Object: StoredProcedure [dbo].[pro_bobang_BOMCost] Script Date: 07/29/2015 16:09:11 ***** */ SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON drop proc pro_bobang_BOMCost GO create PROC [ dbo ] . [ pro_bobang_BOMCost ] @FBomNumber1 varchar ( 50 ), -- bom单号 @FBomNumber2 varchar ( 50 ) -- bom单号 as begin SET ANSI_WARNINGS OFF set nocount on -- 1.--业务员查找某个BOM单,包含所有BOM(已使用,未使用,已审核,未审核) with cte as ( select convert ( varchar ( 100 ), '' ) as cen,Finterid,FBOMNumber as fppbomnumber, convert ( varchar ( 50 ), '' ) as fpbomnumber,Fbomnumber AS FCbomnumber,fitemid,fitemid as fpitemid, 0 as