特征向量

不一样的「注意力」:人机交互注意力的测量指标与利用

為{幸葍}努か 提交于 2020-08-05 18:06:55
本文将探讨人机交互中的注意力问题。 机器之心分析师网络,作者:仵冀颖,编辑:Joni Zhong。 本文我们关注注意力(Attention)问题。在这里,我们谈到的注意力与大家非常熟悉的机器学习中的注意力模型(Attention Model,AM)不同,本文讨论的是人机交互中的注意力问题。 人机交互中的这种注意力也被称为是用户的关注焦点(User's focus Of Attention)。人机交互中的注意力是构造社交机器人(Social Robot)的重要问题,也在普适计算和智能空间等人机交互应用中起到非常重要的作用,因为在这些应用中,必须能够持续的监控用户的目标和意图。 通过引入并有效测量注意力,能够改进人机交互的方式、效率和效果。一般认为,主要通过眼睛注视(Eye gaze)和头部姿势动态(Head)等来确定注意力 [1]。针对这些测量指标,研究者需要结合机器视觉和其他传感技术,测量和计算交互中的注意力指标,并且利用这些指标对机器人的行为进行控制。另一方面,这些指标也可以作为衡量社交机器人或者机器人辅助治疗中的效果。 本文首先介绍了一种用于社交机器人的人机交互方法,该方法根据目标人当前的视觉注意力焦点来吸引和控制目标人的注意力,从而建立人和机器人之间的沟通渠道。这也是社交机器人中注意力的最直接的研究和应用。此外,本文还介绍了两个在人与机器交流场景中的注意力应用

内容社区,为什么有必要做内容标签系统?

允我心安 提交于 2020-08-05 04:32:20
社区内容量很大时,内容曝光有限,非常影响社区作者创作的积极性。为了解决内容曝光有限的问题,内容标签系统不失为一种有效的解决方案。本文结合一些案例来探讨,做内容标签系统的必要性。 一、问题背景 社区产品中,在内容量大的情况下,曝光数量和内容总量相比,是十分有限的,对社区作者很不利。 我们以一个案例来分析一下,曝光有限对作者的严重危害。 某社区起步时有1千个作者,发展两年后,作者变为原先的100倍,也就是10万。每一位作者的每天能发布数量都在一个正常范围内,即人均发布数量一定。 刚起步时,社区的作者数量是较少的,因此每天的内容新增量也少。在社区中发布后,非常容易被曝光到读者用户,被用户阅读互动。 当作者变为10万后,人均发布数量一定时,对应每天的内容新增量变为原先的100倍。虽然读者的用户量也有一定比例增长,但由于内容新增量更多了,每个作者发布的内容被曝光的机会,会变得更加稀有和珍贵。 一旦曝光需求没有得到满足,作者就无法收到读者的阅读互动反馈,也就无法形成正向激励。 我们知道,看一个社区的价值,可以是看作者的规模及质量。比如YY直播,看的是主播;知乎,看的是大V等回答者;B站视频,看的是UP主。 一个无法满足作者曝光需求的社区,无疑会导致作者粘性降低,非常容易流失,甚至跑去竞争对手的平台。 二、标签的定义 为了解决内容曝光有限的问题,内容标签系统不失为一种有效的解决方案。

图卷积神经网络 GCN 沈华伟(1 谱方法)

↘锁芯ラ 提交于 2020-08-05 02:13:40
视频连接: 2020 CCF 沈华伟 GNN 1. 概述 卷积神经网络的成功的原因:能够学习到数据中局部信息,通过局部化卷积核,实际上是一种参数共享的方式。 然后通过逐层堆叠的方式,把局部的卷积核变成多尺度的层次模式。从而实现特征学习的一个效果。 1.1 局部卷积核: 平移不变性,可以得到与位置无关的一些pattern 2. 卷积的迁移 2.1 难点 怎么将欧氏空间的卷积转移到非欧氏空间(non-Euclidean domain)中,比如说graph,其结构是非规则的难以定义卷积。 图像与网络: 我们可以想象为一个规则的网络,像素代表一个节点,其卷积核可以简单的定义。但是真实世界中的网络,要远比上述网络复杂。 真实网络节点的度分布差异非常大,有类似核心节点(微博大 V ),也有类似边缘节点,不像图像抽象出的网络只有上下左右存在度。 每个节点的邻居数不同,所以 很难定义满足平移不变性的卷积核 。这是图上定义卷积的很大的一个难点。 2.2 网络卷积的运用 CNN 迁移到图上定义图上,总体来说还是这两点: 如何定义图上的卷积;定义图上的pooling(下采样这样的操作),但是pooling和具体的任务相关,如果和节点相关,也就不需要下采样。 2.2.1 卷积: 两个函数点积之后,做积分,生成第三个函数 信号处理中,g即一个方波;f即为是个信号,横轴为时间。 离散情况下,如图像中

强化学习(八)价值函数的近似表示与Deep Q-Learning

為{幸葍}努か 提交于 2020-08-04 16:55:40
    在强化学习系列的 前七篇 里,我们主要讨论的都是规模比较小的强化学习问题求解算法。今天开始我们步入深度强化学习。这一篇关注于价值函数的近似表示和Deep Q-Learning算法。     Deep Q-Learning这一篇对应Sutton书的第11章部分和UCL强化学习课程的第六讲。 1. 为何需要价值函数的近似表示     在之前讲到了强化学习求解方法,无论是动态规划DP,蒙特卡罗方法MC,还是时序差分TD,使用的状态都是离散的有限个状态集合$\mathbb{S}$。此时问题的规模比较小,比较容易求解。但是假如我们遇到复杂的状态集合呢?甚至很多时候,状态是连续的,那么就算离散化后,集合也很大,此时我们的传统方法,比如Q-Learning,根本无法在内存中维护这么大的一张Q表。         比如经典的冰球世界(PuckWorld) 强化学习问题,具体的动态demo见 这里 。环境由一个正方形区域构成代表着冰球场地,场地内大的圆代表着运动员个体,小圆代表着目标冰球。在这个正方形环境中,小圆会每隔一定的时间随机改变在场地的位置,而代表个体的大圆的任务就是尽可能快的接近冰球目标。大圆可以操作的行为是在水平和竖直共四个方向上施加一个时间步时长的一个大小固定的力,借此来改变大圆的速度。环境会在每一个时间步内告诉个体当前的水平与垂直坐标

第二次作业:卷积神经网络 part01

百般思念 提交于 2020-08-04 12:38:50
视频学习 机器学习的数学基础 特征向量形象化的描述: 对一个矩阵施加线性变换后,使矩阵发生尺度变化而不改变方向。 秩形象化的描述: 秩序,复杂度,一个数据分布很容易被捕捉,则秩小,很难被捕捉,则秩大。 数据降维: 只保留前R个较大奇异值及其对应的特征向量(较大奇异值包含了矩阵的主要信息)。 低秩近似 :保留决定数据分布的最主要的模式/方向(丢弃的可能是噪声或其他不关键的信息)。 概率/函数形式的统一: 问题补充: 逐层训练时,在训练下一层时,会冻结上一层的参数。 逐层预训练初始化参数是为了更好的初始化,使其落到比较好的区域里面。 策略设计:训练误差->泛化误差 免费午餐定理: 奥卡姆剃刀原理: “如无必要,勿增实体”, 即“简单有效原理”。如果多种模型能够同等程度地符合一个问题的观测结果,应选择其中使用假设最少的->最简单的模型。 欠拟合和过拟合的解决办法: 频率学派VS贝叶斯学派: 频率学派VS机器学习方法: 卷积神经网络基本组成结构 卷积神经网络的应用: 分类、检索、检测、分割人脸识别、人脸验证、人脸表情识别、图像生成图像风格转换、自动驾驶。 传统神经网络VS卷积神经网络: ​ 深度学习的三部曲: ​ 1.搭建神经网络结构 ​ 2.找到一个合适的损失函数 ​ 3.找到一个合适的优化函数,更新参数 ​ 损失函数: ​ 全连接网络处理图像的问题:参数太多:权重矩阵的参数太多-

从拉普拉斯矩阵说到谱聚类

你。 提交于 2020-08-04 09:56:51
从拉普拉斯矩阵说到谱聚类 0 引言 11月1日上午, 机器学习班 第7次课,邹讲聚类( PPT ),其中的谱聚类引起了自己的兴趣,邹从最基本的概念:单位向量、两个向量的正交、方阵的特征值和特征向量,讲到相似度图、拉普拉斯矩阵,最后讲谱聚类的目标函数和其算法流程。 课后自己又琢磨了番谱聚类跟拉普拉斯矩阵,打算写篇博客记录学习心得, 若有不足或建议,欢迎随时不吝指出,thanks。 1 矩阵基础 在讲谱聚类之前,有必要了解一些矩阵方面的基础知识。 1.0 理解矩阵的12点数学笔记 如果对矩阵的概念已经模糊,推荐国内一人写的《理解矩阵by孟岩》系列,其中,抛出了很多有趣的观点,我之前在阅读的过程中做了些笔记,如下: “1、简而言之:矩阵是线性空间里的变换的描述,相似矩阵则是对同一个线性变换的不同描述。那,何谓空间?本质而言,“空间是容纳运动的一个对象集合,而变换则规定了对应空间的运动”by孟岩。在线性空间选定基后,向量刻画对象的运动,运动则通过矩阵与向量相乘来施加。然,到底什么是基?坐标系也。 2、有了基,那么在(1)中所言的则应是:矩阵是线性空间里的变换的描述,相似矩阵则是对同一个线性变换在不同基(坐标系)下的不同描述。出来了两个问题,一者何谓变换,二者不同基(坐标系)如何理解?事实上,所谓变换,即空间里从一个点(元素/对象)到另一个(元素对象)的跃迁,矩阵用来描述线性变换。基呢

图数据表征学习,绝不止图神经网络一种方法

泪湿孤枕 提交于 2020-07-29 02:29:51
      作者 | Mr Bear    编辑 | 丛 末   近年来,图神经网络掀起了将深度学习方法应用于图数据分析的浪潮。不过其作为一门古老的认识世界的方法论,人们对于图数据表征技术的研究从很早以前就开始了。   图数据表征学习,远不止图神经网络一种方法。   本文是一篇出自帝国理工学院的图表征学习综述,详细介绍了图核、卷积、图神经网络、图嵌入、概率模型共五类图表征学习方法的起源与发展,并对图数据表征学习方法的最新进展和未来发展方向进行总结和讨论。      原文地址:https://arxiv.org/abs/1906.02989    1    引言   将数据构造为图的形式可以帮助我们以一种系统化的方式研究如何发掘复杂的关系和模式。例如,互联网图展示出了给定网页间高频链接的复杂结构;在自然语言处理领域中,人们有时以树的形式表征文本,理解单词之间的联系,从而推断出句子的意义。   然而,机器学习领域的研究主要关注于向量形式的表征,而真实世界中的数据并不能很轻易地被表征为向量。现实世界场景下复杂图结构的例子包括:生物学网络、计算机网络、传感器网络、社交网络、论文引用网络、电力网络和交通网络。通过使用基于图的表征,我们可以捕获结构化数据的顺序、拓扑、集合和其它关系特性。   神经网络是通用的函数近似器。近年来的研究进展表明,深度学习模型已经在语音识别、目标识别与探测

OpenCV开发笔记(六十三):红胖子8分钟带你深入了解SIFT特征点(图文并茂+浅显易懂+程序源码)

心不动则不痛 提交于 2020-07-28 19:27:55
若该文为原创文章,未经允许不得转载 原博主博客地址: https://blog.csdn.net/qq21497936 原博主博客导航: https://blog.csdn.net/qq21497936/article/details/102478062 本文章博客地址: https://blog.csdn.net/qq21497936/article/details/106755662 各位读者,知识无穷而人力有穷,要么改需求,要么找专业人士,要么自己研究 红胖子(红模仿)的博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中…(点击传送门) OpenCV开发专栏(点击传送门) 上一篇:《 OpenCV开发笔记(六十二):红胖子8分钟带你深入了解亚像素角点检测(图文并茂+浅显易懂+程序源码) 》 下一篇:持续补充中… <br> 前言   红胖子,来也!   识别除了传统的模板匹配之外就是体征点了,此篇介绍了SIFT特征点提取使用方法。 <br> Demo             <br> SIFT特征点 概述   SIFT,即尺度不变特征变换(Scale-invariant feature transform,SIFT),是用于图像处理领域的一种描述。这种描述具有尺度不变性

PCA的工作原理

|▌冷眼眸甩不掉的悲伤 提交于 2020-07-28 13:40:42
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。 当然我并不打算把文章写成纯数学文章,而是希望用直观和易懂的方式叙述PCA的数学原理,所以整个文章不会引入严格的数学推导。希望读者在看完这篇文章后能更好的明白PCA的工作原理。 数据的向量表示及降维问题 一般情况下,在数据挖掘和机器学习中,数据被表示为向量。例如某个淘宝店2012年全年的流量及交易情况可以看成一组记录的集合,其中每一天的数据是一条记录,格式如下: (日期, 浏览量, 访客数, 下单数, 成交数, 成交金额) 其中“日期”是一个记录标志而非度量值,而数据挖掘关心的大多是度量值,因此如果我们忽略日期这个字段后,我们得到一组记录,每条记录可以被表示为一个五维向量,其中一条看起来大约是这个样子: 注意这里我用了转置,因为习惯上使用列向量表示一条记录(后面会看到原因),本文后面也会遵循这个准则。不过为了方便有时我会省略转置符号,但我们说到向量默认都是指列向量。 我们当然可以对这一组五维向量进行分析和挖掘

Numpy(3)—— 线性代数相关函数

↘锁芯ラ 提交于 2020-07-27 11:33:21
diag:以一维数组的形式返回方阵的对角线(或非对角线)元素,或将一维数组转换为方阵(非对角线元素为0)。 # numpy.linalg 中有一组标准的矩阵分解运算以及诸如求逆和行列式之类的东西 # np.linalg.diag 以一维数组的形式返回方阵的对角线(或非对角线)元素, # 或将一维数组转换为方阵(非对角线元素为0) e = np.diag(d) f = np.diag(e) print('d: \n{}'.format(d)) print('e: \n{}'.format(e)) print('f: \n{}'.format(f)) dot:矩阵乘法。 # 矩阵b的第二维大小,必须等于矩阵c的第一维大小 d = b.dot(c) # 等价于 np.dot(b, c) trace:计算对角线元素的和。 g = np.trace(d) det:计算矩阵行列式。 h = np.linalg.det(d) eig:计算方阵的特征值和特征向量。 # eig,计算特征值和特征向量 # u为特征值,v为特征向量 u,v = np.linalg.eig(d) inv:计算方阵的逆。 tmp = np.random.rand(3, 3) j = np.linalg.inv(tmp) 来源: oschina 链接: https://my.oschina.net/u/4255948