Semantic

KDD 2020 | 会话推荐系统新进展:基于互信息最大化的多知识图谱语义融合

徘徊边缘 提交于 2021-02-13 08:35:06
论文标题: Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion 论文来源: ACM SIGKDD 2020 论文链接: https://arxiv.org/abs/2007.04032 会话推荐系统(conversation recommender system, CRS)旨在通过交互式的会话给用户推荐高质量的商品。通常CRS由寻求商品的user和推荐商品的system组成,通过交互式的会话,user实时表达自己的意图,system理解user的偏好并推荐商品。目前会话推荐系统有两个问题需要解决。首先,对话数据本身缺少足够的上下文信息,无法准确地理解用户的偏好(传统的推荐任务会有历史交互序列或者用户属性,但是该场景下只有对话的记录)。其次,自然语言的表示和商品级的用户偏好之间存在语义鸿沟(在“Can you recommend me a scary movie like Jaws”中,用户偏好反映在单词”scary“和电影实体”Jaws“上,但这两类信息天然存在语义的差异)。 为了解决上述问题,本文提出了模型 KG -based S emantic F usion approach(KGSF),通过互信息最大化的多知识图谱语义融合技术

Redis BGSAVE因为内存不足 fork 失败导致目标 Redis 无法访问的问题

本小妞迷上赌 提交于 2021-02-11 10:32:55
中秋的时候正在外面愉快的在外卖喝着咖啡玩电脑。。。。。。突发 redis 报警从 sentry 应用端曝出的错误 MISCONF Redis is configured to save RDB snapshots, but it is currently not able to persist on disk. Commands that may modify the data set are disabled, because this instance is configured to report errors during writes if RDB snapshotting fails (stop-writes-on-bgsave-error option). Please check the Redis logs for details about the RDB error. 于是又开始愉快的处理问题了,看上去像是执行 rdb 快照持久化的时候出现的问题,上到 redis 机器查看日志定位详细问题 420 :M 14 Sep 15 : 56 : 27.067 # Can ' t save in background: fork: Cannot allocate memory 420 :M 14 Sep 15 : 56 : 33.071 * 10000 changes

ResNet、Faster RCNN、Mask RCNN是专利算法吗?盘点何恺明参与发明的专利

爱⌒轻易说出口 提交于 2021-02-08 13:22:39
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 前段时间OpenCV正式将SIFT算法的实现从Non-free模块移到主库,因SIFT专利到期了(专利授权后,从申请日开始有20年的保护期)。 美国林肯总统称" 专利制度是给天才之火浇上利益之油 ",专利保护了申请人的利益,促进了科技的进步,但现在也有越来越多的滥用专利权对产业机构敲诈的案例出现。 SIFT 专利权的终结让我们不得不思考,还有哪些著名的算法被申请了专利?对于做研究的朋友来说不需要考虑这个问题,专利算法依然可以参考、复现、对比,但对于产业界朋友就不得不确认清楚:项目中有没有可能使用了别人专利保护算法。 作为计算机视觉领域当今翘楚,两度获得CVPR 最佳论文奖的何恺明大佬有很多论文都具有重大影响力。其部分论文引用数据: 残差网络 ResNet 被引用 51939 次、目标检测算法 Faster RCNN 被引用 20291 次、实例分割算法 Mask RCNN 被引用 7249 次,暗通道去雾被引用 4274 次,这些知名的算法有成百上千的开源实现,也肯定被大量的商业公司使用,有没有被申请专利? 想想 ResNet 如果被申请专利,那恐怕大多数使用深度学习的商业公司都在侵权了!价值难以估计! 带着这样的疑问,CV君检索了所有与“ Kaiming He ”相关的已经公开的授权专利和专利申请

Flink kafka source & sink 源码解析

感情迁移 提交于 2021-02-08 11:26:13
Flink kafka source & sink 源码解析 吴鹏 Flink 中文社区 摘要:本文基于 Flink 1.9.0 和 Kafka 2.3 版本,对 Flink Kafka source 和 sink 端的源码进行解析,主要内容分为以下两部分:1.Flink-kafka-source 源码解析 * 流程概述 * 非 checkpoint 模式 offset 的提交 * checkpoint 模式下 offset 的提交 * 指定 offset 消费 2.Flink-kafka-sink 源码解析 * 初始化 * Task运行 * 小结 Tips:Flink 中文社区征稿啦,感兴趣的同学可点击「阅读原文」了解详情~ 1.Flink-kafka-source 源码解析 流程概述 一般在 Flink 中创建 kafka source 的代码如下: StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); //KafkaEventSchema为自定义的数据字段解析类 env.addSource(new FlinkKafkaConsumer<>("foo", new KafkaEventSchema(), properties) 而 Kafka 的

[计算机视觉论文速递] 2018-04-28

泪湿孤枕 提交于 2021-02-02 14:47:20
通知:这篇文章有6篇论文速递信息,涉及视觉跟踪、Zero-shot Learning、GAN和人员计数等方向(含2篇CVPR论文) [1]《View Extrapolation of Human Body from a Single Image》 CVPR 2018 Abstract:我们研究如何从单个图像合成人体的新视图。尽管最近基于深度学习的方法对于刚性物体很适用,但它们通常在大型关节的物体(如人体)上失败。现有方法的核心步骤是将可观察的视图与CNN的新视图相匹配;然而,人体丰富的发音模式使得CNN很难记忆和插入数据。为了解决这个问题,我们提出了一种新的基于深度学习的pipeline,明确地估计和利用underlying人体的几何形状。我们的pipeline是一个形状估计网络和一个图像生成网络的组合,并且在接口处应用透视变换来生成像素值传输的正向流。我们的设计能够将数据变化的空间分解出来,并使每一步的学习变得更容易。经验上,我们表明姿态变化对象的性能可以大大提高。我们的方法也可应用于3D传感器捕获的实际数据,并且我们的方法生成的流可用于生成高分辨率的高质量结果。 arXiv: https://arxiv.org/abs/1804.04213 视觉跟踪 [2]《VITAL: Visual Tracking via Adversarial Learning》 CVPR 2018

使用多尺度空间注意力的语义分割方法

大憨熊 提交于 2021-01-30 09:37:33
点击上方“AI公园”,关注公众号,选择加“星标“或“置顶” 作者: Abhinav Sagar 编译:ronghuaiyang 导读 用于自动驾驶的新的state of the art的网络。 本文提出了一种新的神经网络,利用不同尺度的多尺度特征融合来实现精确高效的语义分割。 重点 我们在下采样部分使用了膨胀卷积层,在上采样部分使用了转置卷积层,并在concat层中对它们进行拼接。 alternate blocks之间有跳跃连接,这有助于减少过拟合。 我们对我们的网络训练和优化细节进行了深入的理论分析。 我们在Camvid数据集上使用每个类的平均精度和IOU作为评价指标来评估我们的网络。 我们的模型在语义分割上优于之前的state of the art网络,在超过100帧每秒的速度下,平均IOU值为74.12。 语义分割 语义分割需要对输入图像的每个像素预测一个类,而不是对整个输入图像进行分类。为了预测图像中每个像素的内容,分割不仅需要找到输入图像中的内容,还需要找到它的位置。语义分割在自动驾驶、视频监控、医学影像等方面都有应用。这是一个具有挑战性的问题,因为要在准确性和速度之间进行权衡。由于模型最终需要在现实环境中部署,因此精度和速度都应该很高。 数据集 在训练和评估中使用了CamVid数据集。数据集提供了ground truth标签,将每个像素与32个类中的一个相关联

语义分割--(DeepLabv3+)Encoder-Decoder with Atrous Separable Convolution for Semantic

拈花ヽ惹草 提交于 2021-01-22 04:42:31
语义分割--(DeepLabv3+)Encoder-Decoder with Atrous Separable Convolution for Semantic .. https://blog.csdn.net/u011974639/article/details/79518175 DeepLabv3+ Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation 原文地址: DeepLabv3+ 注意本文的一作 L i a n g − C h i e h C h e n Liang-Chieh Chen L i a n g − C h i e h C h e n 参与了 DeepLab系列 ,MaskLab和 MobileNet系列 的工作。本文是在DeepLabv3的基础上将多个技术融合到一起,达到新的state-of-the-art。 论文在提出了DeepLabv3+架构。主要以DeepLabv3做encoder架构,decoder采用一个简单却有效的模块。并探索了了改进的Xception和深度分离卷积在模型中的应用,进一步提升模型在语义分割任务上的性能。 Abstract 空间金字塔模块在输入feature上应用多采样率扩张卷积、多接收野卷积或池化,探索多尺度上下文信息。

版本号命名指南

不羁岁月 提交于 2021-01-14 01:24:27
首先看看某些常见软件的版本号: Linux Kernel: 0.0.1,1.0.0,2.6.32,3.0.18…,若用 X.Y.Z 表示,则偶数 Y 表示稳定版本,奇数 Y 表示开发版本。 Windows:windows 98,windows 2000,windows xp,windows 7…,最大的特点是杂乱无章,毫无规律。 SSH Client:0.9.8。 OpenStack:2014.1.3,2015.1.1.dev8。 从上可以看出,不同的软件版本号风格各异,随着系统的规模越大,依赖的软件越多,如果这些软件没有遵循一套规范的命名风格,容易造成 Dependency Hell 。所以当我们发布版本时,版本号的命名需要遵循某种规则,其中 Semantic Versioning 2.0.0 定义了一套简单的规则及条件来约束版本号的配置和增长。本文根据 Semantic Versionning 2.0.0 和 Semantic Versioning 3.0.0 选择性的整理出版本号命名规则指南。 版本号命名规则指南 版本号的格式为 X.Y.Z(又称 Major.Minor.Patch),递增的规则为: X 表示主版本号,当 API 的兼容性变化时,X 需递增。 Y 表示次版本号,当增加功能时(不影响 API 的兼容性),Y 需递增。 Z 表示修订号,当做 Bug 修复时(不影响

JSIS3D:具有多任务点向网络和多值条件随机场的3D点云联合语义-实例分割

无人久伴 提交于 2021-01-12 04:22:29
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 标题: JSIS3D: Joint Semantic-Instance Segmentation of 3D Point Clouds with Multi-Task Pointwise Networks and Multi-Value Conditional Random Fields (Oral) 作者:Quang-Hieu Pham, Duc Thanh Nguyen, Binh-Son Hua, Gemma Roig, Sai-Kit Yeung 来源:CVPR2019 编译:于振洋 审核:王志勇 摘要 深度学习技术已成为2D图像上大多数与视觉相关的任务的通用模型,然而它的力量尚未在3D空间的任务中得到充分体现,例如3D场景理解。在这项工作中,作者将3D点云的语义和实例分割问题结合起来进行同时处理。 具体来说,作者开发了同时执行的多任务逐点网络两项任务:预测3D点的语义类别,以及将点嵌入到高维向量中同一对象实例的点由相似的嵌入表示。然后,作者提出一个多值条件随机字段模型,用于合并语义和实例标签,并在共同优化标签时制定语义和实例分割问题模型。对提出的方法进行了全面评估和与不同室内场景下现有方法的比较数据集,包括S3DIS和SceneNN。实验结果表明,提出的联合语义-实例分割方案在其单个组件上具有鲁棒性

自然语言处理基础系列:自然语言处理概念与名词解释(1)

一世执手 提交于 2021-01-10 07:22:55
(一)语言分析的必要性: 假如你的公司发布了一款全新的手机产品。 新产品的发布带来了来自不同媒体的相关报道、用户反馈。 面对这些数据,你可能希望了解 大家关注的是这款手机的哪些特性 大家对这款手机的评价如何 有哪些用户表达了购买的意愿 在面对海量数据的情况下,使用人力分析这些数据显然是不切实际的。 这种场景下,语言分析就派上了用场。 让机器代替人来完成这些分析工作正是语言分析要做的工作。 (二)语言分析常用操作: (1)分词 中文分词 (Word Segmentation, WS) 指的是将汉字序列切分成词序列。 因为在汉语中,词是承载语义的最基本的单元。分词是信息检索、文本分类、情感分析等多项中文自然语言处理任务的基础。 例如,句子 国务院总理李克强调研上海外高桥时提出,支持上海积极探索新机制。 正确分词的结果是 国务院/ 总理/ 李克强/ 调研/ 上海/ 外高桥/ 时/ 提出/ ,/ 支持/ 上海/ 积极/ 探索/ 新/ 机制/ 。 如果分词系统给出的切分结果是 国务院/ 总理/ 李克/ 强调/ 研/ 上海 … 因为强调也是一个常见的词,所以很可能出现这种分词结果。 那么,如果想要搜索和李克强相关的信息时,搜索引擎就很难检索到该文档了。 切分歧义是分词任务中的主要难题。 (2)词性标注 词性标注(Part-of-speech Tagging, POS