capsule

图深度学习论文笔记整理活动 | ApacheCN

ぃ、小莉子 提交于 2021-02-11 08:28:49
整体进度: https://github.com/apachecn/graph-emb-dl-notes/issues/1 贡献指南: https://github.com/apachecn/graph-emb-dl-notes/blob/master/CONTRIBUTING.md 项目仓库: https://github.com/apachecn/graph-emb-dl-notes 贡献指南 请您勇敢地去翻译和改进翻译。虽然我们追求卓越,但我们并不要求您做到十全十美,因此请不要担心因为翻译上犯错——在大部分情况下,我们的服务器已经记录所有的翻译,因此您不必担心会因为您的失误遭到无法挽回的破坏。(改编自维基百科) 负责人: 飞龙 :562826179 章节列表 GCN A new model for learning in graph domains The graph neural network model Spectral networks and locally connected networks on graphs Convolutional networks on graphs for learning molecular fingerprints Gated graph sequence neural networks Accelerated filtering

Paper Reading: Dynamic Routing Between Capsules (NIPS 2017)

允我心安 提交于 2021-02-10 07:29:02
capsule -> a group of neurons whose activity vector represents something. length of the activity vector represent the probability and orientation represent the instantiation parameters 可以把capsule里的特征理解成特征空间中的特征向量,长度代表显著性,方向代表各种特征 Active capsules at one level make predictions, via transformation matrices, for the instantiation parameters of higher-level capsules. 可以理解W权重,是从一个低维特征空间到高维特征空间的变换矩阵,通过这个矩阵,低层的特征可以对下一层的特征进行预测。 同时结合上一层低维特征的预测结果进行聚类,从而可以引起高维特征的激活。 Introduction capsule 的出发点还是基于人类的视觉系统,通常而言,人在看到一幅图像的时候是有着类似于 attention 机制的存在的,即只对部分区域仔细地观察,而对其他区域相对简略的获取信息。 但CNN明显不满足这样的机制,CNN 本身 权值共享

不讲码德!坏味道偷袭我这个老码农

允我心安 提交于 2020-12-18 13:18:03
作者 | 雷架 来源 | 爱笑的架构师(ID:DancingOnYourCode) 大家闭上眼睛想一下什么是好代码?也许你的脑海中漂浮着一堆词:干净、整洁、命名规范、注释合理、高内聚低耦合…… 人人都想写好代码,因为看好的代码就如同看一位五官端正的女子,会心情愉悦、舒畅;而看糟糕的代码就如同看见腐烂的食物,闻起来也有一股坏味道。 大多数人写的代码不能被称为好代码有两个原因,一是由于自身技能限制,二是很可能他们根本就分不清好代码和坏代码的区别。 本文,笔者将结合日常编码实践,与大家分享一下 常见的代码坏味道。 Long Method(过长函数) 过长函数,简而言之就是函数长度超标了,包括横向和纵向。 为什么过长函数是一种坏味道? 横向过长会导致无法一眼就能看出这行代码的作用 ,需要用鼠标慢慢往后边拖,相信用小屏幕的小伙伴经常会遇到这个问题,拖动的过程会严重影响读代码的效率。 纵向过长其实就是出现了大函数,一个函数的行太多,使得函数难以读懂,代码修改难度大。 那么如何解决过长函数问题呢? 关于横向过长的问题, 一般会在 IDE 中提前配置好最大宽度 ,比如80字符或者120字符(具体根据公司内部规范设置),然后格式化代码即可解决。 比如我们在写 Java8 stream链式表达式的时候可以会很长: List<String> nodes = list.stream().filter()

Hacker News 简讯 2020-12-06

自古美人都是妖i 提交于 2020-12-10 07:55:54
最后更新时间: 2020-12-06 23:00 Antioxidants prevent health-promoting effects of physical exercise [pdf] - (pnas.org) 抗氧化剂阻止体育锻炼对健康的促进作用[pdf] 得分:20 | 评论:8 Diem – A rebrand of Facebook Libra - (diem.com) Diem–Facebook Libra的改版 得分:70 | 评论:58 Hardware-Accelerated TensorFlow and TensorFlow Addons for macOS 11.0 - (github.com/apple) macOS 11.0的硬件加速TensorFlow和TensorFlow插件 得分:95 | 评论:38 More than 1,200 Google workers condemn firing of AI scientist Timnit Gebru - (theguardian.com) 谴责谷歌解雇1200多名员工 得分:40 | 评论:19 How I Collected a Debt from an Unscrupulous Merchant - (mtlynch.io) 我是如何向一个无良商人讨债的 得分:314 | 评论:171

【Meta learning in NLP】Text Classification

[亡魂溺海] 提交于 2020-11-17 09:03:06
元学习meta learning研究在CV方向占据大部分比例,论文总结比比皆是。本文主要汇总下近些年元学习在NLP文本分类方向 Text Classification 的研究论文,供相关研究人员参考。 同时欢迎大家关注小样本学习方法专栏~,持续更新小样本学习领域最新研究内容以及个人思考总结。 小样本学习方法(FSL) ​ www.zhihu.com 【1】 Meta-learning for Few-shot Natural Language Processing: A Survey 摘要: 少样本自然语言处理(NLP)指的是NLP任务只附带少量的标记样本。这是一个人工智能系统必须学会应对的现实挑战。通常我们依赖于收集更多的辅助信息或开发更有效的学习算法。然而,高容量模型中基于梯度的一般优化,如果从头开始训练,则需要在大量标记样本上执行许多参数更新步骤,以获得良好的性能。如果目标任务本身不能提供更多的信息,那么收集更多具有丰富注释的任务来帮助模型学习如何?元学习的目标是训练具有丰富注释的各种任务的模型,这样它就可以只使用几个标记样本来解决一个新任务。其核心思想是训练模型的初始参数,使模型在经过零步或几个梯度步更新后,对新任务具有最大的性能。已经有一些关于元学习的调查。然而,本文主要研究NLP领域,尤其是少镜头应用。我们试图提供更清晰的定义

[转]spdk和nvmf

↘锁芯ラ 提交于 2020-11-13 04:57:37
打造用户态存储利器,基于SPDK的存储引擎Blobstore & BlobFS https://community.mellanox.com/s/article/howto-configure-nvme-over-fabrics SPDK自动精简配置的逻辑卷使用 construct_lvol_bdev https://www.sdnlab.com/21098.html spdk 块设备层bdev https://www.cnblogs.com/whl320124/p/10064878.html https://spdk.io/doc/bdev.html#bdev_ug_introduction 转自 spdk中nvmf源码 https://mp.weixin.qq.com/s/ohPaxAwmhGtuQQWz--J6WA https://spdk.io/doc/nvmf_tgt_pg.html nvmf的spec http://nvmexpress.org/resources/specifications/ 总的知识点+较详细不同bdev配置 https://www.jianshu.com/p/b11948e55d80 https://www.gitmemory.com/issue/spdk/spdk/627/478899588 SPDK NVMe-oF target 多路功能介绍

专访泛生子CEO王思振:肿瘤NGS行业将迎来进阶发展

ⅰ亾dé卋堺 提交于 2020-10-24 06:57:21
  北京时间 8 月 6 日晚间,泛生子公布了其 2020 年二季度未经审计的财务报告:二季度总营收 1.017 亿元人民币,相比 2019 年同期增长 40.3%;诊断和监测业务收入 9,390 万元人民币,比去年同期增长 52.1%;毛利率提升至 63.1%,去年同期为 47.8%。这是自泛生子在美国纳斯达克上市后,首次发布财报。   在季报发布的同时,泛生子联合创始人兼 CEO 王思振表示:“2020 年二季度,得益于整体疫情的有效防控,国内经济和人民生活逐步恢复正常,泛生子的业务也实现反弹。然而,北京在季度末出现了二次疫情爆发,对我们的业务产生了一定的冲击。尽管我们面临诸多挑战,但泛生子仍交出了一份令人满意的答卷,公司营收增长强劲,毛利率表现优异,与此同时费用结构也实现优化,展示了泛生子团队卓越的执行力以及公司业务的韧性。”   “展望 2020 年下半年,由于新冠疫情发展的不确定性,整个行业依然面临很大挑战,但我们相信公司业务会持续向好。得益于在美国纳斯达克的成功上市,公司的资产负债表得到显著强化,泛生子也将继续坚定执行长期战略方针,同时保持灵活敏捷,以应对快速变化的市场环境。我们计划不断丰富公司的诊断和监测产品组合,开发高临床价值的早筛产品管线,并推动与更多药企的合作。泛生子将专注于扩大精准医疗的市场覆盖和渗透,为股东创造长期价值。”      图 | 泛生子创始人兼

Unity3D RagDoll(布娃娃系统)详解

我是研究僧i 提交于 2020-09-24 17:38:16
unity版本:2019.2.1 Unity RagDoll 布娃娃系统 添加Ragdoll系统后的效果 如何给模型添加布娃娃系统 怎样控制布娃娃系统 一些游戏中的角色死亡时,死亡的肢体动作十分逼真,例如人类一败涂地,Unity3D物理引擎中的Ragdoll系统,可以用来创建这种效果。 添加Ragdoll系统后的效果 技术先不说,先上视屏让大家看看加了RagDoll系统的人物模型效果: Unity Ragdoll布娃娃系统 如何给模型添加布娃娃系统 官方文档: https://docs.unity3d.com/Manual/wizard-RagdollWizard.html 布娃娃系统只能用在具有Rigging(骨骼)的模型上,添加方法是:GameObject—>3D Object—>Ragdoll 把需要附加Ragdoll的模型拖到Hierarchy视图中,接下来就很简单也很麻烦了,需要把模型骨骼对应的游戏体拖到Ragdoll面板一一对应,建立好引用,一个都不要错,会导致刚体和碰撞体附加到错误的游戏体上。感觉不准切可以提前看下骨骼界面: 全部拖好以后,点击create就OK了,可以看到模型中拖到Ragdoll面板的游戏体添加了如图下组件。布娃娃系统是以Create Ragdoll窗口中的骨骼映射信息为基础,以各关节为单位,添加Capsule

学习Hinton老爷子的胶囊网络,这有一篇历史回顾与深度解读

匆匆过客 提交于 2020-08-18 04:09:09
  机器之心分析师网络    作者:周宇    编辑:H4O   本文对多个版本的胶囊网络进行了详细的介绍。   本文以综述的形式,尽可能详细的向读者介绍胶囊网络的诞生,发展过程与应用前景。本文的内容以 Hinton 的标志性文章为基础,结合近年来发表在顶会顶刊的文章为补充,力图详细的让读者们了解胶囊网络的各种版本,熟悉它在不同领域的革命性突破,以及它在目前所存在的不足。   深度学习和人工神经网络已经被证明在计算机视觉和自然语言处理等领域有很优异的表现,不过随着越来越多相关任务的提出,例如图像识别,物体检测,物体分割和语言翻译等,研究者们仍然需要更多有效的方法来解决其计算量和精度的问题。在已有的深度学习方法中,卷积神经网络 (Convolutional Neural Networks) 是应用最为广泛的一种模型。卷积神经网络通常简称为 CNN,一般的 CNN 模型由卷积层 (convolutional layer), 池化层(pooling layer) 和全连接层 (fully-connected layer) 叠加构成。   在卷积的过程中,卷积层中的卷积核依次与输入图像的像素做卷积运算来自动提取图像中的特征。卷积核的尺寸一般小于图像并且以一定的步长 (stride) 在图像上移动着得到特征图。步长设置的越大,特征图的尺寸就越小,但是过大的步长会损失部分图像中的特征。此外

MIT“劫胡”了一个留给2957年的时间胶囊,60年前校长埋下了啥

倖福魔咒の 提交于 2020-08-13 01:42:28
      大数据文摘出品    编译:牛婉杨   前几天文摘菌报道了Github一个“尘封代码”的项目,他们将大量开源代码刻入胶片,打包运向北极,准备在这个远离硝烟战火的地方流传千年,等待后人的“考古”。   于是文摘菌就想到了2015年麻省理工学院(MIT)曾发现一枚 1957年的“时间胶囊” (指将现代发明创造的有代表性意义的物品装入容器内,密封后深埋地下,等待后人发现),尽管埋藏不到60年就被发现了,但仍然轰动一时。   据了解,这个时间胶囊的埋藏是在当时的MIT校长James Rhyne Killian的指导下完成的。胶囊中有一份《A Scientist Speaks》文稿,一枚波士顿第一国民银行发行的硬币,一个MIT 1957届毕业生的纪念水杯,一个汤力水瓶,一份合成青霉素的样品。最有意义的是里头还有一个冷子管(Cryotron),它由MIT在当年开发完成,这之后取代了计算机中复杂昂贵的晶体管。    那他们是如何意外发现这个时间胶囊的呢?   博主Andrei Tapalaga最近在Medium上发表了一篇文章,浅谈了他对此的看法,来和文摘菌一起看看吧~   一个偶然的发现      这张图片展示的时间胶囊是在2015年建立一个新的纳米技术实验室时被偶然间发现的。这个时间胶囊是由James Rhyne Killian校长和电气工程教授Harold