vanilla

MyDLNote-High-Resolution: gOctConv:100K参数实现高效显著性目标检测

一笑奈何 提交于 2021-02-01 09:11:49
Highly Efficient Salient Object Detection with 100K Parameters [ ECCV 2020 ] [ Code ] Abstract Salient object detection models often demand a considerable amount of computation cost to make precise prediction for each pixel, making them hardly applicable on low-power devices. In this paper, we aim to relieve the contradiction between computation cost and model performance by improving the network efficiency to a higher degree. We propose a flexible convolutional module, namely generalized OctConv (gOctConv) , to efficiently utilize both in-stage and cross-stages multi-scale features, while

内容推荐算法:异构行为序列建模探索

徘徊边缘 提交于 2020-10-24 06:27:19
很多秃头小可爱沉迷熬夜逛淘宝,以下是 来自宇宙洪荒之力的最新线报: 男生比女生多 天蝎座多 夜间小裙子搜索量位居第一 ...... 尤其,每晚有1700万人在淘宝只逛不买,他们到底在干什么? 看完视频和下方文章,你就知道为什么上头了。 前言 来洋淘, 更有young! 洋淘轻应用的内容均是手淘用户的真实购后分享, 在这里,你可以个性化地浏览他人的美好生活, 并鼓励自我表达与分享。 图1. 洋淘轻应用截图, 左) 为双列流, 右) 为详情页 在推荐任务上,同导购产品相比,洋淘场景有着自身的特性: 新用户冷启严峻,六成以上的用户无洋淘场景内的历史内容点击; 老 用户内容兴趣也稀少,历史内容点击数不超过10,反观商品点击数却高达数倍; 用户在电商与内容两个 domain 的兴趣差异较大。 统计日志发现,电商兴趣对洋淘场景下内容点击样本的覆盖度仅为 30% 。 于是,如何把跨域的异构行为用好,提升用户的浏览深度就显得弥足珍贵。我们从 召回 , ctr预估 两大关键环节均作了探索与创新, 大幅提升了推荐效果, 取得了显著的业务收益。 向量召回模型In_Match 前文提到内容兴趣不够用,我们首先基于i2i尝试了商品与内容的混合协同,取得了一定的收益。然后基于电商兴趣的标题作相关内容的严格相似召回,却收益为负,这说明跨域的兴趣不可生搬硬套,也与前文的兴趣差异统计相吻合。

https://github.com/sorrycc/awesome-javascript 清单

无人久伴 提交于 2020-10-02 10:31:23
https://github.com/sorrycc/awesome-javascript 🐢 A collection of awesome browser-side JavaScript libraries, resources and shiny things. Awesome JavaScript A collection of awesome browser-side JavaScript libraries, resources and shiny things. Awesome JavaScript Package Managers Loaders Bundlers Type Checkers Testing Frameworks QA Tools MVC Frameworks and Libraries Node-Powered CMS Frameworks Templating Engines Articles/Posts Data Visualization Timeline Spreadsheet Editors Documentation Utilities Files Functional Programming Reactive Programming Data Structure Date String Number Storage Color

高速数据包捕获、过滤和分析PF_RING

僤鯓⒐⒋嵵緔 提交于 2020-08-17 08:59:36
PF_RING™是一种新型的网络套接字,可显着提高数据包捕获速度,并且具有以下特性: 适用于Linux内核2.6.32及更高版本。 无需修补内核:只需加载内核模块。 使用商用网络适配器的 10 Gbit硬件数据包过滤 用户空间 ZC (新一代DNA,Direct NIC Access,直接NIC访问)驱动程序可实现极高的数据包捕获/传输速度,这是因为NIC NPU(网络处理单元)在没有任何内核干预的情况下将数据包从用户域推送/获取数据包。使用10Gbit ZC 驱动程序,您可以以线速发送或接收任何大小的数据包。 PF_RING ZC 库,用于在线程、应用程序、虚拟机之间以零拷贝分发数据包。 设备驱动程序独立。 支持Accolade,Exablaze,Endace,Fiberblaze,Inveatech,Mellanox,Myricom / CSPI,Napatech,Netcope和Intel(ZC)网络适配器。 基于内核的数据包捕获和采样。 Libpcap支持(请参见下文)可与现有的基于pcap的应用程序无缝集成。 除BPF外,还可以指定数百个标题过滤器。 内容检查,以便仅通过与有效负载过滤器匹配的数据包。 PF_RING™插件,用于高级数据包解析和内容过滤。 Vanilla PF_RING™ PF_RING™正在通过Linux NAPI轮询来自NIC的数据包

OSChina 周一乱弹 —— 40米的大刀都举得动,还说你不胖

℡╲_俬逩灬. 提交于 2020-08-17 02:35:49
Osc乱弹歌单(2020)请戳( 这里 ) 【今日歌曲】 @小小编辑推荐:《Vanilla》- 落日飞车 《Vanilla》- 落日飞车 手机党少年们想听歌,请使劲儿戳( 这里 ) @ szl非鱼 :本周剩下12小时快乐 去钓鱼去, “感觉有点克苏鲁。” 下雨的周末还是比较适合午睡的, 巴蜀(@ 巴拉迪维 )竟然还做梦了, @ 巴拉迪维 :做了个奇怪的梦,醒了。 感觉做噩梦就是缺乏锻炼呀, @ FalconChen :试试先跑步后吃饭的模式 锻炼身体还是挺管事的, “都锻炼出来腹肌了。” 我感觉我都不用出去跑步去, 从一楼的楼梯往上爬, 爬到顶楼就和爬山似的。 “顶上是不是有只猫 做仙豆的那只。” 有时候说错了话, 也能锻炼身体, “40米的大刀都举得动,还说你不胖。” 少吃点饭…… 现在不说是减肥, 是响应中央号召,节约粮食反对浪费。 @ Weidao :有些的三观真的无语,就一个立法禁止浪费食物居然还有人喷,很多人就说什么管的太宽,怎么你花钱买的粮食就有资格浪费了吗? 节约粮食挺好的呀, “以后就好意思在大家面前说打包了。” 但中国不缺粮啊, 那么要不要提前储粮食呢? 为了响应号召, 巴蜀(@ 巴拉迪维 ) 也开始好几个人吃两个菜了。 @ 巴拉迪维 :午餐 都看饿了! “我已经三分钟没吃东西了 我也是海豹突击队的一员啊。” 【 小 树的世界之旅 】 参与# 乱弹大吐槽

自然语言处理中的语言模型简介

ぃ、小莉子 提交于 2020-08-12 13:47:02
作者|Devyanshu Shukla 编译|Flin 来源|medium 在这篇文章中,我们将讨论关于语言模型(LM)的所有内容 什么是LM LM的应用 如何生成LM LM的评估 介绍 NLP中的语言模型是计算句子(单词序列)的概率或序列中下一个单词的概率的模型。即 句子的概率: 下一个单词的概率: 语言模型 v/s 字嵌入 语言模型常常与单词嵌入混淆。主要的区别在于,在语言模型中,单词顺序很重要,因为它试图捕捉单词之间的上下文,而在单词嵌入的情况下,只捕捉语义相似度( https://en.wikipedia.org/wiki/Semantic_similarity ) ,因为它是通过预测窗口中的单词来训练的,而不管顺序如何。 语言模型的应用 语言是NLP的主要组成部分,在很多地方都有使用,比如, 情感分析 问答 总结 机器翻译 语音识别 生成语言模型 有不同的方法来生成语言模型,让我们逐一查看它们。 使用N-grams N-grams( https://en.wikipedia.org/wiki/N-gram ) 是给定语料库中N个单词的序列。对于“I like pizza very much”这句话,bigram将是 ‘I like’, ‘like pizza’, ‘pizza very’ 和 ‘very much’。 比方说,我们有一个句子‘students opened

【2020暑假学习】第三次作业:卷积神经网络 part2

久未见 提交于 2020-08-10 09:25:49
问题总结 当模型准确率已经较高时,如何判断自己的改动是否提升了性能。因为可能每一次准确率变化都不太大,而且每次训练的模型最后准确率也会有波动,多运行几次取准确率平均值做比较吗? 在想要提高性能的改进过程中,有很多改变可能都对性能的提升有些许的帮助。这个过程是一种一种方法的尝试,不断累积提升了性能的改变吗。比如先改了batch_size,找到了一个合适的大小,然后就固定使用这个大小,再调整优化器损失函数之类的?在调整的时候总有一种虽然当前的尝试没有提高性能,但说不定和别的组合在一起可能会变好的想法,简直要进行排列组合。 代码练习 MobileNet V1 如何判断nn.Conv2d(3, 3)是做的图一运算而不是图二? 通过Conv2d函数中的groups参数区别。groups取值范围为1 - in_channels。groups=1时做图二运算,groups=3时做图一运算。 若groups=x,则将输入通道分为x份,输出通道分为x份,对应每份分别做全卷积。 举例:nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=3) 卷积核大小为torch.Size([6, 2, 1, 1]) 参考: 卷积层中的 group 参数理解 pytorch的conv2d函数groups分组卷积使用及理解 MobileNet

Social LSTM 实现代码分析

谁说胖子不能爱 提交于 2020-08-08 15:09:01
----- 2019.8.5更新 实现代码思维导图 ----- ----- 初始原文 ----- Social LSTM最早提出于文献 “Social LSTM: Human Trajectory Prediction in Crowded Spaces”,但经过资料查阅目前暂未找到原文献作者所提供的程序代码和数据,而在github上有许多针对该文献的实现版本代码。 本文接下来的实现代码来自 https://github.com/xuerenlv/social-lstm-tf ,代码语言为Python3,代码大体实现了原论文中 核心原创部分 的模型,包括Vanilla LSTM(没有考虑行人轨迹之间关联性的LSTM)和Social LSTM(使用池化层考虑了行人轨迹之间关联性的LSTM模型)的模型构建、训练和小样本测试的代码,但对横向对比的其他模型、模型量化评估方法等暂未实现。 本文下面将从代码中 矩阵数据和列表(list)数据的维度 细说实现过程和模型的特点。 Vanilla LSTM 模型 训练数据 主要功能代码文件: util.py 数据格式: input_data, target_data = dataLoader.next_batch() # input_data : [batch_size, seq_length, 2] # target_data : [batch

[codeforces 1374C] A Cookie for You 烦人的if,else

独自空忆成欢 提交于 2020-08-05 09:06:07
Codeforces Round #654 (Div. 2) 参与排名人数14349 本场比赛主要心思放在观摩高手如何打比赛,发现初中生真的很厉害。 [codeforces 1374C] A Cookie for You 烦人的if,else 总目录详见 https://blog.csdn.net/mrcrack/article/details/103564004 在线测评地址 http://codeforces.com/contest/1371/problem/C Problem Lang Verdict Time Memory C - A Cookie for You GNU C++17 Accepted 31 ms 200 KB 题目大意:给a块vanilla cookies,b块chocolate cookies,n个第一类客人,m个第二类客人, 若:轮到第一类客人时,若a>b,客人吃vanilla cookies,若a<=b,客人吃chocolate cookies. 轮到第二类客人时,若a>b,客人吃chocolate cookies,若a<=b,客人吃vanilla cookies. 若轮到客人没有相应cookies吃时,要生气。 问怎么安排客人吃cookies的顺序时,使客人都能吃上,输出Yes,若怎么安排,客人都吃不上,输出No. 样例模拟如下: 发现