negative

Contrastive Self-Supervised Learning

倖福魔咒の 提交于 2020-01-30 11:22:43
Contrastive Self-Supervised Learning 2020-01-30 10:32:24 Source: https://ankeshanand.com/blog/2020/01/26/contrative-self-supervised-learning.html Jan 26, 2020 Contrastive self-supervised learning techniques are a promising class of methods that build representations by learning to encode what makes two things similar or different. The prophecy that self-supervised methods would replace the dominant direct supervision paradigm in deep learning has been around for quite some time. Alyosha Efros famously made a bet (the Gelato Bet ) that an unsupervised method would beat a supervised R-CNN on

POJ-2184 Cow Exhibition(01背包变形)

感情迁移 提交于 2020-01-25 08:28:28
Cow Exhibition Time Limit: 1000MS Memory Limit: 65536K Total Submissions: 10949 Accepted: 4344 Description “Fat and docile, big and dumb, they look so stupid, they aren’t much fun…” - Cows with Guns by Dana Lyons The cows want to prove to the public that they are both smart and fun. In order to do this, Bessie has organized an exhibition that will be put on by the cows. She has given each of the N (1 <= N <= 100) cows a thorough interview and determined two values for each cow: the smartness Si (-1000 <= Si <= 1000) of the cow and the funness Fi (-1000 <= Fi <= 1000) of the cow. Bessie must

(01背包变形) Cow Exhibition (poj 2184)

二次信任 提交于 2020-01-25 08:27:02
http://poj.org/problem?id=2184 Description "Fat and docile, big and dumb, they look so stupid, they aren't much fun..." - Cows with Guns by Dana Lyons The cows want to prove to the public that they are both smart and fun. In order to do this, Bessie has organized an exhibition that will be put on by the cows. She has given each of the N (1 <= N <= 100) cows a thorough interview and determined two values for each cow: the smartness Si (-1000 <= Si <= 1000) of the cow and the funness Fi (-1000 <= Fi <= 1000) of the cow. Bessie must choose which cows she wants to bring to her exhibition. She

numpy.negative详解

时光怂恿深爱的人放手 提交于 2020-01-24 20:56:59
numpy.negative 用例: numpy.negative (x[, out]) = <ufunc ‘negative’> 功能: 对数组中每一个元素取相反数。 参数 变量名 数据类型 功能 x 数组型变量或者是标量 输入的数组 返回值 变量名 数据类型 功能 y 数组型变量或者是标量 返回的数组或者是标量:y = -x 示例: import numpy as np np . negative ( [ 1 . , - 1 . ] ) array([-1., 1.]) github链接 https://github.com/wzy6642/numpy-translate 来源: CSDN 作者: zhenyu wu 链接: https://blog.csdn.net/wzy628810/article/details/103850435

LeetCode Day 4

空扰寡人 提交于 2020-01-07 12:05:27
LeetCode0011 给定 n 个非负整数 a1,a2,...,an,每个数代表坐标中的一个点 (i, ai) 。在坐标内画 n 条垂直线,垂直线 i 的两个端点分别为 (i, ai) 和 (i, 0)。找出其中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水。n 的值至少为 2。 图中垂直线代表输入数组 [1,8,6,2,5,4,8,3,7]。在此情况下,容器能够容纳水(表示为蓝色部分)的最大值为 49。 示例: 输入: [1,8,6,2,5,4,8,3,7] 输出: 49 思路: 我们最喜闻乐见的暴力法,对每个元素都计算一下他跟其他元素能形成的最大面积即可,时间复杂度O(n^2^),当然,这么玩就没意思了。 我们假定有两块挡板,最早的时候左挡板在最左边,右挡板在最右边,这样子距离是最大的,最大面积就由那块短板决定。 接下来我们不管移动左边的挡板或者右边的挡板,两块板之间的距离都会变小,那么唯有下一块挡板高度更高时,才有可能装更多的水。因此哪块挡板更小,我们就先移动哪块,以此为标准来移动左挡板或者右挡板,以便试探容器的最大值。 /** * @param {number[]} height * @return {number} */ var maxArea = function (height) { let left = 0, right = height

文本分类实战(一)—— word2vec预训练词向量

浪子不回头ぞ 提交于 2019-12-23 12:30:54
1 大纲概述   文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列:    word2vec预训练词向量    textCNN 模型    charCNN 模型    Bi-LSTM 模型    Bi-LSTM + Attention 模型    RCNN 模型    Adversarial LSTM 模型    Transformer 模型    ELMo 预训练模型    BERT 预训练模型    所有代码均在 textClassifier 仓库中。 2 数据集   数据集为IMDB 电影影评,总共有三个数据文件,在/data/rawData目录下,包括unlabeledTrainData.tsv,labeledTrainData.tsv,testData.tsv。在进行文本分类时需要有标签的数据(labeledTrainData),但是在训练word2vec词向量模型(无监督学习)时可以将无标签的数据一起用上。 3 数据预处理   IMDB 电影影评属于英文文本,本序列主要是文本分类的模型介绍,因此数据预处理比较简单,只去除了各种标点符号,HTML标签,小写化等。代码如下: import pandas as pd from bs4 import BeautifulSoup

(原+转)ROC曲线

与世无争的帅哥 提交于 2019-12-20 04:35:12
转自: http://baike.baidu.com/link?url=_H9luL0R0BSz8Lz7aY1Q_hew3JF1w-Zj_a51ggHFB_VYQljACH01pSU_VJtSGrGJOR1h_du8O0S2ADOzzq9Nqq 受试者工作特征曲线 (receiver operating characteristic curve,简称ROC曲线),又称为 感受性 曲线(sensitivity curve)。得此名的原因在于曲线上各点反映着相同的 感受性 ,它们都是对同一 信号刺激 的反应,只不过是在几种不同的判定标准下所得的结果而已。接受者操作特性曲线就是以虚报概率为 横轴 ,击中概率为纵轴所组成的 坐标 图,和被试在特定刺激条件下由于采用不同的判断标准得出的不同结果画出的曲线。 ROC曲线是根据一系列不同的二分类方式(分界值或决定阈),以真阳性率(灵敏度)为纵坐标,假阳性率(1-特异度)为横坐标绘制的曲线。传统的诊断试验评价方法有一个共同的特点,必须将试验结果分为两类,再进行统计分析。ROC曲线的评价方法与传统的评价方法不同,无须此限制,而是根据实际情况,允许有中间状态,可以把试验结果划分为多个有序分类,如正常、大致正常、可疑、大致异常和异常五个等级再进行统计分析。因此,ROC曲线评价方法适用的范围更为广泛。[1] 考虑一个二分问题,即将实例分成正类

CSCI 1300

时光怂恿深爱的人放手 提交于 2019-12-17 01:50:57
CSCI 1300 Summer 2019 Assignment 4 Task 1 Task 1.1 Write a function called read_data that takes the following inputs: ● An array of doubles -- call it A ● The size of the array -- call it size This function will read up to size numbers from a file called numbers.txt. As the name suggests, this file contains a space separated list of numbers. Each number read from the file will be stored in A. The function will continue reading numbers from numbers.txt until either it reaches the end of the file, or it fills up the array. The function will return the amount of numbers that it was able to read.

了解Spring Boot的自动配置

我只是一个虾纸丫 提交于 2019-12-16 14:03:07
摘自: https://www.jianshu.com/p/ddb6e32e3faf Spring Boot的自动配置给开发者带来了很大的便利,当开发人员在pom文件中添加starter依赖后,maven或者gradle会自动下载很多jar包到classpath中。当Spring Boot检测到特定类的存在,就会针对这个应用做一定的配置,自动创建和织入需要的spring bean到程序上下文中。 在之前的文章中,我们只是在pom文件中增加各种starter的依赖,例如: spring-boot-starter-data-jpa, spring-boot-starter-web, spring-boot-starter-data-test 等等。接下来将在之前的工程的基础上,观察在程序的引导启动过程中,Spring Boot通过自动配置机制帮我们做了哪些工作。 How Do Spring Boot启动时将自动配置的信息通过DEBUG级别的日志打印到控制台。可以通过设置环境变量(DEBUG)或者程序属性(--debug)设置程序的日志输出级别。 在项目目录下运行 DEBUG=true mvn spring-boot:run 启动应用程序; 在后台可以看到DEBUG级别的日志输出,在启动日志的最后,可以看到类似 AUTO-CONFIGURATION REPORT 的字样。

浅析Word2Vec

烈酒焚心 提交于 2019-12-16 02:08:06
浅析Word2Vec 1 预备内容 1.1 NLP任务 1.2 Distributional Semantics 1.3 one-hot向量 1.4 softmax函数 2 浅析Word2Vec 2.1 概述 2.2 Skip-Gram模型 2.2.1 模型的细节 2.2.2 隐层 2.2.3 输出层 2.2.4 小结 2.3 Continuous Bag of Words模型(CBOW) 2.4 加速策略1——Hierarchical Softmax 2.5 加速策略2——Negative Sampling 2.5.1 Subsampling Frequent Words 2.5.2 负采样 Negative Sampling 2.5.3 选择负样本 2.6 加速策略小结 2.7 模型训练的一些参数设定 参考文献 1 预备内容 1.1 NLP任务 NLP的目标是设计算法让计算机去理解自然语言并去解决某些问题。 所有NLP任务德第一步,就是如何将单词表示为模型的输入。为了使得大多数NLP任务表现良好,我们首先需要能够用向量表示单词的相似性和差异性。有了这些词向量,我们可以简单的用向量自身的能力来计算相似性(如Jaccard, cos等) 1.2 Distributional Semantics A word’s meaning is given by the words that