Forest

这就是库克的重大计划?英特尔新CEO帕特誓言:CPU必须要比苹果好!

我与影子孤独终老i 提交于 2021-02-12 19:35:59
12日,苹果CEO库克接受了CBS的专访,在采访中不仅表达了对刚刚发生的国会暴动的看法,而且表示将会有重大计划宣布,且无关产品,苹果近日公布了这一谜底:将捐资1亿美元助力种族平等和正义计划,而被苹果MI芯片赶超的英特尔也在本周宣布斥资1亿美元聘任CEO,试图破局重出。 >>>> 国会暴动之后,苹果CEO库克在最近的一次采访中表达了对该事件的看法:关键是要让人们为上周在美国国会大厦发生的事情负责。 「让人们对此负责是关键,不应该轻易就过去了,我们必须非常认真地对待和思考这件事,在此基础上向前。」 这次采访库克还表示将会宣布一项重大计划,无关产品。 这引来了大家的猜测。 有人认为是苹果计划在 iOS 14上推出隐私更新。 有人认为执掌苹果10年的库克可能要宣布退休。 结果一一落空。 随后苹果公布了这一谜底——苹果捐资1亿美元推动种族平等和正义行动计划(Racial Equity and Justice Initiative,REJI)。 该计划旨在推动美国有色人种群体,合作建立创新学习中心,提高有色人种群体教育水平,让他们也拥有同等受教权,协助他们成为各个领域杰出人士。 除了苹果的1个亿,另一家美国公司最近也果断出资1个亿,但却是用于人才招聘。 英特尔斥资1个亿聘任CEO 1.16亿美元——这是英特尔新任CEO帕特·基辛格(Pat Gelsinger)的薪酬待遇。 上周四

脑信号处理必备技能:由浅入深掌握傅里叶变换、短时傅里叶变换和小波变换(修改)

只愿长相守 提交于 2021-02-07 17:05:46
点击上面"脑机接口社区"关注我们 更多技术干货第一时间送达 作者丨咚懂咚懂咚@知乎(已授权),未经允许,禁止二次转载 来源丨https://zhuanlan.zhihu.com/p/22450818 编辑丨脑机接口社区 对脑电信号处理时,大家不可避免的会用到一些信号处理方法,其中小波变换在脑电信号处理中比较常用的方法。本文作者按照傅里叶-短时傅里叶变换-小波变换顺序,由浅入深,通俗易懂的解释了小波变换的相关知识。 从傅里叶变换到小波变换,并不是一个完全抽象的东西,可以讲得很形象。小波变换有着明确的物理意义,如果我们从它的提出时所面对的问题看起,可以整理出非常清晰的思路。 下面我就按照傅里叶-->短时傅里叶变换-->小波变换的顺序,讲一下为什么会出现小波这个东西、小波究竟是怎样的思路。(反正题主要求的是通俗形象,没说简短,希望不会太长不看。。) 01 傅里叶变换 关于傅里叶变换的基本概念在此我就不再赘述了,默认大家现在正处在理解了傅里叶但还没理解小波的道路上。(在第三节小波变换的地方我会再形象地讲一下傅里叶变换) 下面我们主要讲傅里叶变换的 不足。即我们知道傅里叶变化可以分析信号的频谱,那么为什么还要提出小波变换? 答案就是@方沁园所说的,“ 对非平稳过程,傅里叶变换有局限性 ”。看如下一个简单的信号: 做完FFT(快速傅里叶变换)后,可以在频谱上看到清晰的四条线

GEE Paper

陌路散爱 提交于 2021-01-23 04:29:10
Nature Communications 01. Gainers and losers of surface and terrestrial water resources in China during 1989-2016 ( 2020 ) 02. Extremes of summer climate trigger thousands of thermokarst landslides in a High Arctic environment ( 2019 ) ENVIRONMENTAL MODELLING & SOFTWARE 01. AgKit4EE: A toolkit for agricultural land use modeling of the conterminous United States based on Google Earth Engine ( 2020 ) 02. Open-source Google Earth Engine 30-m evapotranspiration rates retrieval: The SEBALIGEE system ( 2020 ) 03. A Google Earth Engine-enabled software for efficiently generating high-quality user

GEE,ISPRS,2020

只愿长相守 提交于 2021-01-15 06:12:24
ISPRS, 2020, GEE,好文阅读 01 冬天和阅读更配哦 ISPRS Journal of Photogrammetry and Remote Sensing The ISPRS Journal of Photogrammetry and Remote Sensing (P&RS) is the official journal of the International Society for Photogrammetry and Remote Sensing (ISPRS). The Journal provides a channel of communication for scientists and professionals in all countries working in the many disciplines that employ photogrammetry , remote sensing , spatial information systems , computer vision , and related fields. The Journal is designed to serve as a source reference and archive of advancements in these disciplines. The

决策树是如何选择特征和分裂点?

冷暖自知 提交于 2021-01-09 10:13:48
©PaperWeekly 原创 · 作者|贲忠奇 单位|便利蜂算法工程师 研究方向|推荐算法、反作弊 缘起 在解决回归和分类问题的时候,一般会使用 Random Forest、GBDT、XGBoost、LightGBM 等算法,这类算法因为性能好,被业界广泛采用。突然想到树类型的算法都需要明白一个基本问题,树是如何选择特征和分裂点的?其根本要追溯到决策树的种类,每种是如何划分特征和分裂点,以及如何剪枝的。 决策树分为三类:ID3、C4.5、CART。提出时间却是 1984 年提出 CART,1986年提出的 ID3,1993 年提出的 C4.5。在介绍决策树之前需要了解一些信息论的知识,信息、熵、条件熵、信息增益。决策树中的 ID3 和 C4.5 与信息论息息相关。 信息论基础 信息是杂乱无章数据的一种度量方式。在分类问题中,如果待分类的事物可以划分在多个分类中,那么某个分类 的信息定义为: 其中, 是某个分类的信息; 是选择该分类的概率。 熵是信息的期望,也就是计算所有分类包含信息的期望值: 其中,H(Y) 表示分类数据集的熵。 条件熵是在特征 X 给定条件下,类别 Y 的条件概率分布的熵对特征 X 的数学期望。 其中, 表示在特征 X 下的条件熵; 表示特征下 具体特征值的条件熵; 表示 x 和 y 的联合概率分布。 在划分数据集之前之后信息发生的变化叫做信息增益

Filecoin网络的守卫和建设支持FIL币加价破千

耗尽温柔 提交于 2020-12-06 12:14:24
和大部分区块链项目只拥有一个实现所不同的是,Filecoin拥有四大实现,分别是Lotus、Forest、Fuhon、Venus(go-filecoin),这四种协议虽然是互相独立的,但是都能在Filecoin网络启动、升级和不足够稳定时保护和帮助网络。V ipfs9966 Lotus 就目前情况而言,Lotus是最成熟的Filecoin实现,官方在slack频道上宣布的版本的升级,一般都是Lotus版本的升级,由此可见,Lotus是四大实现中最为“受宠”的实现,至于为什么这么受宠,除了功能的强大,也可能和Lotus始终是协议实验室他们亲自开发和维护有关系吧。 在Filecoin主网上线前,Lotus的重点是为规范参与者升级和测试做准备,以创建灵活的状态升级框架,并开发Lotus-lite(基于网关的节点),这提供了一个可以直接与矿工交互的Lotus钱包,而无需维护重量级组件。 在Filecoin主网上线后,正如我们所见,Lotus致力于让网络变得更流畅、解决矿工在挖矿过程中遇到的问题、对代码进行改进、提交相关FIP提案等。 Venus(go-fliecoin) Venus是由协议实验室发起和开发的第一个Filecoin实现(大概在今年的6月份左右go-filecoin更名为Venus),在Filecoin网络中的角色也是举足轻重的, 在filecoin-project

Python机器学习笔记:One Class SVM

梦想的初衷 提交于 2020-12-05 21:28:39
前言   最近老板有一个需求,做单样本检测,也就是说只有一个类别的数据集与标签,因为在工厂设备中,控制系统的任务是判断是是否有意外情况出现,例如产品质量过低,机器产生奇怪的震动或者机器零件脱落等。相对来说容易得到正常场景下的训练数据,但故障系统状态的收集示例数据可能相当昂贵,或者根本不可能。如果可以模拟一个错误的系统状态,问题就好解决多了,但无法保证所有的错误状态都被模拟到,所以只能寻找单样本检测相关的算法。   所幸了解到一些单样本检测的算法,比如Isolation Forest,One-Class Classification,所以这篇文章就记录一下自己做的关于One-Class SVM 的笔记。 一,单分类算法简介   One Class Learning 比较经典的算法是One-Class-SVM,这个算法的思路非常简单,就是寻找一个超平面将样本中的正例圈出来,预测就是用这个超平面做决策,在圈内的样本就认为是正样本。由于核函数计算比较耗时,在海量数据的场景用的并不多;   另一个算法是基于神经网络的算法,在深度学习中广泛使用的自编码算法可以应用在单分类的问题上,自编码是一个BP神经网络,网络输入层和输出层是一样,中间层数可以有多层,中间层的节点个数比输出层少,最简单的情况就是中间只有一个隐藏层,如下图所示,由于中间层的节点数较少,这样中间层相当于是对数据进行了压缩和抽象

基于激光雷达的目标检测与跟踪文献阅读

心已入冬 提交于 2020-11-19 12:03:12
Instant Object Detection in Lidar Point Clouds 传感器:VLP-64 主要工作:完整的激光雷达语义环境感知方案,通过将点云投影到地面栅格图,按照点的密度和最高高度、最大高度差,将点云分为建筑物表面、低矮物体、较高物体,而后按照点云的密度变化将点云进行聚类,再讲点云按照最大面积的方向,投影为90*90的深度图,通过CNN进行分类,最后一步是按照环境的语义信息进行分类结果的纠正,修正点云聚类等造成的错误。 数据集为: 需要联系作者获取密码方可下载 Pedestrian Recognition Using High-definition LIDAR 发表于2011的IEEE会议论文 文章主要是在三维点云中进行行人检测,主要关键部分有以下两点: 特征提取:提出了Z方向的分块点云密度作为特征,将点云块的反射强度作为特征算子的输入值,考虑了反射强度的信息,对于较远的目标,集合信息较弱的情况下,效果提升明显. 将之前提取的特征向量作为输入,采用SVM算法进行分类,文章的效果提升明显. The slice feature and the distribution of the reflection intensities are proposed to improve the recognition performance at a long

我的第一个 Kaggle 比赛学习

ぃ、小莉子 提交于 2020-11-18 04:58:32
背景 Titanic: Machine Learning from Disaster - Kaggle 2 年前就被推荐照着这个比赛做一下,结果我打开这个页面便蒙了,完全不知道该如何下手。 两年后,再次打开这个页面,看到清清楚楚的 Titanic Tutorial - Kaggle ,完全傻瓜式的照着做就能做下来。当年是什么蒙蔽了我的眼睛~ Target use machine learning to create a model that predicts which passengers survived the Titanic shipwreck Data Titanic: Machine Learning from Disaster - Kaggle train.csv Survived: 1=yes, 0=No test.csv gender_submission.csv: for prediction PassengerId: those from test.csv Survived: final result Guide to help start and follow Titanic Tutorial - Kaggle Join the Competition Here! Submit a initial result : NoteBook Learning

机器学习-常见的监督学习模型

纵饮孤独 提交于 2020-10-28 08:57:45
机器学习可以分为三大类:监督学习、非监督学习、强化学习。 今天学习监督学习模型,根据输出是连续的还是离散的,又分为 回归问题 和 分类问题。 监督学习的训练数据,都是带‘答案’的,通过输入和答案之间的对应关系,获取其中的规则。 1,朴素贝叶斯分类器 Naive Bayes Classifier 假设样本的特征(被观察现象的一个可以测量的属性)在给定分类的条件下是相互独立的。 选择重要的特性对于传统的机器学习方法至关重要。 简单来讲这就是个概率计算 假设输入 X = (x1,x2,...,xn) 在给定 x的条件下 分类Ck的概率: P(Ck|X) = ∏P(xi|Ck)P(Ck) / P(X) 解释:给定X, P(X) 是一个固定的归一化的常量,因此可以忽略;P(xi|Ck) 和 P(Ck) 是通过训练数据集获取计算来的; 这样就可以计算给定条件X下的各个分类的概率,取概率最大的作为分类结果。 需要注意个细节: 如果 Xi 过多,相乘可能出现下溢(0),可以把乘法转为取对数相加;对于训练集中未出现的值的概率,可以忽略。 2,逻辑回归 Logistic Regression 线性回归模型: y = w T x + b 这个输出范围是 负无穷 到 正无穷 要转换为分类问题,需要使用 Sigmoid 函数 σ(x) = 1 / (1 + e -x ) 范围 (0,1) 逻辑回归模型:f