booster

最让你印象深刻的模拟电路是什么电路?这个电路巧妙在哪儿?

元气小坏坏 提交于 2021-02-15 10:56:41
@匿名用户 对我而言,绝对是Paul R. Gray经典的bootstrap,没有之一,简直让人拍案叫绝。 电路用在各种ADC之前的Sample电路,可以让ADC实现rail to rail的input,sample电路的工作电压超过Vdd,极大的减少了了setting time,而且几乎没有reliability的问题。 电路里没有任何一个器件是可以被减少或者改变位置的。此电路直接使得ADC的发展往前跃进了一大步,现在已经几乎成为除ΔΣ之外各种ADC的标配,成为历史上最经典的模拟电路之一。当然,电路原理一眼看去也不是很好理解。 工作波形看着都让人舒服: @TANG XKEPHY 个人非常喜欢那些实现起来非常简单,性能却相当好的电路。 1.switch cap 的CMFB 仅仅4个电容加6个开关就实现了CMFB,非常简洁,且几乎不会影响OPAM本身像output swing,gain之类的spec,非常高效。 2. Data Weighted Averaging 基本思想是快速遍历DAC中的每一个电流元从而减少电流元mismatch对ADC信噪比的影响,仅仅通过几个简单的数电模块就实现对电流元mismatch的first order noise shaping,非常巧妙。 @原子弹lll 本科那会儿对我影响最深的就是万能的H桥电路,驱动电机正反转,妥妥的好用而且实惠

全球超算Top500发榜,日本「富岳」蝉联冠军,中美两国持续霸榜

馋奶兔 提交于 2020-11-23 08:28:19
来源:外媒 转自:悦智网 全球超算Top500第56期新榜单公布,来自日本的超级计算机「富岳」再次蝉联第一,亚军和季军均为美国的超级计算机。来自中国的「神威·太湖之光」超级计算机位列第4位,「天河2A」位列第6位。 最近,TOP500超级计算机排名最新出炉。日本超算富岳Fugaku再次搭载ARM芯片夺冠! 不过,虽然日本的Fugaku超算巩固了它在榜单中的第一位置,但与此同时,本次排名榜单也反映了一个平坦的性能增长曲线。 第二名Summit,是IBM在田纳西州橡树岭国家实验室(ORNL)建造的系统,以148.8 PetaFLOPS的性能保持着美国最快的系统。拥有4356个节点,每个节点都容纳了两个22核Power9 CPU和6个NVIDIA Tesla V100 GPU。 第三名是位于加利福尼亚州劳伦斯-利弗莫尔国家实验室的系统Sierra,以94.6 PetaFLOPS的HPL排名第三。其架构与Summit非常相似,其4320个节点中的每个节点都配备了两颗Power9 CPU和四颗NVIDIA Tesla V100 GPU。 本次新上榜的JUWELS Booster Module位列榜单第七。JUWELS Booster Module单独运行时能够达到44.1 HPL PetaFLOPS,使其成为欧洲最强大的系统。 本次排名第十的Dammam-7安装在沙特阿拉伯的沙特阿美公司

自动驾驶 | MINet:嵌入式平台上的实时Lidar点云数据分割算法,速度可达 20-80 FPS!

笑着哭i 提交于 2020-11-22 06:44:17
点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 这篇文章是激光雷达点云数据分割算法的嵌入式平台上的部署实现。主要的创新点有两点:一是利用多路分支采用不同分辨率输入后再用不同的卷积块进行处理,达到性能和计算量之间的平衡;二是对基于投影的点云分割方法进行了改进。在嵌入式平台上性能不错,代码将在文章被收录后开源,值得关注。 论文地址 :http://xxx.itp.ac.cn/pdf/2008.09162v1 LiDAR数据的实时语义分割对于自动驾驶车辆至关重要,然而自动驾驶车辆通常配备嵌入式平台并且计算资源有限,这使得点云分割算法的部署具有挑战性。通常的点云分割算法直接在点云上使用复杂的空间聚合操作,这些操作非常昂贵且难以针对嵌入式平台进行优化。因此,它们不适用于带有嵌入式系统的实时场景下应用。作为替代, 基于投影的方法更有效并且可以在嵌入式平台上运行。但是,当前基于投影的最新方法无法实现与基于点的方法相同的精度,并且需要使用数百万个参数。 因此,在本文中, 提出了一种基于投影的方法,称为Multi-scale Interaction Network(MINet) ,该方法有效且准确,具体而言网络使用具有不同尺度的多个通路,并且在不同尺度之间对计算资源进行平衡,同时不同尺度之间的额外密集交互可避免冗余计算,并使网络高效。所提出的网络在准确性

xgboost:

霸气de小男生 提交于 2020-11-01 17:11:53
https://www.zybuluo.com/Dounm/note/1031900 GBDT算法详解   http://mlnote.com/2016/10/05/a-guide-to-xgboost-A-Scalable-Tree-Boosting-System/ XGboost: A Scalable Tree Boosting System论文及源码导读 2016/10/29 XGboost核心源码阅读 2016/10/05 XGboost: A Scalable Tree Boosting System论文及源码导读 2016/11/18 简述FastDBT和LightGBM中GBDT的实现 2016/10/29 XGboost核心源码阅读 2016/10/05 XGboost: A Scalable Tree Boosting System论文及源码导读 2016/10/02 Gradient Boosting Decision Tree[下篇] 2016/09/24 Gradient Boosting Decision Tree[上篇] xgboost 解读(2)——近似分割算法 zhihu: -如何理解 Bregman 散度? -有哪些指标可以描述两个图(graph)的相似度? -CNN模型可以输入离散特征吗? - xgboost

自动驾驶 | MINet:嵌入式平台上的实时Lidar点云数据分割算法,速度可达 20-80 FPS!...

廉价感情. 提交于 2020-10-14 19:51:45
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 这篇文章是激光雷达点云数据分割算法的嵌入式平台上的部署实现。主要的创新点有两点:一是利用多路分支采用不同分辨率输入后再用不同的卷积块进行处理,达到性能和计算量之间的平衡;二是对基于投影的点云分割方法进行了改进。在嵌入式平台上性能不错,代码将在文章被收录后开源,值得关注。 论文地址 :http://xxx.itp.ac.cn/pdf/2008.09162v1 LiDAR数据的实时语义分割对于自动驾驶车辆至关重要,然而自动驾驶车辆通常配备嵌入式平台并且计算资源有限,这使得点云分割算法的部署具有挑战性。通常的点云分割算法直接在点云上使用复杂的空间聚合操作,这些操作非常昂贵且难以针对嵌入式平台进行优化。因此,它们不适用于带有嵌入式系统的实时场景下应用。作为替代, 基于投影的方法更有效并且可以在嵌入式平台上运行。但是,当前基于投影的最新方法无法实现与基于点的方法相同的精度,并且需要使用数百万个参数。 因此,在本文中, 提出了一种基于投影的方法,称为Multi-scale Interaction Network(MINet) ,该方法有效且准确,具体而言网络使用具有不同尺度的多个通路,并且在不同尺度之间对计算资源进行平衡,同时不同尺度之间的额外密集交互可避免冗余计算,并使网络高效。所提出的网络在准确性

XGBoost类库使用小结

无人久伴 提交于 2020-08-19 20:52:34
    在 XGBoost算法原理小结 中,我们讨论了XGBoost的算法原理,这一片我们讨论如何使用XGBoost的Python类库,以及一些重要参数的意义和调参思路。     本文主要参考了 XGBoost的Python文档 和 XGBoost的参数文档 。 1. XGBoost类库概述     XGBoost除了支持Python外,也支持R,Java等语言。本文关注于Python的XGBoost类库,安装使用"pip install xgboost"即可,目前使用的是XGBoost的0.90版本。XGBoost类库除了支持决策树作为弱学习器外,还支持线性分类器,以及带DropOut的决策树DART,不过通常情况下,我们使用默认的决策树弱学习器即可,本文也只会讨论使用默认决策树弱学习器的XGBoost。     XGBoost有2种Python接口风格。一种是XGBoost自带的原生Python API接口,另一种是sklearn风格的API接口,两者的实现是基本一样的,仅仅有细微的API使用的不同,主要体现在参数命名上,以及数据集的初始化上面。 2. XGBoost类库的基本使用方式     完整示例参见我的 Github代码 。 2.1 使用原生Python API接口     XGBoost的类库的2种接口风格,我们先来看看原生Python API接口如何使用。    

XGBoost 重要参数(调参使用)

醉酒当歌 提交于 2020-08-15 04:51:26
XGBoost 重要参数(调参使用) 数据比赛Kaggle,天池中最常见的就是XGBoost和LightGBM。 模型是在数据比赛中尤为重要的,但是实际上,在比赛的过程中,大部分朋友在模型上花的时间却是相对较少的,大家都倾向于将宝贵的时间留在特征提取与模型融合这些方面。在实战中,我们会先做一个baseline的demo,尽可能快尽可能多的挖掘出模型的潜力,以便后期将精力花在特征和模型融合上。这里就需要一些调参功底。 本文从这两种模型的一共百余参数中选取重要的十余个进行探讨研究。并给大家展示快速轻量级的调参方式。当然,有更高一步要求的朋友,还是得戳 LightGBM 和 XGBoost 这两个官方文档链接。 XGBoost 的重要参数 XGBoost的参数一共分为三类: 通用参数 :宏观函数控制。 Booster参数 :控制每一步的booster(tree/regression)。booster参数一般可以调控模型的效果和计算代价。我们所说的调参,很这是大程度上都是在调整booster参数。 学习目标参数 :控制训练目标的表现。我们对于问题的划分主要体现在学习目标参数上。比如我们要做分类还是回归,做二分类还是多分类,这都是目标参数所提供的。 完整参数请戳官方文档 通用参数 booster :我们有两种参数选择, gbtree 和 gblinear

XGBoost类库使用小结

半腔热情 提交于 2020-08-09 13:59:49
    在 XGBoost算法原理小结 中,我们讨论了XGBoost的算法原理,这一片我们讨论如何使用XGBoost的Python类库,以及一些重要参数的意义和调参思路。     本文主要参考了 XGBoost的Python文档 和 XGBoost的参数文档 。 1. XGBoost类库概述     XGBoost除了支持Python外,也支持R,Java等语言。本文关注于Python的XGBoost类库,安装使用"pip install xgboost"即可,目前使用的是XGBoost的0.90版本。XGBoost类库除了支持决策树作为弱学习器外,还支持线性分类器,以及带DropOut的决策树DART,不过通常情况下,我们使用默认的决策树弱学习器即可,本文也只会讨论使用默认决策树弱学习器的XGBoost。     XGBoost有2种Python接口风格。一种是XGBoost自带的原生Python API接口,另一种是sklearn风格的API接口,两者的实现是基本一样的,仅仅有细微的API使用的不同,主要体现在参数命名上,以及数据集的初始化上面。 2. XGBoost类库的基本使用方式     完整示例参见我的 Github代码 。 2.1 使用原生Python API接口     XGBoost的类库的2种接口风格,我们先来看看原生Python API接口如何使用。    

ICMAX分析UFS 3.1比UFS 3.0感知强吗?体现在哪些方面

感情迁移 提交于 2020-07-23 18:23:34
自5G手机开始逐步上市以后,UFS 3.0逐渐被旗舰智能手机机采用。甚至到了如今,已经有手机配备UFS 3.1存储。UFS 3.1是在UFS 3.0的基础上进一步带来了性能、功耗、成本等方面的进一步优化。那么,相比于UFS 3.0,UFS 3.1主要有哪些方面的变化? 首先是写入增强器(Write Turbo)。从字面意思就能理解,就是提升UFS的顺序写入速度,写入增强器的特性会将UFS 3.0原本最高为500MB/s的顺序写入提升至700MB/s。Write Turbo原理本质是UFS 3.1闪存内部有一块高速缓存区,工作的时候以较高的速度去接收文件,等到闪存写入工作不繁重的时候再将写入的文件从缓存区转到普通闪存区。 其次是深度睡眠(Deep Sleep),宏旺半导体了解到,深度睡眠是让在UFS 3.0基础上对于功耗的优化。旨在让闪存在空闲的时间段进入低功耗睡眠状态,确保闪存在睡眠状态下降低功耗,这种模式相较于UFS 3.0的hibernate模式能够有更好的功耗控制。 然后是性能限制通知(Performance Throttling Notification)则是因为某些情况导致存储性能受到影响时,及时通知主机有关性能限制的信息,特别会在设备过热时通知系统限制读写性能以降低闪存温度。简而言之,这是在闪存中加入了根据外部环境实时反馈的控制中心。 除了写入增强器

lightgbm用于排序

柔情痞子 提交于 2020-05-07 11:47:42
一.   LTR(learning to rank)经常用于搜索排序中,开源工具中比较有名的是微软的ranklib,但是这个好像是单机版的,也有好长时间没有更新了。所以打算想利用lightgbm进行排序,但网上关于lightgbm用于排序的代码很少,关于回归和分类的倒是一堆。这里我将贴上python版的lightgbm用于排序的代码,里面将包括训练、获取叶结点、ndcg评估、预测以及特征重要度等处理代码,有需要的朋友可以参考一下或进行修改。   其实在使用时,本人也对比了ranklib中的lambdamart和lightgbm,令人映像最深刻的是lightgbm的训练速度非常快,快的起飞。可能lambdamart训练需要几个小时,而lightgbm只需要几分钟,但是后面的ndcg测试都差不多,不像论文中所说的lightgbm精度高一点。lightgbm的训练速度快,我想可能最大的原因要可能是:a.节点分裂用到了直方图,而不是预排序方法;b.基于梯度的单边采样,即行采样;c.互斥特征绑定,即列采样;d.其于leaf-wise决策树生长策略;e.类别特征的支持等 二.代码 第一部分代码块是主代码,后面三个代码块是用到的加载数据和ndcg。运行主代码使用命令如训练模型使用:python lgb.py -train等 完成代码和数据格式放在 https://github.com