深度学习

建议给予导师决定硕博士能否毕业的自主权?教育部:将充分采纳!

半腔热情 提交于 2020-10-03 03:44:18
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 来源 | 青塔 近日,教育部官网公布了《对十三届全国人大三次会议第9546号建议的答复》。针对人大代表提出的 关于完善高校研究生科研成果评价标准 的建议,教育部作出回应,并透露了对加强研究生教育质量管理、改革评价机制的相关举措及日后工作方向。 教育部表示,研究生教育是国民教育的顶端,博士、硕士学位代表着一定的学术水平,应有高要求和科学的评价标准。 导师是研究生培养第一责任人 ,是研究生培养质量的关键,要对研究生开展学术研究、写作发表论文、撰写学位论文进行严格把关,把学位论文的实质性创新作为评价学位论文质量的关键要素。 针对人大代表在提案中提出的“改革我国对博士生、硕士生毕业考核体制, 给予导师决定博士生、硕士生能否毕业的自主权 ,释放研发能量”的建议,教育部则表示, 该项建议具有十分重要的现实意义,对完善高校研究生科研成果评价标准具有很大启发 。下一步, 教育部将充分采纳此条建议 ,并进一步开展工作。 同时,教育部还透露,今年下半年将印发《研究生导师指导行为准则》,其中将明确规定研究生 导师要正确履行指导职责 、 合理指导研究生 学习、科研与实习实践活动,并综合开题、中期考核等关键节点考核情况, 提出研究生分流退出建议 。 原文如下: 对十三届全国人大三次会议第9546号建议的答复 教研建议〔2020〕14号 您提出的“

重磅!上海出落户新政:双一流应届硕士可直接落户!

末鹿安然 提交于 2020-10-03 03:41:06
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 编辑丨科研大匠 9月23日,据上海学生就业创业服务网,上海市高校招生和就业工作联席会议制定的 《2020年非上海生源应届普通高校毕业生进沪就业申请本市户籍评分办法》 (以下简称《办法》)正式发布。《办法》提到, 博士、研究生符合基本申报条件既可落户。 “世界一流大学建设高校” 应届硕士毕业生、“世界一流学科建设高校”建设学科应届硕士毕业生,符合基本申报条件即可落户。 而中科院在沪各研究所、上海科技大学、上海纽约大学应届硕士毕业生参照“世界一流大学建设高校”执行。 此外,《办法》还明确提出,将之前“以 北京大学、清华大学 为试点,探索建立对本科阶段为国内高水平大学的应届毕业生,符合基本申报条件可直接落户”的政策,范 围扩大至在沪“世界一流大学建设高校”。 在沪“世界一流大学建设高校”包括 上海交通大学、复旦大学、同济大学、华东师范大学 ,因此 四校应届本科毕业生符合基本申报条件即可落户 。 这也意味着: 博士,双一流硕士,清华、北大、复旦、交大、同济、华东师大等六校的本科应届生 ,将都可以直接落户上海。 据办法透露,2020年标准分为72分,评分选项包括毕业生要素分,包括学历、毕业学校、学习成绩、外语水平、计算机水平等;以及导向要素,包括荣誉称号、学术、文体竞赛获奖、科研创新、国家就业项目服务期满等,还有用人单位要素分

2D: 传统目标检测算法综述

瘦欲@ 提交于 2020-10-02 22:30:33
一. 目标检测的发展历程 1. 2001年,V-J检测器诞生,主要用于人脸的检测; 2. 2006年,HOG + SVM的方法出现,主要用于行人的检测; 3. 2008年,rgb大神(记住这个人,后面的R-CNN系列检测算法也是出自他之手)研究出了著名的DPM算法,在深度学习方法成熟之前的很长一段时间里,就是这个算法一直在目标检测中发挥作用; 以上算法是属于传统目标检测的算法,都是基于图像处理和计算机视觉的! ------------------------------------------------------------------分割线------------------------------------------------ 到了2012年CNN的崛起,开始了深度学习和计算机视觉结合的旅程! 4. 2013年,出现了Overfeat; 5. 2014年,rgb大神提出了大名鼎鼎的R-CNN检测算法,开始了two-stage的旅程; 6. 2014年,SPPNet诞生; 7. 2015年,R-CNN的快速版Fast RCNN 和 Faster RCNN,以及yolo,yolo的到来标志着one-stage检测算法的开启; 8. 2016年,大家都爱的SSD到来; 9. 2017-2018年,Pyramid Networks,还有Retina-Net。 二.

追女孩子太难了

故事扮演 提交于 2020-10-02 22:15:22
一、近期总结 2020年5月9号凌晨,又梦到你了。早晨我和你说了这个事情。。。这已经是连续2天梦到你了。累计应该是4次+了。 当天晚上一起下班了。路上你一直戴着耳机。虽然我说话你能听到而且去往地铁站的路上有交流,但是我觉得你对我无感,不然不会一路上一直戴着耳机。你戴着耳机,我也不知道该和你聊什么。等红绿灯的时候,你说:“我们又不顺路”。那一瞬间我心里挺难受的。我想和你说:我喜欢你,我喜欢和你走在一起的感觉,喜欢看你的笑。但是我不知道你的心,我怕我说了之后会更加尴尬。 2020年5月10号,加班出月报。中午leader请客。你摘下了口罩。终于看到你的脸了。都已经好几个月都没有看到了。看到的时候心都快跳出来的。 2020年5月11日,好像是这个日子。出月报,发现神兵文档有bug,我就和你说了这个事情。当时你的反映让我觉得我有点多余。我觉得我很难受。 2020年5月11日,好像是这个日子。内部发口罩,外包没有。一个同事非要给我口罩。真的很感谢,但是真的不需要。但是没有办法,到了那个程度了,如果再不要,似乎显得我对她有意见似的。我没数,但是数量应该在5-8个或者8个左右。我不喜欢这样,所以当天晚上就下单买了东西,准备给她一点。 2020年5月12号,整天都没有交流。下班时,我先走的,不过我没有背包,你后走的。 2020年5月12号,买的商品已经到了快递柜。 2020年5月13号,出门前

腾讯IEG开源AI SDK:自动化测试吃鸡、MOBA类游戏

一世执手 提交于 2020-10-02 20:46:21
SDK 还能自动玩游戏?这个 SDK 有点「酷」。 近日,腾讯互娱(IEG)开源了一款名为 GAME AI SDK 的自动化测试平台,该平台封装好了多种工具供开发者使用,目前支持的游戏类型有跑酷类、吃鸡类、射击类、MOBA 类等。 项目地址:https://github.com/Tencent/GameAISDK 平台内置的「天天酷跑」示例。左图为未训练随机做动作,右图是训练好的效果。 SDK(软件开发工具包)一般是软件工程师为特定的软件包、软件框架、硬件平台、操作系统等创建应用软件时可使用的开发工具集合。 似乎有些抽象。在实际项目中,我们只需记住,SDK 是手游渠道提供的,集成了用户登录、社区功能、社交分享功能、数据后台统计功能的功能模块。接入 SDK 后,游戏厂商和渠道都要对 SDK 包进行测试,测试通过才能上线。 看了上文展示的酷跑动图效果,是不是想上手试试吃鸡类、射击类的游戏体验呢?这个开源项目可以满足你的需求,它支持使用者进行项目接入以及二次开发。 AI SDK 平台 AI SDK 平台是一个基于游戏图像来开发游戏 AI 的开源工具包。工具包主要完成了 UI 检测、游戏内元素识别、AI 算法(DQN、IM)等功能。开发者可以基于此工具包完成游戏自动化测试。 目前该平台已支持的游戏类型有跑酷类、吃鸡类、射击类、MOBA 类等。特定场景下它可以代替人工进行游戏场景的自动化

注意力机制(Attention mechanism)基本原理详解及应用

99封情书 提交于 2020-10-02 14:17:15
注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。 人类的视觉注意力 从注意力模型的命名方式看,很明显其借鉴了人类的注意力机制,因此,我们首先简单介绍人类视觉的选择性注意力机制。 图1 人类的视觉注意力 视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。 这是人类利用有限的注意力资源从大量信息中快速筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制,人类视觉注意力机制极大地提高了视觉信息处理的效率与准确性。 图1形象化展示了人类在看到一副图像时是如何高效分配有限的注意力资源的,其中红色区域表明视觉系统更关注的目标,很明显对于图1所示的场景,人们会把注意力更多投入到人的脸部,文本的标题以及文章首句等位置。 深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。 Encoder-Decoder框架 要了解深度学习中的注意力模型,就不得不先谈Encoder

一文图解单目相机标定算法

主宰稳场 提交于 2020-10-02 13:46:57
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 有一天,蟹老板找底下的员工川建国同学: 等蟹老板走后,然后转头问旁边的学霸李雷同学: 李雷同学整理了下情绪: 有人反映哦,有时候我们发出来的技术贴太硬了,不方便去理解,于是,就有了上面这个尝试,在开始正课之前,我们先讲一段故事。如果大家觉得OK,后面我们将继续用这种方式来讲课,如果不OK,请大家在我们评论区提供您宝贵的意见。 这次单目相机标定教程,预计有三期,第一期讲单目相机成像过程,第二期讲MATALAB和OpenCV的单目相机标定实践,第三期则讲张正友标定法的原理。这里是3D视觉工坊嘉宾,Atlas博士生计算机视觉大讲堂,致力于把计算机视觉知识讲得不那么无趣! 01 什么是相机标定? 说到相机标定,就要先说什么是传感器的标定。我们知道,任何传感器,它都是存在有误差的,那么狭义上说,标定就是去校正这部分误差,让传感器尽量准确一点。我们来看相机标定前后输出图像的差别: 图1 相机标定前后输出图像的差别 有人说了,那为什么相机出厂前,它不提前做好标定呢? 李雷同学又鄙夷了一次建国同学: 出厂前相机标定,厂家想做(谁不想自己的传感器准一点呢),但这个真还不是厂家懒,它真做不了。因为相机要标定的参数,跟相机实际的光圈、焦距大小有关,而这两个参数,在一般的工业相机中都是可调节的,所以只能你自己来标定。

最新《深度多任务学习》综述论文,22页pdf109篇文献概述MTL最新进展

寵の児 提交于 2020-10-02 12:05:51
来源|专知 【导读】多任务学习是机器学习一类重要的方法。在深度学习背景下,多任务学习有了新的进展。这篇综述论文概述了最近流行的MTL模型的优缺点。 尽管在深度学习方面取得了最近的进展,但大多数方法仍然采用类似“筒仓”的解决方案,专注于孤立地学习每个任务:为每个单独的任务训练一个单独的神经网络。然而,许多现实问题需要多模态方法,因此需要多任务模型。多任务学习(MTL)旨在利用跨任务的有用信息来提高模型的泛化能力。 在这个综述中,我们提供了一个最先新的在深度神经网络的背景下MTL技术的全面视角。 我们的贡献涉及以下方面。首先,我们从网络架构的角度来考虑MTL。我们包括了一个广泛的概述,并讨论了最近流行的MTL模型的优缺点。其次,我们研究了解决多任务联合学习的各种优化方法。我们总结了这些工作的定性要素,并探讨了它们的共性和差异。最后,我们在各种数据集上提供了广泛的实验评估,以检查不同方法的优缺点,包括基于架构和优化的策略。 Revisiting Multi-Task Learning in the Deep Learning Era ​ arxiv.org 概述 在过去的十年中,神经网络在许多任务中都显示了令人印象深刻的结果,例如语义分割[1],实例分割[2]和单目深度估计[3]。传统上,这些任务是单独处理的,即为每个任务训练一个单独的神经网络。 然而,许多现实世界的问题本质上是多模态的

阿里云ECS云服务器通用型g6和g5的区别以及选择建议

佐手、 提交于 2020-10-02 11:33:24
阿里云ECS云服务器通用型g6和g5的区别以及选择建议 阿里云ECS云服务器通用型g6和通用型g5实例有什么区别?通用型g5和g6都是用于性能均衡场景,CPU内存比都是1:4,本文来说说通用型g6和通用型g5的区别以及选择方法:官方文档: 云服务器ECS共享标准型S6实例 ECS云服务器通用型g6和通用型g5有什么区别? 顾名思义,通用型g6是通用型g5的升级版,ECS云服务器通用型g6是第六代云服务器,性能全面提升的同时价格有所下调,如何选择?云E优站长博客建议选择通用型g6实例。 通用型g6云服务器是阿里云的第六代云服务器,第六代云服务器是基于第二代Intel至强可扩展处理器,睿频从上一代2.7Ghz提升到3.2Ghz,E2E计算性能有3-15%的提升;支持vnni指令集,对于深度学习的推理场景有2-4倍性能提升;虚拟化优化性能抖动,ping flood延时超过1ms的报文数<1/100万。 通用型g6和通用型g5区别对比表 综上,阿里云ECS云服务器通用型g6是通用型g5的升级版,性能有所提升,如何选择?新手站长网还是建议性价比放在第一位,虽然通用型g6是g5的升级版,但是通用型g5的性能也不差,如果通用型g5拥有更优惠的折扣,通用型g5也是可以选择的。 来源: oschina 链接: https://my.oschina.net/u/4312696/blog/4282830

多视图几何三维重建实战系列之R-MVSNet

人走茶凉 提交于 2020-10-02 11:31:05
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 上期文章介绍了用于 三维重建的深度学习框架MVSNet [1],这也是如今比较主流的深度估计的神经网络框架。框架的原理按照双目立体匹配框架步骤:匹配代价构造、匹配代价累积、深度估计和深度图优化四个步骤。使用过MVSNet的同学会发现,MVSNet使用3D的卷积神经网络对聚合后的代价体进行正则化,防止在学习过程中,受到低概率的错误匹配影响。 但使用三维卷积神经网络(U-Net[2]),会造成非常大的GPU消耗,使得我们在使用过程中,受到一定的限制。同时,因为该正则化的模块,导致普通GPU单卡下无法训练和测试较高分辨率的影像集,也会影响深度估计范围和估计精度。 图1 MVSNet代价体正则化 针对该问题,本篇文章将介绍CVPR2019的R-MVSNet[3],并简单根据代码,介绍运行步骤和对应的问题。 1、R-MVSNet R-MVSNet同样是香港科技大学姚遥等人在CVPR2019上提出的一种深度学习框架,它在MVSNet的基础上,解决了正则化过程中GPU消耗大、无法估计较大场景和高分辨率照片的问题。R-MVSNet的网络结构如下: 图2 R-MVSNet网络结构 和MVSNet的结构类似,给定一个参考影像和与其类似的原始影像,通过2D CNN网络进行深度特征的提取,每张影像输出32通道的特征图。在参考平面扫描算法[4