计算机视觉

在电脑如此普遍的今天,这是每个人都有必要了解的计算机知识

不问归期 提交于 2020-04-23 07:23:49
给你们推荐一个科普视频, 计算机科学速成课 - Crash Course Computer Science 它所讲内容几乎涵盖了所有计算机相关知识,而且小姐姐讲得很生动有趣。它从 计算机历史 到 计算机组成,编程、算法、数据结构 再到 互联网 、 黑客&攻击 、 机器学习&人工智能 ,最后是 计算机未来。 不管你是否从业于IT行业,我觉得都很有必要了解计算机科学。了解它的历史,原理和互联网相关知识,这本身就是很有趣的东西。 它的主要内容如下: 1. 计算机早期历史-Early Computing 2. 电子计算机-Electronic Computing 3. 布尔逻辑 和 逻辑门-Boolean Logic & Logic Gates 4. 二进制-Representing Numbers and Letters with Binary_BiliBili 5. 算术逻辑单元-How Computers Calculate-the ALU 6. 寄存器 & 内存-Registers and RAM_BiliBili 7. 中央处理器(CPU)-The Central Processing Unit 8. 指令和程序-Instructions & Programs 9. 高级CPU设计-Advanced CPU Designs_BiliBili 10. 早期的编程方式-Early

大一上,半期总结

允我心安 提交于 2020-04-23 07:06:04
前半期总的来说是一个适应大学生活的过程,适应学校的英语环境,教学模式,教育系统等等,现在我基本上熟悉了这些东西,开始我顺畅的大学生活。 前半学期总的来说平时周一到周五都认真学习,预习复习兼顾。周末则看看计算机视觉领域所要求的的复变函数,概率论,以及以后找工作打比赛需要用到的重要知识——数据结构。这些都在B站上有很丰富的视频教程。 一.人工智能理论的学习 在人工智能的理论方面(在我们学校的人工智能都是研究生的课程,不过本科生如果不选择两个major的话,而是一个major一个minor则可以在本科阶段选三门研究生的课),我准备在大一下期选COMP5318,也就是machin learning and data mining,大二上选deep learning,大二下选计算机视觉和视频理解,这样从大三开始我就选完了自己能选的研究生的课,还能够提前半年毕业,不过后期全都是必修了。半期假期看了台湾大学李宏毅教授的机器学习课程,看到了循环神经网络,李宏毅教授讲的机器学习总的来说还是挺好的,就是对数学要求高了一点,在概率分布模型当中的高斯分布,协方差之类的当时查了很多资料才理解。看到循环神经网络之后我切换到了斯坦度大学李飞飞的视觉视频,刚好学完了googlenet,resnet,alexnet以及图像的语义分割,不过感觉李飞飞的这个视频讲的不太详细,而且快

数据衰减的一些方法和比较

允我心安 提交于 2020-04-19 12:38:02
数据衰减的一些方法和比较 在计算机视觉实时应用中,有时候需要向云台发送一些数据,比如说角度,使之运动到相应的角度。但是考虑到有时候如果直接发送目标的相对角度,可能 角度比较大,从而导致云台运动过于剧烈 ,此时考虑将发送的数据做一个衰减。 一般直接想到对发送的数据做 线性衰减 ,比如说发送数据yaw: yaw /= 10; 这样做能达到目的,但是对于所有数据都做了相同的衰减,对于很小的数,也是和很大的数据一样,做了除以10 的衰减。 换一种方式,做 分段函数的线性衰减 : if(abs(yaw) > 2) yaw /= 10; else yaw /= 5; 这样对于很大的数和很小的数做了不一样的衰减操作,似乎比上一种方法更有效。但是考虑一下分界线周围的情况,对于yaw=2.2,返回的是2.2/10 = 0.22,但是对于yaw=1.8返回的是1.8/5=0.36。一个更大的数返回了一个更小的数,似乎也是不太合理。 再换一种方式,做 指数衰减 : yaw = (yaw >= 0) ? log2(abs(yaw) + 1) : -log2(abs(yaw) + 1); 上面两个衰减遇到的问题都解决了。当然可以再调整复杂一点,另外指数衰减的底数也需要根据实际应用做出选择。但是这种方法也有一定的缺点,比如说计算过于耗时,计算机对于log函数的计算消耗的时钟周期远大于做除法消耗的时钟周期

计算机视觉面试考点(7)Batch Normalization

好久不见. 提交于 2020-04-18 19:35:43
计算机视觉工程师在面试过程中主要考察三个内容:图像处理、机器学习、深度学习。然而,各类资料纷繁复杂,或是简单的知识点罗列,或是有着详细数学推导令人望而生畏的大部头。为了督促自己学习,也为了方便后人,决心将常考必会的知识点以通俗易懂的方式设立专栏进行讲解,努力做到长期更新。此专栏不求甚解,只追求应付一般面试。希望该专栏羽翼渐丰之日,可以为大家免去寻找资料的劳累。每篇介绍一个知识点,没有先后顺序。想了解什么知识点可以私信或者评论,如果重要而且恰巧我也能学会,会尽快更新。最后,每一个知识点我会参考很多资料。考虑到简洁性,就不引用了。如有冒犯之处,联系我进行删除或者补加引用。在此先提前致歉了! Batch Normalization 神经网络中的一个层,被称为BN层 原理 训练网络的时候要对数据进行归一化 原因:使输入数据的分布是相同的 分布不相同的话,举个例子: 同样的图像内容,网络对暗一点的和亮一点的图像的理解也就不同了 以上做法只考虑了网络的输入,没有考虑网络中每一层的输入 BN层就是对每一层的分布进行调整 对每一层分布归一化的好处: 加快训练速度。对于每一个神经元来说,每次的分布都类似,那么神经元不用总是大幅度调整去适应不同的输入分布。也就是加快了网络训练速度。 缓解梯度消失。经过BN层的数据会大概率落在sigmoid激活函数导数较大的区域,缓解了梯度消失。 缓解过拟合

AI创新讲堂丨联想研究院师忠超:计算机视觉医疗健康应用案例

孤街醉人 提交于 2020-04-18 10:59:00
   本期分享主题: 计算机视觉医疗健康应用案例    摘要简介   在报告中,首先简要概括了计算机视觉技术及其在各个领域中的应用,随后详细介绍了联想计算机视觉团队在智慧医疗领域的两个应用案例:LeHealth肝脏肿瘤辅助诊断系统以及联想红外热成像智能体温监测系统。在LeHealth板块,内容集中于肝脏肿瘤辅助诊断系统中在算法研究上的创新:1. 临床专家知识如何融入网络设计;2. 高质量的标注数据获取难度大场景下的医学图像分割;3. 多模态学习,同时也包括了该系统在临床科室的试用情况以及系统所获得的的荣誉。在红外热成像智能体温监测系统板块,内容先是概括了该体温监测系统的基本情况及工作流程;其次是描述了作为该系统核心算法模块的目标检测领域发展脉络;最后通过该体温监测系统在实际使用过程中面临的困难和挑战,给出了我们的改进方案以及系统取得的效果。 讲师简介    师忠超    联想研究院人工智能实验室计算机视觉总监   博士,在人工智能领域有十多年的研发经验,主持开发的多项技术已经在相关产品中落地。目前负责计算机视觉和深度学习平台研发工作,获得2017年国际肝肿瘤分割大赛冠军,开发的肝肿瘤智能辅助诊断系统入选中国人工智能Top100案例名单,获评CCF科学技术奖科技进步优秀奖。现为科技部国家科技专家库专家,中关村高聚工程企业创新领军人才,CCF计算机视觉专委会委员,在CVPR,AAAI,

计算机视觉中的对象检测,Python用几段代码就能实现

自古美人都是妖i 提交于 2020-04-17 21:34:16
目前计算机视觉(CV)与自然语言处理(NLP)及语音识别并列为人工智能三大热点方向,而计算机视觉中的对象检测(objectdetection)应用非常广泛,比如自动驾驶、视频监控、工业质检、医疗诊断等场景。 下面就是我们完整的代码实现(已调试运行): 如图所示,我们将会检测到红色区域 最终的效果图: 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 http://t.cn/A6Zvjdun 2020年最新Python教程: 如果你处于想学Python或者正在学习Python,Python的教程不少了吧,但是是最新的吗? 说不定你学了可能是两年前人家就学过的内容,在这小编分享一波2020最新的Python教程。 以上这些教程小编已经为大家打包准备好了,希望对正在学习的你有所帮助! 获取方式,私信小编 “ 资料 ”,即可免费获取哦! 来源: oschina 链接: https://my.oschina.net/u/4414278/blog/3269903

【LeetCode】215. Kth Largest Element in an Array

拜拜、爱过 提交于 2020-04-17 19:53:03
我的个人 微信公众号: Microstrong 微信公众号ID: MicrostrongAI 微信公众号介绍:Microstrong(小强)同学主要研究机器学习、深度学习、计算机视觉、智能对话系统相关内容,分享在学习过程中的读书笔记!期待您的关注,欢迎一起学习交流进步! 知乎主页:https://www.zhihu.com/people/MicrostrongAI/activities Github:https://github.com/Microstrong0305 个人博客:https://blog.csdn.net/program_developer 215. Kth Largest Element in an Array Find the k th largest element in an unsorted array. Note that it is the kth largest element in the sorted order, not the kth distinct element. Example 1: Input: [3,2,1,5,6,4] and k = 2 Output: 5 Example 2: Input: [3,2,3,1,2,4,5,5,6] and k = 4 Output: 4 Note: You may assume k is

Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network论文翻译——中文版

♀尐吖头ヾ 提交于 2020-04-17 14:14:20
【推荐阅读】微服务还能火多久?>>> 文章作者:Tyan 博客: noahsnail.com | CSDN | 简书 声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! 翻译论文汇总: https://github.com/SnailTyan/deep-learning-papers-translation Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network 摘要 尽管使用更快更深的卷积神经网络在单图像超分辨率的准确性和速度方面取得了突破,但仍有一个主要问题尚未解决:当使用大的上采样系数进行超分辨率时,我们怎样来恢复更精细的纹理细节。基于优化的超分辨率方法的行为主要由目标函数的选择来决定。最近的工作主要专注于最小化均方重构误差。由此得出的评估结果具有很高的峰值信噪比,但它们通常缺乏高频细节,并且在感知上是不令人满意的,在某种意义上,它们在较高分辨率上没有满足期望的保真度。在本文中,我们提出了SRGAN,一种用于图像超分辨率(SR)的生成对抗网络(GAN)。据我们所知,这是第一个对于4倍上采样系数,能推断逼真自然图像的框架。为此,我们提出了一种感知损失函数,其由对抗损失和内容损失组成。对抗损失使用判别器网络将我们的解推向自然图像流形

PaddlePaddle/PaddleFL

别来无恙 提交于 2020-04-16 11:51:48
【推荐阅读】微服务还能火多久?>>> PaddleFL PaddleFL是一个基于PaddlePaddle的开源联邦学习框架。研究人员可以很轻松地用PaddleFL复制和比较不同的联邦学习算法。开发人员也可以从padderFL中获益,因为用PaddleFL在大规模分布式集群中部署联邦学习系统很容易。PaddleFL提供很多联邦学习策略及其在计算机视觉、自然语言处理、推荐算法等领域的应用。此外,PaddleFL还将提供传统机器学习训练策略的应用,例如多任务学习、联邦学习环境下的迁移学习。依靠着PaddlePaddle的大规模分布式训练和Kubernetes对训练任务的弹性调度能力,PaddleFL可以基于全栈开源软件轻松地部署。 联邦学习 如今,数据变得越来越昂贵,而且跨组织共享原始数据非常困难。联合学习旨在解决组织间数据隔离和数据知识安全共享的问题。联邦学习的概念是由谷歌的研究人员提出的[1,2,3]。 PaddleFL概述 在PaddleFL中,横向和纵向联邦学习策略将根据[4]中给出的分类来实现。PaddleFL也将提供在自然语言处理,计算机视觉和推荐算法等领域的应用示例。 联邦学习策略 纵向联邦学习 : 带privc的逻辑回归,带第三方privc的神经网络[5] 横向联邦学习 : 联邦平均 [2],差分隐私 [6] 训练策略 多任务学习 [7] 迁移学习 [8] 主动学习

《Python数据分析与机器学习实战-唐宇迪》读书笔记第19章--卷积神经网络

倾然丶 夕夏残阳落幕 提交于 2020-04-15 13:02:36
【推荐阅读】微服务还能火多久?>>> python数据分析个人学习读书笔记-目录索引 19章卷积神经网络   本章介绍现阶段神经网络中非常火的模型——卷积神经网络,它在计算机视觉中有着非常不错的效果。不仅如此,卷积神经网络在非图像数据中也有着不错的表现,各项任务都有用武之地,可谓在机器学习领域遍地开花。那么什么是卷积呢?网络的核心就在于此,本章将带大家一步步揭开卷积神经网络的奥秘。 19.1卷积操作原理   卷积神经网络也是神经网络的一种,本质上来说都是对数据进行特征提取,只不过在图像数据中效果更好,整体的网络模型架构都是一样的,参数迭代更新也是类似,所以难度就在于卷积上,只需把它弄懂即可。 19.1.1卷积神经网络应用   卷积神经网络既然这么火爆,肯定能完成一些实际任务,先来看一下它都能做什么。   图19-1是经典的图像分类任务,但是神经网络也能完成这个任务,那么,为什么说卷积神经网络在计算机视觉领域更胜一筹呢?想想之前遇到的问题,神经网络的矩阵计算方式所需参数过于庞大,一方面使得迭代速度很慢,另一方面过拟合问题比较严重,而卷积神经网络便可以更好地处理这个问题。   图19-1 图像分类任务   图19-2是检测任务的示例,不仅需要找到物体的位置,还要区分物体属于哪个类别,也就是回归和分类任务结合在一起。现阶段物体检测任务随处可见,当下比较火的无人驾驶也需要各种检测任务。