神经网络

基于内容的图像检索(CBIR) ——以图搜图

陌路散爱 提交于 2020-08-11 21:27:59
@ 目录 一、实现原理 二、 基于内容的图像检索的特征提取 三、代码实现 打赏 在CBIR中,图像通过其视觉内容(例如颜色,纹理,形状)来索引。 一、实现原理 首先从图像数据库中提取特征并存储它。然后我们计算与查询图像相关的特征。最后,我们检索具有最近特征的图像 二、 基于内容的图像检索的特征提取 在这篇研究论文中( https://arxiv.org/pdf/1404.1777.pdf ),作者证明了为分类目的而训练的卷积神经网络(CNN) 可用于提取图像的“神经代码”。这 些神经代码是用于描述图像的特征。研究表明这种方法在许多数据集.上的表现与最先进的方法一样。这种方法的问题是我们首先需要标记数据来训练神经网络。标签任务可能是昂贵且耗时的。为我们的图像检索任务生成这些“神经代码”的另一种方法是使用无监督的深度学习算法。这是去噪 自动编码器的来源。相关代码可以参见: https://blog.csdn.net/qq_34213260/article/details/106333947 . 三、代码实现 import numpy as np from keras.models import Model from keras.datasets import mnist import cv2 from keras.models import load_model from

美国采用人工智能领域来对抗种族偏见

爷,独闯天下 提交于 2020-08-11 20:47:06
自从对种族不平等的广泛抗议开始以来, IBM宣布将取消面部识别程序,以促进执法中的种族平等。亚马逊禁止警察使用其Rekognition软件一年,以“制定更严格的法规来管理人脸识别技术的道德使用。” 但是,人工智能不仅需要监管方面的变革,还需要更多。整个人工智能(AI)领域必须从计算机科学实验室中脱颖而出,并接受整个社区的拥护。 我们可以开发出令人惊叹的AI,这些AI在很大程度上可以公正地在世界上工作。但是要做到这一点,AI不能像现在一样只是计算机科学(CS)和计算机工程(CE)的子领域。我们必须创建一门人工智能的学术学科,将人类行为的复杂性考虑在内。我们需要从计算机科学拥有的AI转变为计算机科学支持的AI。AI的问题在实验室中不会发生。它们发生在科学家将技术转移到现实世界中时。CS实验室中的培训数据通常缺乏您和我所居住的世界的背景和复杂性。这种缺陷使偏差长期存在。 人工智能驱动的算法已发现对有色人种和女性有偏见。例如,2014年,亚马逊发现其开发的用于自动猎头的AI算法使自己偏向于女性候选人。麻省理工学院的研究人员在2019年1月的报告中指出,面部识别软件在识别深色色素方面的准确性较差。最近,在美国标准技术研究院(NIST)于去年年底进行的一项研究中,研究人员在近200种面部识别算法中发现了种族偏见的证据。 尽管有无数的AI错误示例,但热心仍在继续

Tensorflow实现神经网络的前向传播

好久不见. 提交于 2020-08-11 20:22:21
我们构想有一个神经网络,输入为两个input,中间有一个hidden layer,这个hiddenlayer当中有三个神经元,最后有一个output。 图例如下: 在实现这个神经网络的前向传播之前,我们先补充一下重要的知识。 一.权重w以及input的初始化 我们初始化权重w的方法为随机生成这些权重,一般可以使用这些随机生成的数据正好在正态分布的曲线上,这也是最符合生成符合自然规律的随机数生成方法: import tensorflow as tf # 一般情况下神经网络上的参数是w的数列,当然我们一般使用随机数来生成这些参数 w=tf.Variable(tf.random_normal([2,3],stddev=2,mean=0,seed=1 )) # 其中stddev表示标准差,mean表示均值,【】表示随机生成正态分布的数值的shape 这样我们的权重就生成了,我们初始化input的方法有有以下几种,伪代码如下: 除了这种方式,我们还可以使用 tf.constant([ 1,2,3 ]),来生成指定数值 tf.zeros([ 2,3 ],int32),用来生成全零 tf.ones([ 2,3 ],int32),同来生成全1 tf.fill([ 3,2],6),生成指定数值 下面我们编写一个仅有一个初始值input的神经网络,并利用tensorflow实现对其进行前向传播

做目标检测,这6篇就够了:CVPR 2020目标检测论文盘点

≯℡__Kan透↙ 提交于 2020-08-11 19:15:22
CVPR 2020 会议上,有哪些目标检测论文值得关注? 选自heartbeat,作者:Derrick Mwiti,机器之心编译,参与:陈萍。 目标检测是计算机视觉中的经典问题之一。凭借大量可用数据、更快的 GPU 和更好的算法,现在我们可以轻松训练计算机以高精度检测出图像中的多个对象。 前不久结束的 CVPR 2020 会议在推动目标检测领域发展方面做出了一些贡献,本文就为大家推荐其中 6 篇有价值的目标检测论文。 论文清单 A Hierarchical Graph Network for 3D Object Detection on Point Clouds HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud Camouflaged Object Detection Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector D2Det: Towards High-Quality Object Detection and Instance Segmentation 1. A

张钹、高文、杨强同台论道“AI精度与隐私的博弈”

别说谁变了你拦得住时间么 提交于 2020-08-11 18:41:17
      作 者 | 陈大鑫、青暮    编辑 | 丛 末   AI时代,大众是不是真的就没有隐私了呢?   以联邦学习为代表的新兴AI技术,能否实现AI协作,提升模型精度的同时实现数据隐私的保护。那么中国如何抢占人工智能安全发展的制高点?下一个10年中人工智能又将何去何从?   就上述话题,AI Time联合北京智源研究院,邀请了 张钹院士、高文院士、杨强教授、唐杰教授、刘知远副教授进行了第15期论道,共同探讨“AI精度与隐私的博弈”。 在具体讨论过程中,采用了唐杰、刘知远发问,张钹、高文、杨强回答的形式进行。   在论坛中,几位嘉宾提到,国外以“欧盟的 GDPR”为代表的相关法律法规以及国内的相关法律规定都取得了长足进展, 隐私计算技术也出现了三大主流门派:譬如说安全多方计算--少林派;安全可信计算环境方式--华山派;联邦计算--武当派 。   另外,几位嘉宾还就提升模型精度是否一定意味着牺牲隐私保护?如何让更多人参与到技术创新中来,是开源还是激励机制?下一代AI技术应该具备哪些特点?我们如何抢占制高点?人与AI如何更好地协作,创造更大的价值?等等这些问题进行了讨论。   以下是演讲全文,AI科技评论做了不改变愿意的整理,未经嘉宾确认。    1    隐私保护是否阻碍了人工智能的发展       唐杰: 提升模型精度是否一定要牺牲隐私保护

走出学习人工智能的第一步

时光毁灭记忆、已成空白 提交于 2020-08-11 18:16:43
“无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。点 这里 可以跳转到教程。” 21世纪初的时候,曾流行一种说法: 不懂计算机、外语和驾驶技术的人将成为 21 世纪的文盲 。时光荏苒,现在会计算机、外语和驾驶技术的人越来越多了。但是,近几年又流行另外一种说法: 不懂人工智能的人将成为 21 世纪的新文盲 。由此可见,学习人工智能技术的重要性和紧迫性。那么,人工智能技术到底是什么呢?它的知识体系是什么样的呢?我们该如何学习人工智能技术呢?带着这种种的疑问,我学习了 极客时间 App上《 人工智能基础课 》专栏。本专栏作者 王天一 老师是工学博士,目前在贵州大学大数据与信息工程学院担任副教授,对大数据和人工智能技术有着深入的研究。 通过对本专栏的学习,我对人工智能技术有了全面的了解。在这篇文章中,我分享一下自己的学习总结,供各位想入门人工智能的朋友参考。 专栏主要内容 作者在开篇词中提到, 人工智能复杂,但并不神秘,普及人工智能的基础知识,是走出了解人工智能的第一步 。为什么说人工智能不神秘呢?因为它 建立在以线性代数和概率论为骨架的基础数学上,通过简单模型的组合实现复杂功能 。对于具备一定数学基础的人来说,只要掌握了正确的方法,就一定能够登堂入室,领略到人工智能之美。

太牛了!98 年后浪科学家,首次挑战图片翻转不变性假设,一作拿下 CVPR 最佳论文提名

我的未来我决定 提交于 2020-08-11 18:01:40
出品 | AI科技大本营(ID:rgznai100) 刚刚结束的CVPR大会, 总共收到6424篇论文中,仅有26篇获得最佳论文提名,占0.4%的比例。 其中,康奈尔大学大四学生林之秋,以第一作者身份提交的“Visual Chirality”(视觉手性)一文获得最佳论文提名,成为唯一一个还在本科阶段,年龄最小的第一作者获奖者。 论文中,林之秋等人首次挑战了常规神经网络训练中图片”翻转不变性“(flip-invariant) 的这一假设。这篇文章在多种领域(人脸,互联网图片,数字处理图像)上利用卷积神经网络发现了许多常人难以捕捉的”视觉手性“线索,并通过自监督训练在多项数据集上达到了60%甚至到90%的精度。 这次取得最佳论文提名并非偶然,实际上,林之秋的学霸光环从进入大学后一直很耀眼。 大一,他同时选修了计算机和数学两个专业,因为成绩极为优异,他受计算机系的邀请以助教身份给高年级同学讲课,还为康奈尔科技学院(Cornell Tech)的硕士生编写预修课程。 大二开始,他选修了博士课程,开始从事科研工作。 到了大三,林之秋当上了机器学习高阶课程的助教,给博士生的期末试卷打分。 大学毕业,他的成绩在学院上千名学生中名列前三,被授予学院最高荣誉,并受院长邀请,代表学院在毕业典礼上举旗。 不过,学霸此次获得最佳论文提名并不像大学期末考试那样相对容易。林之秋提到

深度学习中IU、IoU(Intersection over Union)的概念理解以及python程序实现

China☆狼群 提交于 2020-08-11 17:50:49
from: 深度学习中IU、IoU(Intersection over Union)的概念理解以及python程序实现 IoU(Intersection over Union) Intersection over Union是一种测量在特定数据集中检测相应物体准确度的一个标准。我们可以在很多物体检测挑战中,例如PASCAL VOC challenge中看多很多使用该标准的做法。 通常我们在 HOG + Linear SVM object detectors 和 Convolutional Neural Network detectors (R-CNN, Faster R-CNN, YOLO, etc.)中使用该方法检测其性能。注意,这个测量方法和你在任务中使用的物体检测算法没有关系。 IoU是一个简单的测量标准,只要是在输出中得出一个预测范围(bounding boxex)的任务都可以用IoU来进行测量。为了可以使IoU用于测量任意大小形状的物体检测,我们需要: 1、 ground-truth bounding boxes(人为在训练集图像中标出要检测物体的大概范围); 2、我们的算法得出的结果范围。 也就是说,这个标准用于测量真实和预测之间的相关度,相关度越高,该值越高。 如下图: 下图展示了ground-truth和predicted的结果,绿色标线是人为标记的正确结果

视觉图像资料URL

假装没事ソ 提交于 2020-08-11 15:57:29
大部分转载自博客园大神: http://www.cnblogs.com/einyboy/p/3594432.html ,并进行了部分更新修改~ 目录如下: 1. 特征提取Feature Extraction; 2. 图像分割Image Segmentation; 3. 目标检测Object Detection; 4. 显著性检测Saliency Detection; 5. 图像分类、聚类Image Classification, Clustering; 6. 抠图Image Matting; 7. 目标跟踪Object Tracking; 8. Kinect; 9. 3D相关; 10. 机器学习算法; 11. 目标、行为识别Object, Action Recognition; 12. 图像处理; 13. 一些实用工具; 14. 人手及指尖检测与识别; 15. 场景解释; 16. 光流Optical flow; 17. 图像检索Image Retrieval; 18. 马尔科夫随机场Markov Random Fields; 19. 运动检测Motion detection; 20. database. 一、特征提取Feature Extraction: SIFT [1] [ Demo program ][ SIFT Library ] [ VLFeat ] PCA-SIFT [2

ILSVRC-ImageNet历年竞赛冠军

妖精的绣舞 提交于 2020-08-11 14:44:01
ImageNet 是一个超过15 million的图像数据集,大约有22,000类。 是由李飞飞团队从2007年开始,耗费大量人力,通过各种方式(网络抓取,人工标注,亚马逊众包平台)收集制作而成,它作为论文在CVPR-2009发布。当时人们还很怀疑通过更多数据就能改进算法的看法。 深度学习发展起来有几个关键的因素,一个就是庞大的数据(比如说ImageNet),一个是GPU的出现。(还有更优的深度模型,更好的优化算法,可以说数据和GPU推动了这些的产生,这些产生继续推动深度学习的发展)。 ILSVRC 是一个比赛,全称是ImageNet Large-Scale Visual Recognition Challenge,平常说的ImageNet比赛指的是这个比赛。 使用的数据集是ImageNet数据集的一个子集,一般说的ImageNet(数据集)实际上指的是ImageNet的这个子集,总共有1000类,每类大约有1000张图像。具体地,有大约1.2 million的训练集,5万验证集,15万测试集。 ILSVRC 从2010年开始举办,到2017年是最后一届 (在算法层面已经刷过拟合了,再比下去意义不是很大了)。ILSVRC-2012的数据集被用在2012-2014年的挑战赛中(VGG论文中提到)。ILSVRC-2010是唯一提供了test set的一年。