pytorch

Understanding input shape to PyTorch LSTM

心不动则不痛 提交于 2021-01-19 06:21:32
问题 This seems to be one of the most common questions about LSTMs in PyTorch, but I am still unable to figure out what should be the input shape to PyTorch LSTM. Even after following several posts (1, 2, 3) and trying out the solutions, it doesn't seem to work. Background: I have encoded text sequences (variable length) in a batch of size 12 and the sequences are padded and packed using pad_packed_sequence functionality. MAX_LEN for each sequence is 384 and each token (or word) in the sequence

我,大学没毕业,在OpenAI搞AI,想教教你如何提升“研究品味”

Deadly 提交于 2021-01-18 09:39:28
作者 | 蒋宝尚 编辑 | 陈大鑫 原文链接: 我,大学没毕业,在OpenAI搞AI,想教教你如何提升“研究品味” ​ mp.weixin.qq.com 在AI圈里有这么一个人,虽然大学没有毕业,但却做过谷歌大脑研究员,担任过OpenAI团队的领导人。他被人称作“怪胎”,也被人称作神童。 他的名字叫做Chris Olah。在众人眼里,他的成长树在一开始似乎长“歪”:18岁那一年,进入多伦多大学读本科,随后辍学开始研究计算机。他运气不错,在刚刚开始进行AI研究的时候,他就得到了知名学者、量子物理学家 Michael Nielsen 的指导。 2013 年,图灵奖得主 Yoshua Bengio 曾邀请他去做自己的研究生,但Chris居然拒绝了Bengio的邀请,去谷歌大脑团队做了实习生,跟随Jeff Dean研究卷积神经网络、交互媒体相关的内容。 仍然是运气不错。2015年,在 Greg Corrado 的帮助下,他转为了谷歌的正式员工。在谷歌的那段日子,发过多篇论文,带过博士生,并和贾扬清、Ian Goodfellow等顶尖研究员一起合作过。 根据谷歌学术,其h指数甚至达到了19,总引用数达到了32616,远超拥有博士学位的研究者。其中,最高引用的一篇文章,TensorFlow: Large-scale machine learning on heterogeneous

上手PyTorch!

非 Y 不嫁゛ 提交于 2021-01-17 03:43:43
在机器学习领域,面对各类复杂多变的业务问题,构建灵活易调整的模型是高阶机器学习工程师必备的工作能力。然而,许多工程师还是有一个想法上的误区,以为只要掌握了一种深度学习的框架就能走遍天下了。 事实上,在机器学习领域里没有任何一种框架是能够制霸整个行业的,每位机器学习工程师都必须同时掌握多种框架才能适应业务发展的需要。 那么有没有一种框架是相对来说更方便好用的呢?这个问题的答案是肯定的,在这里我就要为你推荐 PyTorch了。 不瞒你说, PyTorch 以它良好的扩展性和超高的实现速度,近年来已赢得了不少工程师的喜爱和赞赏。 首先,PyTorch 支持 GPU,这就能够显著提升代码的运行效率。同时, 相比 TensorFlow 和 Caffe,PyTorch 拥有反向自动求导技术, 让你在调整自定义模型的时候不必从头开始,帮助你节省不少的开发时间。 此外, PyTorch 的代码还比 TensorFlow 的代码更加简洁直观、友好易懂, 堪称是非常优质的学习案例,这也能帮助许多工程师更深度地理解机器学习。 说到这里,不得不推荐极客时间 PyTorch 的小课了, 众微科技 AI Lab 负责人王然 手把手教你上手 PyTorch。现在还有少量免费学习的名额哦! 王然手把手教你上手 PyTorch 众微科技 AI Lab 负责人、阿姆斯特丹大学数学和计量经济学双硕士--王然, 将

AI火爆干货最全整理!五套深度学习和算法学习教程和三套Python学习视频!!!限时无套路免费领取!

岁酱吖の 提交于 2021-01-16 04:55:56
点击蓝色“ AI专栏 ”关注我 哟 选择“ 星标 ”,重磅干货,第一时间送达 这是站长第 31 期免费送丰富宝贵的干货资源与教程 本期绝对是 满满的干货 ! 获取更多资源请关注 【AI专栏】 先上车pa 01 PART 五套深度学习算法教程! 作为AI 初学者来说,最大的问题就是: 资料太多!!!看不完!!! 不知道如何取舍!!!人的精力有限!!! 因此,本次站长就为各位站友把 高效有用 的入门和进阶学习材料整理好了, 并限时无套路免费送给各位站友!!! AI学习不仅仅在于模型掌握了多少,更多的在于你的算法分析和设计能力、工程实践能力、算法模型的优化能力。 5本享誉全球的AI好书和项目 免费 送给大家 !!! 机器学习基础 《机器学习基础》来了, 一书吃透机器学习! 先总体来看,这本书分为17个章节: 从每一个章节的设置可以看出这份教材设置的非常细致,将机器学习中的基础概念拆分开来讲,想深入了解吃透深度学习的基础,按这个目录来学也是个不错的选择。 【AI专栏】 只做 干货!!! 在这里没有任何套路!你只需要 长按下方二维码 回复【 2020 】 加站长微信即可立即获取 五套深度学习和算法学习教程和三套Python学习视频!!! 现在关注他,还有机会添加他的个人微信号,进行一对一的交流,坑位有限(微信号有 5000 人的限制),大家抓紧吧! PyTorch官方教程中文版

Finding non-intersection of two pytorch tensors

不羁的心 提交于 2021-01-15 18:13:37
问题 Thanks everyone in advance for your help! What I'm trying to do in PyTorch is something like numpy's setdiff1d . For example given the below two tensors: t1 = torch.tensor([1, 9, 12, 5, 24]).to('cuda:0') t2 = torch.tensor([1, 24]).to('cuda:0') The expected output should be (sorted or unsorted): torch.tensor([9, 12, 5]) Ideally the operations are done on GPU and no back and forth between GPU and CPU. Much appreciated! 回答1: if you don't want to leave cuda, a workaround could be: t1 = torch

Finding non-intersection of two pytorch tensors

余生颓废 提交于 2021-01-15 18:11:51
问题 Thanks everyone in advance for your help! What I'm trying to do in PyTorch is something like numpy's setdiff1d . For example given the below two tensors: t1 = torch.tensor([1, 9, 12, 5, 24]).to('cuda:0') t2 = torch.tensor([1, 24]).to('cuda:0') The expected output should be (sorted or unsorted): torch.tensor([9, 12, 5]) Ideally the operations are done on GPU and no back and forth between GPU and CPU. Much appreciated! 回答1: if you don't want to leave cuda, a workaround could be: t1 = torch

Finding non-intersection of two pytorch tensors

穿精又带淫゛_ 提交于 2021-01-15 18:09:26
问题 Thanks everyone in advance for your help! What I'm trying to do in PyTorch is something like numpy's setdiff1d . For example given the below two tensors: t1 = torch.tensor([1, 9, 12, 5, 24]).to('cuda:0') t2 = torch.tensor([1, 24]).to('cuda:0') The expected output should be (sorted or unsorted): torch.tensor([9, 12, 5]) Ideally the operations are done on GPU and no back and forth between GPU and CPU. Much appreciated! 回答1: if you don't want to leave cuda, a workaround could be: t1 = torch

Jun-Yan Zhu(朱俊彦)

纵饮孤独 提交于 2021-01-14 03:07:23
Postdoctoral researcher Computer Science and Artificial Intelligence Laboratory Department of EECS Massachusetts Institute of Technology Email: junyanz at mit dot edu CV | Google Scholar | GitHub | Thesis | Teaching | Software | Papers | Talks | Awards | Arxiv I am a postdoctoral researcher at MIT, working with William T. Freeman, Josh Tenenbaum, and Antonio Torralba. I obtained my Ph.D. from UC Berkeley after spending five wonderful years at CMU and UC Berkeley with Alexei A. Efros. I received my B.E from Tsinghua University. I study computer vision, computer graphics, and machine learning

人工智能十年回顾:CNN、AlphaGo、GAN……它们曾这样改变世界

China☆狼群 提交于 2021-01-13 11:27:43
作者:RAM SAGAR 机器之心编译 编辑:蛋酱、魔王 原文链接: https://mp.weixin.qq.com/s/NTjTg-enUjArb2umkhcVIg ​ mp.weixin.qq.com 注:文末附【深度学习与自然语言处理】交流群,最近赶ACL,比较忙,很多同学加了没有回过期了,可以重新加一下,备注好的一定会回复,敬请谅解。 盘点 AI 十年来取得的重要突破。 过去十年间,人工智能技术突飞猛进,最疯狂的科幻小说场景现在已经成为我们生活中不可或缺的一部分。十年前,人们在谈论 AI 的理论化和实验,但这些年来,AI 变得更加切实了,也变成了主流。无论是国际标准课程、平台、库、框架、硬件,一切都顺理成章。就算说这十年里取得的成绩奠定了未来的基础,也不为过。 这篇文章将盘点 AI 十年来取得的重要突破。 卷积 2012 年是深度学习历史上重要的一年。那一年,卷积神经网络(CNN)在著名的 ImageNet 挑战赛中大放异彩。由 Alex Krizhevsky 等人设计的卷积神经网络「Alexnet」以远超第二名的成绩夺冠,在 ImageNet 数据集上的视觉识别错误率为 15.3%,降低了一半。该神经网络对猫的检测准确度达到了 74.8%,在 YouTube 视频中检测人脸的准确率为 81.7%。 现在,手机和商场中的人脸识别应用都应该归功于 2012 年的这项工作

Add a index selected tensor to another tensor with overlapping indices in pytorch

最后都变了- 提交于 2021-01-13 09:25:10
问题 This is a follow up question to this question. I want to do the exactly same thing in pytorch. Is it possible to do this? If yes, how? import torch image = torch.tensor([[246, 50, 101], [116, 1, 113], [187, 110, 64]]) iy = torch.tensor([[1, 0, 2], [1, 0, 2], [2, 2, 2]]) ix = torch.tensor([[0, 2, 1], [1, 2, 0], [0, 1, 2]]) warped_image = torch.zeros(size=image.shape) I need something like torch.add.at(warped_image, (iy, ix), image) that gives the output as [[ 0. 0. 51.] [246. 116. 0.] [300.