自动驾驶

智能服装成AIoT下一个风口?苹果连甩66项专利,还有车载VR!

自古美人都是妖i 提交于 2020-08-14 03:43:19
“ 看点:智能服装成下一个焦点? 据外媒报道,苹果近日接连获批66项专利,包括智能手套在内的智能服装是苹果发力的重点方向之一。另外,苹果还获批了车载VR、AR地图、湿手屏幕触控等新专利。 此次获批的专利中,与智能手套相关专利有两项,其中一项专利为衣物表面传感器,可以增强用户触控时的物理反馈;另一项专利为一种智能手套交互系统,可以实现隔空操控屏幕内容。 如今,苹果在可穿戴业务方面的投入已经取得了显著成效,AirPods、Apple Watch等产品的年销量已经逼近亿级。为了进一步拓展可穿戴产品线,苹果想到了“智能服装”,而这样的产品也可以更好地融入用户的日常生活中。 1 模拟更真实的物理反馈 美国专利商标局周二批准了苹果的亮相新专利。通过这些专利,苹果希望找到一种方式,让用户可以通过操控针织物上面的触点或感应器,来完成与智能设备的交互。 在第一项专利中,苹果提出了一种设计,在衣物中置入一些感应器,当用户触碰到这些感应器的触点时,这些感应器会发生振动,从而模拟用户按下按键时的真实物理反馈。这些感应器可以做的非常小巧,同时功耗也非常低,对于衣物外观的影响也会降低到最小。 ▲衣物感应器 这些感应器通过导电材料连接,导电材料可以布置在衣物内部,所有感应器会连接到一个主控系统中。 有意思的是,这个设计可以通过通电和断电来控制这些感应器的突起状态。当电流通过时,感应器中的线材会膨胀从而突起

工业物联网应用

给你一囗甜甜゛ 提交于 2020-08-14 03:29:56
7种改变游戏规则的工业物联网应用 围绕物联网(IoT)的对话已从“什么”转变为“如何”。大多数制造商完全意识到,自动化,软件和连接性方面的进步可以为其运营带来巨大的生产力和效率优势,并且正在寻找应用此类技术的方法。但是,这正是工业物联网的无所不包的本质,以至于很难为树木所用。 在这里,我们指出了物联网在制造业中的一些关键应用,这些应用使用了传感器,有线和无线连接器等核心产品的构建模块,同时着眼于这种创新如何帮助制造商转变其设计,构建和维护其产品的方式。产品,更多信息尽在振工链。 自动驾驶汽车:自由漫游的机器人在工厂车间内移动 德勤说,机器人的行进进展顺利,无数自动驾驶汽车已经进入工厂车间,以提高常规操作的速度和准确性。在物联网的支持下,这些自由漫游机器人可以比以往任何时候都得到更大程度的协调,从而使它们能够以可控和可预测的方式执行自动化任务,并且无需人工监督。这使他们有潜力改善制造工厂内部的运营,尤其是在部件处理和运输等领域,从而提供了提高生产率,降低风险,降低成本和改善数据收集的机会。这使工人可以将精力集中在高价值的活动上,例如生产和装配。 从历史上看,自动引导车辆和传送带已被安装为在工厂内运输材料和零件的一种手段。但是,大多数这些系统都依赖于没有偏差的预设路线,更多信息尽在振工链。 现在,随着机器人技术,传感器,3D相机,5G连接,软件和人工智能等技术的融合

产品经理需求篇:如何有效评估需求优先级?

a 夏天 提交于 2020-08-13 19:56:21
在 【产品经理需求篇:如何有效进行需求挖掘和分析】 中,我们谈到需求收集后,必须通过谨慎的分析,才能避免掉入伪需求的陷阱。那在完成这一步之后,现在手边都是「可以做的」需求时,我们怎么决定哪些做?哪些不做?和优先做什么? 许多产品经理常会面临到一个尴尬的状况: 不缺需求,但是迷失在众多需求中 。觉得这个需求很紧急、那个需求也很重要,想实现的需求很多,但每次迭代的开发资源有限,不可能一次全都做完,所以,这时决定需求的优先级就变得非常关键,不然团队会不知道各项事务的轻重缓急,资源和精力都无法集中在最重要的目标上。 如何定义需求优先级? 每位产品经理可能都有不同的排序原则: 1.按紧急程度,越紧急、逼得越紧的越优先; 2.按开发先后顺序,前置项的优先; 3.按需求方的职级,老板的需求优先; 4.按产品经理自身的判断,我说了算; 5.按开发实现的难易度,简单的先做; 6.按项目排期的进度,按部就班; 7.按业务实现后的贡献度,价值高的先做。 在不同的情景和产品阶段下,评定需求优先级的标准可能都会有所差异。比如说我们在一家外包公司,那可能是按排期和客户重要度来排序; 又或是我们在老板超级强势又有想法的公司,那需求可能就是Boss说了算。 但撇开这些因素,回到产品的核心来说, 「我们怎么更好地实现产品的业务价值」 ,这才是第一衡量指标。 从什么角度衡量需求和业务价值的相关度? 回答这个问题前

洋山港擎天柱 上汽“5G+L4”智能重卡启动准商业化运营

|▌冷眼眸甩不掉的悲伤 提交于 2020-08-13 19:52:05
上汽集团今日宣布,在去年成功示范运营的基础上,公司自主研发的“5G+L4”智能重卡已经在上海洋山港启动准商业化运营,今年计划完成2万个标准集装箱运输任务。上汽集团将充分发挥自身整车技术和智能技术的综合优势,加快助力洋山港建设成为具有全球领先水平,集智能驾驶、智慧物流为一体的智能港口。 去年以来,融合了AI人工智能、5G、V2X车联通讯等先进技术的上汽智能重卡,成功实现在港区特定场景下的L4级自动驾驶、厘米级定位、精确停车(±3cm)、与自动化港机设备的交互以及东海大桥队列行驶,为港口运输客户提供更智能、更安全、更高效、更环保的集装箱转运方案。 基于自主研发的视觉感知系统、激光雷达系统、毫米波雷达系统以及卫星和惯性导航组合系统,上汽“5G+L4”智能重卡具备多维度、多方位360度感知能力,能在前后各约250米、左右各约80米的范围内精确感知交通参与者,对行人、车辆、其他障碍物等进行精确识别,规划路经,提供比人类驾驶员更安全可靠的车辆操控。今年,通过对车速、路径、挂车夹角等多目标的综合优化,智能重卡实现精准倒车功能。十余米长的重卡,在两侧到轮胎只有7、8cm的狭窄库位中,整体入库成功率高达100%,倒车平均用时70秒,已超过熟练驾驶员的倒车效率和精度。 基于5G和V2X技术,上汽为智能重卡专门“打造”了队列行驶功能,能在20毫秒内建立车队间的实时交互通讯,确保自动跟车、车道保持

达芬奇机器人变身‘模仿达人’,通过看视频模仿手术缝合、穿针、打结等动作...

核能气质少年 提交于 2020-08-13 19:48:27
点击 上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 模仿是最原始的学习方法,也是实现人工智能的基石。 通过深度学习和算法,机器人也可以通过看视频学会各种各样的技能。 先看个图: 是不是觉得有点眼熟。 没错,它就是技艺高超,被大家所熟知的达芬奇机器人。 这次它又被赋予了新功能:通过观看教学视频,学会外科手术中的相关任务。比如缝合,穿针,以及打结等动作。 让达芬奇机器人变成‘模仿艺人’的关键,是一个叫做Motion2Vec的半监督式学习算法,近日由谷歌大脑,英特尔公司和加利福尼亚大学伯克利分校合作开发。 起初,加州大学伯克利分校的教授曾使用YouTube视频作为机器人学习各种动作(例如跳跃或跳舞)的指南。机器人模仿视频中的动作,成功学习了20多种杂技,比如侧空翻、单手翻、后空翻等高难度动作。 谷歌此前也有过相关研究,例如使用视频来教授四足机器人学习狗狗的灵活动作。 这些经历促成了他们彼此的合作,他们将这些知识应用于最新项目Motion2Vec中,在这个过程中,使用了实际手术过程的视频进行指导和训练。 在最近发布的论文中,研究人员概述了他们如何使用 YouTube视频训练两臂的达芬奇机器人在织布机上插入针头并进行缝合。 人类在看视频的时候可以迅速理解内容,但机器人目前无法做到这一点,它们只是将其视为像素流。因此,要以机器人的方式让他们理解并学习——弄清并分析这些像素

边缘计算将改变哪些行业?CBInsights详解云边协同下的十大产业变革

梦想与她 提交于 2020-08-13 18:38:24
  远程工作、金融服务、自动驾驶,从田间地头到城市活动,数据计算的滞后都可能导致巨大的经济损失和人身安全威胁。   在医疗保健领域,可穿戴设备(包括便携式心电图设备和温度监测传感器)对于收集患者数据越来越重要。随着医院病人数据的增长,即使是微小的处理延迟也可能生死攸关。   当前连接设备的大部分数据处理都是在云中进行的,这就导致在中央服务器上来回发送数据可能需要花费几秒钟的时间,还需要大量昂贵的基础架构。    到 2025 年,预计全球每天将产生 463 艾字节的数据 ,相当于每天产生超过 2 亿张 DVD。根据 IDC 数据,预计每年产生的数据量将从 2019 年的 40 泽字节(zettabytes,1 泽字节 = 2^ 70 字节) 增长到 2025 年的 175 泽字节,翻了四倍多。      图1 丨IDC预计到2025年全球将产生175 Zettabytes的数据量(来源:CB Insights)   传统上,云计算已成为将许多设备连接到互联网的可靠且具有成本效益的手段,但物联网和移动计算的不断发展给网络带宽带来了压力。随着越来越多的设备连接到互联网并生成数据,云计算可能无法处理所有这些问题,或者说延迟时间不够低,无法在关键决策时刻发挥作用。   传统云基础架构可能满足不了所有应用和场景,边缘计算可以提供这部分市场的解决方案,这就是边缘计算的由来

还原时代原声,AI修复老北京再次火爆全网

☆樱花仙子☆ 提交于 2020-08-13 16:56:48
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 凭借AI修复老北京影像火爆B站的Up主大谷兄,今天又来带我们玩穿越了! 这次是1929年的老北京,除了AI上色、补帧、扩大分辨率外,还百分百还原了时代原声,老北京的味儿太足了! 人头攒动,熙熙攘攘,有赚吆喝的、看热闹的、闲聊的,老北京集市好不热闹。 大鼓、笛子、四胡、三弦,手艺人的一曲《打新春》,有内味了。 盲人"爵士"乐队 原来理发最低不是5块,还有2块的! 听他们聊天,网友表示想看相声了。 师傅:疼不疼? 小伙:不疼。我还不哭呢外带着。 小伙:这个头好,剃得不疼,剃不好,真疼,剃好了咱还找你去。 师傅:唉 ...... 如果精神小伙穿越到现在,会不会是一位优秀的Up主? 精神小伙理发记 溢出屏幕的开心劲儿,看来发型很满意。在我们这年代都不用理,用不了几年就能天然形成[傲娇] 吃饭还能这么热闹吗?我们现在都是隔着两米! 惊现“地摊经济” 3min的珍贵影像资料,可谓真真切切地感受了老北京九十年前的生活状态。虽然看起来物质生活不是很富裕,但隔着屏幕都是感受到那时候人们的欢乐。准确的来说,这段影像记录的是1927-1929年的老北京,出自南卡罗莱纳大学影像库馆藏胶片。 另外,这段影像修复视频依然出自B站Up主大谷之手,此前他曾用AI修复过1920-1927年的一段老北京影像,在B站爆火,视频点击量超过了200万

软银愿景基金领投,滴滴自动驾驶获超5亿美元注资,系国内行业单笔最大融资

限于喜欢 提交于 2020-08-13 16:02:22
   5 月 29 日,滴滴出行宣布旗下自动驾驶公司完成首轮超 5 亿美元融资,以加大研发测试投入,加深产业合作 ,推进在国内外特定区域开展自动驾驶载人应用,进一步提升出行安全和效率。   2016 年,滴滴开始投入自动驾驶研发测试。2019 年 8 月,滴滴将旗下自动驾驶部门升级为公司。这是滴滴自动驾驶公司成立后首次对外融资,也是目前国内自动驾驶公司,获得的单笔最大融资。该轮投资由软银愿景基金 2 期领投。      据了解,获得资金支持后,滴滴将加大自动驾驶、车路协同及相关 AI 技术投入,探索区域落地,助力当地 “新基建” 发展。与此同时,滴滴也将进一步加深与汽车上下游产业合作,加快自动驾驶量产进程,推动全球汽车与交通产业的变革。   除自建测试车队外,自动驾驶公司将滴滴平台累积的海量真实出行数据用于仿真测试,从而突破实地测试数据量的瓶颈,提升研发效率,加快算法迭代。同时公司正在探索把滴滴在网约车的安全运营经验,和线下管理能力,逐步应用于未来自动驾驶测试运营。   现在,滴滴已在北京、上海、苏州、美国加州获得路测资格,并在上海取得首批 “智能网联汽车示范应用” 牌照,可开展载人测试。滴滴自动驾驶公司正与滴滴旗下的小桔车服及滴滴金融共同探索,包括智能充电桩设立、车队维保、保险等项目在内的未来出行整体解决方案。   滴滴宣布拆分自动驾驶业务成立独立子公司之后的公开场合上,滴滴出行

昨夜,5G R16标准正式冻结!5G物联网扬帆起航

邮差的信 提交于 2020-08-13 14:09:51
作者:赵小飞 物联网智库 整理发布 转载请注明来源和出处 导 读 昨天夜里,负责5G标准的国际组织3GPP TSG#88全体会议宣布5G R16标准冻结。在新冠疫情全球肆虐的背景下,标准化推进工作遇到非常大的挑战,而3GPP的专家们依然能够不负众望,克服了重重困难,按时冻结了R16标准,标准化的出色工作也给产业界推动5G加速商用注入强大信心。 北京时间昨天夜里,负 责5G标准的国际组织3GPP TSG#88全体会议宣布5G R16标准冻结。 在新冠疫情全球肆虐的背景下,标准化推进工作遇到非常大的挑战,而3GPP的专家们依然能够不负众望,克服了重重困难,按时冻结了R16标准,标准化的出色工作也给产业界推动5G加速商用注入强大信心。 R16冻结背后:本身超强工作量,疫情又添难度 2018年12月,3GPP曾宣布R16标准从2019年12月延期到2020年3月冻结,并在2020年6月完成R16 ASN.1冻结。而在今年3月份,由于受疫情影响,一些工作计划也不得不推迟,包括R17标准时间表的调整,3GPP决定整体工作向后推迟3个月,R16 Stage3将于2020年6月冻结,计划中的R16 ASN.1也在同一时间冻结。 以下为3GPP官方发布的新的5G标准推进路线图: 5G标准推进路线图(来源:3GPP官网) 移动通信发展至5G,其技术体系已经非常复杂,内容也越来越多

DEMO: 一种单目视觉里程计的深度增强方法

混江龙づ霸主 提交于 2020-08-13 14:08:37
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 作者:robot L | 来源:知乎 https://zhuanlan.zhihu.com/p/149349921 本文仅做学术分享,如有侵权,请联系删除。 主要内容 从粗到精的相机自运动估计流程:基于相邻两帧之间的约束进行帧帧位姿估计(相机频率),优化当前帧位姿,得到粗糙的位姿估计;在滑动窗内执行BA,利用窗口内所有约束优化窗口内所有帧的位姿(0.25-1Hz),得到准确的位姿估计。最后融合上述两种估计得到相机频率的准确位姿估计。 亮点 分别使用 稀疏LiDAR点云/深度图片 和 三角化 获得特征点的深度 。 对于 有深度 和 无深度 的特征点,构建两种不同约束共同用于位姿优化。 J. Zhang, M. Kaess, S. Singh. Real-time Depth Enhanced Monocular Odometry . IEEE/RSJ International Conference on Intelligent Robots and Systems , 4973-4980, 2014. J. Zhang, M. Kaess, S. Singh. A real-time method for depth enhanced visual odometry. Autonomous Robots , 41(1),