Apache Atlas

流媒体与实时计算,Netflix公司Druid应用实践

我们两清 提交于 2020-08-12 16:39:41
Netflix(Nasdaq NFLX),也就是网飞公司,成立于1997年,是一家在线影片[租赁]提供商,主要提供Netflix超大数量的[DVD]并免费递送,总部位于美国加利福尼亚州洛斯盖图。1999年开始订阅服务。2009年,该公司可提供多达10万部DVD电影,并有1千万的订户。2007年2月25日,Netflix宣布已经售出第10亿份DVD。 Netflix已经连续五次被评为顾客最满意的网站。可以通过PC、TV及iPad、iPhone收看电影、电视节目,可通过[Wii],[Xbox360],[PS3]等设备连接TV。Netflix是全球领先的经营在线业务公司。它成功地把传统的影像租赁业务和现代化的市场营销手段、先进的IT网络技术结合起来,从而开创了在线影像租赁的新局面。Netflix通过整合其自身的营销手段和最近的IT网络技术,成功地改变了消费习惯和打造了自己的品牌优势。 Netflix在2011年开始探索自制内容的举动并不被看好。直到2013年,其首部自制剧《纸牌屋》取得爆红后,舆论冲击及股票下滑的趋势才得以扭转。这也让Netflix成功打响了平台自制内容的第一炮。 2019 年 7 月 4 日,网飞的原创剧《怪奇物语》第三季开播,一如往常地一口气放出 12 集,再次掀起话题热潮。取得这样的成功,网飞自然是高兴不已。7 月 8 日,这家通常并不爱自夸成绩的公司表示,有近

泰格医药港股上市,阿诺医药获1亿美元融资,Acutus登陆纳斯达克 | 医疗健康行业投融资及医药要闻速览

孤街醉人 提交于 2020-08-12 14:17:58
   一周要闻:   开创 “鸡尾酒疗法” 治疗肿瘤范式,阿诺医药完成 1 亿美元融资   临床 CRO 领军者泰格医药成功登陆港交所   大涨 60%! Acutus Medical 成功登陆纳斯达克   武田中国安适利 (注射用维布妥昔单抗)在中国上市    国内投融资、大事件       1. 阿诺医药完成近 1 亿美元 C 轮融资,提出 “鸡尾酒疗法” 治疗肿瘤范式   近日,阿诺医药宣布已经完成了 1 亿美元左右的 C 轮融资,并有可能将在今年 8 月开启 IPO 进程。其官网信息显示,阿诺医药是一家临床阶段的全球性生物制药公司,主要开发肿瘤免疫治疗药物。目前,阿诺医药已经布局了若干个研发管线,其中 3 个项目(溶瘤病毒 AN1004、EP4 拮抗剂 AN0025、PI3K 抑制剂 AN2025)已经进入临床阶段。阿诺医药成立于 2004 年,是一家临床阶段的全球性生物制药公司, 针对癌症治疗,公司提出了“鸡尾酒疗法”,试图将肿瘤变成一种可控的、非致命性的疾病。    2. 基因疗法初创 Exegenesis Bio 获数千万美元 B 轮融资   8 月 3 日,基因疗法公司 Exegenesis Bio 宣布已完成数千万美元的 B 轮融资,此轮融资由君联资本领投,博远资本和泰福资本跟投,老股东险峰旗云和凯泰资本持续加注,浩悦资本担任本轮融资的独家财务 顾问

聚焦罕见肌肉疾病,这家初创发力抗体-寡核苷酸疗法

别说谁变了你拦得住时间么 提交于 2020-08-12 11:26:03
  8 月 10 日,专注于治疗肌肉疾病的初创公司 Dyne Therapeutics 宣布完成新一轮战略融资,金额高达 1.15 亿美元。本轮融资由 Vida Ventures 和 Surveyor Capital 领投,Wellington Management Company 和 Franklin Templeton 等跟投。值得一提的是,成立短短 2 年左右,这家公司已经完成了两轮融资,融资总额超过 1.6 亿美元。本次融资将会加速公司肌肉疾病治疗管线进入临床以及进一步开发包括心脏和代谢性疾病在内的其他适应症管线。   这家初创缘何获得众多知名 VC 青睐,短短几年获得巨额融资?   Dyne Therapeutics 成立于 2018 年,总部位于马萨诸塞州,由知名 VC Atlas Ventures 孵化,是一家针对严重肌肉疾病开发靶向治疗的生物制药公司。公司拥有管理经验丰富的强大领导团队,创始人兼执行董事 Jason Rhodes 是哈佛 RNA 医学研究所顾问委员会成员;首席执行官 Joshua Brumm 具有丰富的医疗行业领导和融资经验,先后领导了 Kaleido、Versartis 和 ZELTIQ Aesthetics 等的 IPO 上市,还于 2014 年被评为 “市值 5 亿美元以下公司,硅谷商业期刊年度首席财务官”;首席科学官 Romesh

数据库中间件设计分析

删除回忆录丶 提交于 2020-08-11 08:22:07
目录 1.为什么需要中间件 不分库篇 (1)普通的应用程序 (2)并发读写大--缓存 (3)缓存过期问题--读写分离+缓存 (4)隔离对DAO层影响--数据库中间件+读写分离+缓存 (5)业务模块多--集群+数据库中间件+读写分离+缓存 分库篇 (1)业务模块多,数据总量大--分库+缓存 (2)分库对Dao层代码影响--分库+数据库中间件+缓存 (3)读写压力大--分库+读写分离+数据库中间件+缓存 2.数据库中间价设计要点 (1)垂直拆分 (2)水平拆分 (3)无论是垂直拆分、水平拆分,都有共同的技术难点 (4)数据库中间件的两种实现模式 (5)常用数据库中间件简介 小结 1.为什么需要中间件 不分库篇 (1)普通的应用程序 数据库访问 数据库存储的数据量不是很大,但并发的读写操作都很大,超过数据库服务器的处理能力。 阿里云-RDS版MySQL性能测试结果(MySQL 5.6) TPS:每秒钟处理事务数量 QPS:每秒钟SQL语句执行条数(并发请求数) (2)并发读写大–缓存 业务场景 :数据量不是很大,仅并发读写超过数据库服务器的处理能力 解决办法 : 加缓存 (3)缓存过期问题–读写分离+缓存 业务场景 :缓存会有过期命不中,还是会有大量的读和全部的写操作将请求数据库,如果数据库支持不起,怎么办? 解决办法 :读写分离+缓存 (4)隔离对DAO层影响–数据库中间件+读写分离

使用FreeSurfer进行脑区分割

℡╲_俬逩灬. 提交于 2020-08-11 06:59:26
FreeSurfer 是美国哈佛-麻省理工卫生科学与技术部和马萨诸塞州总医院共同开发的一款磁共振数据处理软件包,是基于 Linux 平台的全免费开源软件。FreeSurfer 能完成对高分辨率的 MRI 图像进行分割、配准及三维重建,其处理过程主要包含去头骨、B1 偏差场校正、体数据配准、灰白质分割、面数据配准等。FreeSurfer 可以方便地处理大脑 MRI 图像,并生成高精度的灰、白质分割面和灰质、脑脊液分割面,根据这两个表面可以计算任何位置的皮质厚度及其他面数据特征如皮质 外表面积、曲率、灰质体积等,这些参数可以映射到通过白质膨胀算法得到的大脑皮质表面上直观显示。另外,FreeSurfer 还具有特征的组间差异分析及结果的可视化功能。 在 FreeSurfer 软件中,运行“recon -all”命令后,会在 surf 文件夹下生成 . white、. sphere、. inflated 等网格点文件。每一个文件里面都存储了大脑皮质表面网格点的三维坐标及相邻顶点构成的三角面片信息,需要注意的是 FreeSurfer 采用的是 RAS 坐标系,其意义为 R:right,X 轴正方向;A:anterior,Y 轴正方向;S:superior,Z 轴正方向。 FreeSurfer 也会在 surf 文件夹下生成基于曲面的形态特征数据,不同的特征采用不同的文件后缀名,如皮质厚度(

波士顿动力狗正式开卖!7.45万美元一台,堪比特斯拉ModelS

不打扰是莪最后的温柔 提交于 2020-08-10 16:28:55
  波士顿动力(Boston Dynamics)6 月 16 日突然更新官网,之前火爆全网、会跳 Uptown Funk 和鬼步舞的四足机器狗 Spot 终于在美国境内开放销售,限时包邮。    机器人全名 Spot Explorer,官方定价 7.45 万美元 / 台,约合人民币 53 万元,堪比一台特斯拉 Model S。 现在下单需要先交 1000 美元定金,6-8 周内发货,定金可全额退款。         图 | 那么问题来了:如果你有 7.45 万美元,是买特斯拉,还是买机器狗?   除了 Spot 机器人,7.45 万美元的标准配置还包括两块电池、一套充电器、一套控制装置(平板电脑)、一个 Spot 储存箱,一个备用电池及充电器储存箱,以及 Python API 指导手册。   同时配套销售的还有一系列 Spot 配件,比如额外一块电池要 4620 美元,选装雷达系统要 1.8 万美元,选装 360 度彩色全景摄像头要 2.2 万美元,还可以选择配备特殊定制的 GPU 和 CPU。   当然,并不是所有人都需要雷达系统和全景摄像头,但 如果像买车一样追求顶配,配件全部加起来相当于再买一只 Spot 了。      图 | 各种各样的选装配件,个个价格不菲   鉴于 Spot 可能会应对恶劣的工作环境,波士顿动力还提供额外的增值保险服务,1.5 万美元一年

MySQL 对于千万级的大表要怎么优化?

走远了吗. 提交于 2020-08-10 00:45:00
首先采用Mysql存储千亿级的数据,确实是一项非常大的挑战。Mysql单表确实可以存储10亿级的数据,只是这个时候性能非常差,项目中大量的实验证明,Mysql单表容量在500万左右,性能处于最佳状态。 针对大表的优化,主要是通过数据库分库分表来解决, 目前比较普遍的方案有三个:分区,分库分表,NoSql/NewSql。 实际项目中,这三种方案是结合的,目前绝大部分系统的核心数据都是以RDBMS存储为主,NoSql/NewSql存储为辅。 分区 首先来了解一下分区方案。 分区表是由多个相关的底层表实现的。这些底层表也是由句柄对象表示,所以我们也可以直接访问各个分区,存储引擎管理分区的各个底层表和管理普通表一样(所有的底层表都必须使用相同的存储引擎),分区表的索引只是在各个底层表上各自加上一个相同的索引。这个方案对用户屏蔽了sharding的细节,即使查询条件没有sharding column,它也能正常工作(只是这时候性能一般)。 不过它的缺点很明显: 很多的资源都受到单机的限制,例如连接数,网络吞吐等。如何进行分区,在实际应用中是一个非常关键的要素之一。 下面开始举例: 以客户信息为例,客户数据量5000万加,项目背景要求保存客户的银行卡绑定关系,客户的证件绑定关系,以及客户绑定的业务信息。 此业务背景下,该如何设计数据库呢。项目一期的时候,我们建立了一张客户业务绑定关系表

新基建下 AI 算力市场崛起,华为凭什么从中分一杯羹?

删除回忆录丶 提交于 2020-08-09 12:15:53
2020 年,成为真正意义上的新基建“元年”,各种利好政策密集落地,全国各地都开始重视起这个频频出现在国家政策文件上的新概念。近期,国家发改委近期多次强调加快 5G 网络、数据中心等新型基础设施建设,业内人士指出,新基建投资计划正加速推出,预计年内投资规模将达万亿元。 新基建暖风下, 算力市场“蛋糕”怎么分? 新基建中,人工智能的基础建设是最重要的部分之一,而人工智能的发展,离不开算力的支撑。我们都知道,随着 5G、物联网等新兴技术的发展,数据量将以更加难以计量的速度膨胀爆发,据 IDC 预测,2020 年全球数据总量将达到 44ZB,中国的数据总量超过8ZB,占全球数据总量的 18%,而到 2025 年,全球数据总量预计将达到180ZB。与此同时,模型计算也将变得更加复杂,对算力的需求节节拔升,挑战难度不断升级。 日前,国家发改委明确“新基建”的范围,其中包括信息基础设施、融合基础设施、创新基础设施等三个方面,以数据中心、智能计算中心为代表的算力基础设施,就包含在信息基础设施当中。 在这样的背景下,AI 算力将成为 AI 基础设施建设的重中之重,甚至成为整个新基建的核心支撑。顺应时代需求,各大算力供应商纷纷摩拳擦掌,意图瓜分算力市场这块巨大的“蛋糕”。 群狼环伺, 华为为何能杀出重围? 华为就是这对算力市场“虎视眈眈”的企业中的其中一个。在 AI 计算领域,华为是国内起步较早

为什么要分库分表?

折月煮酒 提交于 2020-08-08 18:42:07
为什么要分库分表(设计高并发系统的时候,数据库层面该如何设计)?用过哪些分库分表中间件?不同的分库分表中间件都有什么优点和缺点?你们具体是如何对数据库如何进行垂直拆分或水平拆分的? 面试官心理分析 其实这块肯定是扯到 高并发 了,因为分库分表一定是为了 支撑高并发、数据量大 两个问题的。而且现在说实话,尤其是互联网类的公司面试,基本上都会来这么一下,分库分表如此普遍的技术问题,不问实在是不行,而如果你不知道那也实在是说不过去! 面试题剖析 为什么要分库分表?(设计高并发系统的时候,数据库层面该如何设计?) 说白了,分库分表是两回事儿,大家可别搞混了,可能是光分库不分表,也可能是光分表不分库,都有可能。 我先给大家抛出来一个场景。 假如我们现在是一个小创业公司(或者是一个 BAT 公司刚兴起的一个新部门),现在注册用户就 20 万,每天活跃用户就 1 万,每天单表数据量就 1000,然后高峰期每秒钟并发请求最多就 10 个。我的天,就这种系统,随便找一个有几年工作经验的,然后带几个刚培训出来的,随便干干都可以。 结果没想到我们运气居然这么好,碰上个 CEO 带着我们走上了康庄大道,业务发展迅猛,过了几个月,注册用户数达到了 2000 万!每天活跃用户数 100 万!每天单表数据量 10 万条!高峰期每秒最大请求达到 1000!同时公司还顺带着融资了两轮,进账了几个亿人民币啊

【昇腾】ModelArts与Atlas 200 DK云端协同开发——行人检测Demo(完整版)

允我心安 提交于 2020-08-07 04:18:45
摘要: 本文主要为大家展示如何基于ModelArts与Atlas 200 DK 端云协同开发的行人检测Demo实现过程。 基于开源数据集,使用ModelArts训练行人检测模型,在本地MindStudio完成模型转换,最终部署到Atlas 200 DK,从数据集到最终部署的端到端开发实践技能。开发技能的流程如图所示: 图片来自博客五讲四美好少年 环境准备: 基于Linux Ubuntu 16.04.3 LTS的虚拟机 Atlas 200 DK 前情提要: 行人检测使用ModelArts的yolo3_resnet18算法,此算法有预置算法和AI市场的版本,共三种,应该都可以用,这里使用的是预置算法版本。 模型训练(可选): 数据集使用的是VOC2007中的Person类别,使用ModelArts创建数据集,并筛选出Person部分,因在OBS中,不太方便下载下来(根据下载文件个数要付费,省点钱吧),可根据自己的数据集训练,注意数据集格式要为VOC2007的格式,即图片 + .xml标注,详情可参见ModelArts关于数据集部分文档。从数据及创建到整体训练最终得到.pb模型, 请参见博客相关指导 。 部署: 完整的Demo放在了百度网盘中,下载链接如下,下载完成后,上传到Atlas 200 DK 上执行运行main.py即可。 链接: https:// pan.baidu.com/s