数据中心

云计算云智能,智能与云的结合改变了什么?

狂风中的少年 提交于 2019-12-04 20:45:59
如今,人工智能的火爆,加速了云计算市场的悸动,以AI为代表的智能化技术被纳入到云服务的版图。云计算从诞生到现在,十几年的快速发展,正在AI的注入下迎来一场大变局。 以往数据中心的机房建设需要遵循很多规范和标准,建设要求包括数据中心机房分级与性能要求,机房位置选择及设备布置,环境要求,建筑与结构、空气调节、电气技术,电磁屏蔽、机房布线、机房监控与安全防范,给水排水、消防的技术要求等,建设周期长、投资大、运营成本高、效率低。 模块化数据中心是基于云计算和智能的新一代数据中心部署形式,为了应对机器学习、高性能计算、分布式、弹性扩展等新的发展趋势,其采用模块化设计理念,最大程度的降低了基础设施对机房环境的耦合,集成了供配电、制冷、机柜、气流遏制、综合布线、动环监控等子系统,提高数据中心的整体运营效率,实现快速部署、弹性扩展和绿色节能。 模块化数据中心能满足IT业务部门对未来数据中心基础设施建设的迫切需求,如标准化设计、组件工厂预制、快速上线部署、有效降低初期投资、模块内能源池化管理、动态IT基础设施资源高利用率、智能化运维管理、保障重要业务连续性,提供共享IT服务(如跨业务的基础设施、信息、应用共享等),快速响应业务需求变化,弹性扩缩容和绿色节能型数据中心等 当前人工智能的持续火热,其对于算力的需求早已超过了通用CPU的摩尔定律发展,我们看到基础资源层以GPU、FPGA、ASIC

200G光模块最全解析

ε祈祈猫儿з 提交于 2019-12-04 19:51:39
  光模块市场正稳步向200G/400G发展,虚拟数据中心、物联网(IoT)和云计算不断普及,对更高带宽的需求推动了光模块市场的繁荣。而今,200G/400G的光模块也已出现,并有望在未来几年继续保持良好的势头。以下为您带来 200G光模块 最全解析 。    下一代数据中心的主流:200G/400G   数据中心光互连市场的主要转变是从10G到40G以及更高的40G到100G,另一个可预见的趋势是逐步淘汰核心网络和数据中心的低速光模块。100G光器件的新发展为200G/400G光器件铺平了道路。下一代数据中心在2018年底部署200G/400G以太网,并在2019或2020年成为主流。   总的来说,光模块市场正在向更高的速度,更低的功耗和更小的外形或尺寸发展。其中光模块封装多采用SFP-DD/QSFP-DD。   SFP-DD小型自动可插拔双倍密度封装光模块,比SFP28或SFP56带宽(25G/50G)提高一倍,支持更高速率(50G/100G)的同时还保持SFP28或SFP56向后兼容性。   QSFP-DD四通道小型可插拔双倍密度封装光模块,由QSFP-DD MSA组定义,比QSFP28或QSFP56的密度增加一倍,8个通道,每通道速率高达25G或50G,因此支持200G或400G光传输。   Google、Facebook等互联网巨头数据中心内部流量每年增长幅度接近100

DCIM系统如何维护数据中心

情到浓时终转凉″ 提交于 2019-12-04 17:52:02
多年来,IDC机房都是“阳光照不到的角落”:人力管理,死机了,打电话或下工单重启,等半天,机房的工程师都不一定有反应,系统坏了,要拜托机房的工程师重新安装操作系统,经常是长时间的等候,急得像热锅上的蚂蚁。更不要说香港,美国的机房,万里之外,派人值守更不可能! 现在,救星来了!DCIM机房自动化系统,让一切都自动化!智能化! 先了解下什么是DCIM系统? 简单来说,就是让机房实现了无人值守!以往需要人工装操作系统,开机,关机,重启,全部实现自动化管理,不需要跑到服务器旁边按重启键,也不需要插U盘装操作系统了,全部不需要! 使用智简魔方DCIM机房自动化系统后,您的租用托管用户,自己在千里之外,就可以在浏览器中点点,十分钟后,全新的操作系统就自动安装完成了!24小时自己装机!自已想什么时候装就什么时候装,想格式化C盘,保留D盘就自己做,Windows/Linux自己任选!不需要打电话给机房工作人员,不需要下工单!!!全部不需要!!任何时候想冷重启物理服务器都可以自己做,真正实现了智能化机房! 对于管理人员来说,IDC管理软件在对于机房维护方面也存在巨大意义。 首先对资源及运营情况更加了解,同时对各项设备的管控也十分到位,并决定可以通过自动化完成某些任务。 DCIM系统如何维护数据中心?有哪些必备功能? 辅助管理 使用智简魔方DCIM,录入服务器后能清晰知晓IDC全面信息。无论是服务器

ICT技术基础--云数据中心概述

匆匆过客 提交于 2019-12-04 12:25:16
一、云数据中心代替传统数据中心 2013年IBM与AWS CIA项目案例 1、技术展现。2、技术解决方案。3、服务水平保障。4、公司管理。 纵向拓展向快速水平扩展演进。 二、传统数据中心组成 结构:基础设施层、机房配套层、平台软件层、应用软件层 特点:垂直化(业务增加时需要不断扩充机房位置及增加新的硬件设施,存在业务割接风险)、初基础设施层为共享外,其他层均为各 自供给各自业务使用,平台不能共享。 提供硬件服务 三、云数据中心组成 AWS云数据中心组成:大型数据中心+边缘数据中心互联 提供的IT服务:计算、存储、网络、数据库、管理等服务。 水平扩展含义:1、技术上的平滑扩展(降低风险)。2、水平扩展设备低成本。3、资源的弹性使用。 水平扩展特点:高可靠、资源共享、高效、低成本、弹性 云数据中心核心:云操作系统。即:传统DC+OS=云DC 核心能力:水平扩展能力。 云数据中心建设模式:软件与平台解耦,统一的云基础设施不再只为一个应用提供IT支撑。 Saas发展最早、Pass最慢、LaaS最成熟。 四、传统DC与云DC区别、、、价值问题? 云数据中心:X86架构 特点:资源供给速度:分钟级。使用率:资源使用率达60%。扩容模式:垂直扩容至水平扩容。成本:小型X86化。维护效率:提升3倍以上。 价值:云数据中心可以提供企业级的资源共享。可以把闲置的、被浪费的

黑客开始跨界攻击了,网络安全的未来在云端

旧时模样 提交于 2019-12-04 06:32:33
云服务和网络正在推动数字业务的概念,但是传统的网络和网络安全架构远远不能满足数字业务的需求,黑客开始跨界攻击了,未来新技术领域物联网、车联网、区块链、人工智能设备等将受威胁。知名网络黑客安全专家,东方联盟创始人郭盛华透露:“网络安全的未来在云端 ”,在新的网络和安全模型的基础上进行云网络和安全转型的潜力。 该模型称为安全访问服务边缘(SASE),东方联盟网络安全研究人员声称,SASE有可能将已建立的网络和安全服务堆栈从数据中心中的一个堆栈转换为将身份的焦点转移到用户和端点设备的设计。SASE解决了使用云中使用的传统网络安全方法发现的众多问题。这些问题中的许多问题源于必须将网络安全体系结构置于数据中心连接中心的思想。 那些网络安全性的旧应用程序无法有效地支持更新的网络思想和用例,例如向动态服务,软件即服务(SaaS)应用程序的转变以及企业需要使用分布式数据的增长趋势。传统的网络和网络安全体系结构是为企业数据中心成为用户和设备访问需求的物理中心的时代而设计的。在推动数字化转型提出新要求之前,一种相对运作良好的模型。 随着企业采用数字业务流程以及边缘计算,云服务和混合网络,很明显,传统的网络和安全体系结构已开始在多个方面失败。传统架构的整体复杂性带来了问题,例如延迟,网络盲点,过多的管理开销以及随着服务变化而不断进行重新配置的需求

近实时大规模数据流式传输 Brooklin

廉价感情. 提交于 2019-12-04 05:00:38
Brooklin 是一种近实时的大规模数据流分布式服务,LinkedIn 自 2016 年以来一直在使用这项服务,支撑每天数千个数据流和超过 2 万亿条消息。 为什么要开发 Brooklin? 由于对可扩展、低延迟数据处理管道的需求不断在增长,LinkedIn 的数据基础设施也一直在不断演化。以一种可信赖的方式高速传输大量数据并非易事,除此之外,他们还要解决其他问题——为快速增长的数据存储类型和消息系统提供支持同样是一个有待解决的大问题。为此,LinkedIn 开发了 Brooklin,满足了他们对在数据量和系统可变性方面具备伸缩能力的系统的需求。 什么是 Brooklin? Brooklin 是一个分布式系统,旨在将数据以可靠的方式大规模传输至多个不同的数据存储系统和消息系统。它公开了一组抽象概念,通过编写新的 Brooklin 消费者和生产者来扩展其支持新系统消费和生产数据的能力。在 LinkedIn,Brooklin 被用来将数据传输至多个数据存储系统(如 Espresso 和 Oracle)和消息系统(如 Kafka、Azure Event Hubs 和 AWS Kinesis)。 应用场景 Brooklin 有两大类应用场景:数据传输桥和变更数据捕获(Change Data Capture,CDC)。 数据传输桥 数据可以分布在不同的环境(公有云及公司的数据中心)

后摩尔定律时代的计算力破局!

人走茶凉 提交于 2019-12-03 11:48:07
  后摩尔定律时代的计算力破局!   万物互联、人工智能等技术的成熟正在重构我们的生活方式,数据将以前所未有的速度累积增长,今后的智能设备数量会越来越多,体积越来越小,重量越来越轻。相应的,通过物联网,这些设备会把各式各样的数据源源不断地传输到后端的数据中心,数据来源的多样性、格式的复杂性和语义的不确定性,都将导致后端的计算量越来越大,对计算力的要求也越来越高。   当摩尔定律逐渐失效   过去的半个世纪,得益于半导体芯片产业飞速发展,在摩尔定律的驱动下,计算力一直保持着大跨度的发展。1956年,英特尔创始人戈登·摩尔提出,集成电路的集成度每两年会翻一番,后这个周期缩短到18个月,微处理器的性能每隔18个月提高1倍。   然而,硅芯片已逼近物理和经济成本上的极限,各界纷纷预测,摩尔定律在不久的将来面临失效,半导体工艺升级带来的计算性能的提升不能再像以前那么快了,每一代制程工艺的研发和成熟需要的时间将越来越长。制程发展减缓,新的替代材料和计算方式还未成熟,想要追求更高的计算力,可以从两个方向发展。   一个方向是向内,借助服务器系统架构的优化,打破数据读取瓶颈,从而提升单机计算力。当前,服务器普遍采用的是冯诺依曼架构,即计算和存储分离,而CPU的处理速度和数据的读取速度却无法匹配。纵观整个计算史,处理最缓慢的一部分就是从硬盘获取数据,很多处理性能都浪费在了等待数据到达上

云计算,大数据,人工智能相辅相成

匿名 (未验证) 提交于 2019-12-03 00:27:02
转载自: https://www.cnblogs.com/popsuper1982/p/8505203.html 我今天要讲这三个话题,一个是云计算,一个大数据,一个人工智能,我为什么要讲这三个东西呢?因为这三个东西现在非常非常的火,它们之间好像互相有关系,一般谈云计算的时候也会提到大数据,谈人工智能的时候也会提大数据,谈人工智能的时候也会提云计算。所以说感觉他们又相辅相成不可分割,如果是非技术的人员来讲可能比较难理解说这三个之间的相互关系,所以有必要解释一下。 一、云计算最初是实现资源管理的灵活性 我们首先来说云计算, 云计算最初的目标是对资源的管理,管理的主要是计算资源,网络资源,存储资源三个方面。 1.1 管数据中心就像配电脑 什么叫计算,网络,存储资源呢?就说你要买台笔记本电脑吧,你是不是要关心这台电脑什么样的CPU啊?多大的内存啊?这两个我们称为计算资源。 这台电脑要能上网吧,需要有个网口可以插网线,或者有无线网卡可以连接我们家的路由器,您家也需要到运营商比如联通,移动,电信开通一个网络,比如100M的带宽,然后会有师傅弄一根网线到您家来,师傅可能会帮您将您的路由器和他们公司的网络连接配置好,这样您家的所有的电脑,手机,平板就都可以通过您的路由器上网了。这就是网络。 您可能还会问硬盘多大啊?原来硬盘都很小,10G之类的,后来500G,1T,2T的硬盘也不新鲜了。

虚拟化概述及VMware VSphere介绍

匿名 (未验证) 提交于 2019-12-03 00:22:01
虚拟化概述及 VMware VSphere 介绍: 虚拟化打破了物理硬件与操作系统及在其上运行的应用程序之间的硬性连接。操作系统和应用程序在虚拟机中实现虚拟化之后,便不再因位于单台物理计算机中而受到种种束缚。物理元素(如交换机和存储器)的虚拟等效于在可跨越整个企业的虚拟基础架构内运行。 与物理机一样,虚拟机是运行操作系统和应用程序的软件计算机。管理程序用作虚拟机的运行平台,并且可以整合计算资源。每个虚拟机包含自己的虚拟(基于软件的)硬件,包括虚拟 CPU 、内存、硬盘和网络接口卡。 虚拟化计算机: x86 计算机硬件被设计为只能运行单个操作系统和单个应用程序,这导致了大多数计算机未得到充分利用。即使安装了众多应用程序,大多数计算机仍无法得到充分利用。在最基本的层次上,通过虚拟化可以在单台物理计算机上运行多个虚拟机,且所有虚拟机可在多种环境下共享该物理计算机的资源。在同一物理计算机上,不同的虚拟机可以独立、并行运行不同的操作系统和多个应用程序。 下图所示的就是一台物理主机在虚拟化前和虚拟后的差别: 虚拟化基础架构: 除了虚拟化单台物理计算机之外,还可以使用 VMware vSphere 构建整个虚拟基础架构,其规模包括数千台互联的物理计算机和存储设备。通过虚拟化,可以动态移动资源和处理能力,分配硬件资源。无需向每个应用程序永久分配服务器、存储器或网络带宽。 云计算:

vxlan 跨网段虚拟机迁移

匿名 (未验证) 提交于 2019-12-03 00:11:01
一些服务器虚拟化软件可实现在两台虚拟化的物理服务器之间对虚拟机做动态迁移,迁移至另一中心的 虚拟机不仅保留原有IP地址,而且还保持迁移前的运行状态(如TCP会话状态),所以必须将涉及虚拟机 迁移的物理服务器接入同一个二层网络(虚拟机在迁移前后的网关不变),这种应用场景要求构建跨中 心的二层互联网络。 我的理解是,仅仅IP不变这一条件就要保证VLAN不改变(否则会引起路由动荡吧?),但这与保持迁移前 的会话状态有何关系? 这是一个很好的问题,先来假设如果数据中心是三层互联,会出现什么幺蛾子。假定服务器A的IP为10.1.1.10/24,网关为10.1.1.1,数据中心三层互联,那三层连接的两个数据中心不可能使用同一网段的IP,另外一个数据中心不会再使用10.1.1.0/24 这个网段,否则如何路由?(如果有人说用NAT可以解决地址冲突问题,当我这里的文字没写)所以如果做服务器在不同数据中心的迁移,必须要给服务器重新分配不同的IP。所以TCP连接肯定断,另外增加网络管理负担。 如果数据中心是二层互联,服务器迁移前后在同一个VLAN中,服务器A可以继续使用10.1.1.10,如果只有一个网关GW1,假定服务器A从DC1迁移到DC2迁移前的双向流量模型: 客户端--->GW1---->A A--->GW1---->客户端 迁移后的双向流量模型: 客户端--->GW1---->DC1