存储资源盘活系统(HBlock)通过提高资源利用率,优化资源成本,助力企业用户实现绿色转型。它是纯软件的存储控制器,能够安装在任意Linux服务器上,可以把各服务器中分散的磁盘整合成高性能的存储资源池,通过分布式双控制器架构保证了低延迟、高可用、易拓展的特性;通过完善的控制台、命令行与API来统一调度管理所有存储资源;通过强大的兼容性和独特的硬件异构特性充分利用全部存储资源。
引言 8月27日微信文章《数据中心进化从我做起》中提到一个重要观点“六大维度看IT技术进化”,六大维度即数据架构变化、IT管理变化、软件开源、硬件开源、云化、基础架构软件定义化。本文将结合业界讨论热点
在过去几年,云提供商们便开始了轰轰烈烈的抢滩登陆,云计算概念进入"千家万户",如今每个企业都开始谈云,上云。对于企业来说,云计算已经进入下半场,如何通过IT转型促进业务模式升级成为了决定企业成败的关键。
“互联网+”时代,IT架构对企业提升运营效率和创造商业价值有着至关重要的意义。超融合架构是目前IT架构领域最炙手可热的一个名词,英文名为Hyper Converged Infrastructure。超融合架构作为新型IT基础架构,由融合架构的基础上发展而来,目前已被广泛认为是云计算基础架构未来发展的趋势。本文试图结合笔者在超融合领域的技术研究、项目实践经验来对超融合架构进行一些解读,包括是什么、市场趋势以及针对一些焦点问题的最佳实践初探。
根据文章内容总结的摘要
同样,在数据中心多年的发展历程中,计算与存储也经历了多次分分合合。从大型机的计算与存储紧耦合,到小型机经典的IOE存算分离架构,再到随云兴起的超融合让存算再次融合,计算与存储宛如一对多年的CP,时而亲密无间,时而又若即若离。
【本文正在参与 “100%有奖 | 我的Serverless 实战”征稿活动】活动链接
软件定义数据中心是一种数据管理方式,它通过虚拟化来抽象计算、存储和网络资源,并将其作为服务提供。为了促进这一过程,SDDC包括智能软件以集中管理虚拟化资源,并自动化运营和分配工作流。 软件定义数据中心
1 虚拟化技术简介 1.1 虚拟化概念 顾名思义,虚拟化是指计算元件在虚拟的基础而不是在真实的基础上运行。 虚拟化是一种从逻辑角度来分配不同物理资源的方法: 将应用程序及下层组件从支持它们的硬件中抽象出来,并提供支持资源的逻辑化视图,是对物理实际的逻辑抽象 实现了软件和硬件分离,无需考虑后台具体的硬件实现,只需在虚拟层上运行操作系统和应用软件,和物理平台无关 在家用计算机的上安装常规软件属于非虚拟化,而在办公计算机上安装虚拟化软件就属于虚拟化应用了,典型的非虚拟化和虚拟化的物理架构如图1-1 所示
DPU芯片,跟之前的GPU、AI芯片最大的不同在于,DPU是集成多种领域加速于一体的集成加速平台。如果说GPU、AI加速芯片,是CPU+xPU单个异构计算的分离趋势,那么DPU的出现,则预示着,整个计算系统,在从单异构的分离逐渐走向多异构的融合。
软件定义数据中心是一种数据管理方式,它通过虚拟化来抽象计算、存储和网络资源,并将其作为服务提供。为了促进这一过程,SDDC包括智能软件以集中管理虚拟化资源,并自动化运营和分配工作流。 软件定义数据中心架构可以分为三个逻辑层:物理层、虚拟化层和管理层。这些层共同提供了一个统一的系统,为企业提供比传统的技术能实现的更高的管理灵活性、更具成本效益的运行方式。 物理层 软件定义数据中心架构的物理层包括计算、存储和网络组件,以支持SDDC来存储和处理企业数据。这些组件可以由来自不同厂商的商用硬件构成,能够帮助企业
云服务器的基本架构通常包括以下组件和层次,这些组件共同构成了云计算环境中的服务器基础设施:
"鹅厂网事"由深圳市腾讯计算机系统有限公司技术工程事业群网络平台部运营,我们希望与业界各位志同道合的伙伴交流切磋最新的网络、服务器行业动态信息,同时分享腾讯在网络与服务器领域,规划、运营、研发、服务等层面的实战干货,期待与您的共同成长。 网络平台部以构建敏捷、弹性、低成本的业界领先海量互联网云计算服务平台,为支撑腾讯公司业务持续发展,为业务建立竞争优势、构建行业健康生态而持续贡献价值! ---- 海量数据正以前所未有的增长趋势冲击着整个数据中心行业,数据中心建设者们不得不以一种新的思考方式去重新审视I
"鹅厂网事"由深圳市腾讯计算机系统有限公司技术工程事业群网络平台部运营,我们希望与业界各位志同道合的伙伴交流切磋最新的网络、服务器行业动态信息,同时分享腾讯在网络与服务器领域,规划、运营、研发、服务等层面的实战干货,期待与您的共同成长。 网络平台部以构建敏捷、弹性、低成本的业界领先海量互联网云计算服务平台,为支撑腾讯公司业务持续发展,为业务建立竞争优势、构建行业健康生态而持续贡献价值! 海量数据正以前所未有的增长趋势冲击着整个数据中心行业,数据中心建设者们不得不以一种新的思考方式去重新审视IT系统架构
前言: 服务器是业务应用的载体,也是资源运营和系统运维的最小单位。服务器平台规划直接影响业务应用的效率和资源运营维护的效率以及IDC建设规划。因此服务器平台规划不但需要提供服务器设备满足公司业务需求的基本职能外,还承担着新技术引入提升运营效率、协助业务利用硬件平台优化系统架构和协助商务与运管团队实施供应商管理的职责。腾讯服务器平台伴随公司业务业务成长,经历了从刚开始的十几台到今天数十万台规模的发展过程。平台建设的规划思路也经历了从硬件规划精细化匹配业务软件需求、平台统一规划定义机型、机型精简整合
大数据、云计算和虚拟化等技术的出现,使得传统的 IT 架构难以满足企业日益增长的数据存储需求。为应对这一挑战,软件定义存储(SDS,Software Defined Storage)和超融合基础架构(HCI,Hyper-Converged Infrastructure)应运而生,打破了传统 IT 系统复杂和繁冗的现状,优化了网络的可扩展性和管理方式。
在Redis官网中,是这样介绍Redis的: The open source, in-memory data store used by millions of developers as a database, cache, streaming engine, and message broker. 翻译为: 被数百万开发人员用作数据库、缓存、流媒体引擎和消息代理的开源内存数据存储
提起服务器,大家都知道过去经典的分类法是根据服务器形态来区分,包括塔式、机架和刀片服务器,这似乎已经成为了官方教科书。但是,随着虚拟化应用和云计算的发展,虚拟化是用户采购服务器应用到的最重要方面。而在虚拟化应用方案中,又可以分为纵向扩展和横向扩展。数据中心需要采购设备来满足企业的快速发展对性能和可用性而产生新的要求,而且在以后IT需求改变时能够进行相对轻松的扩展。 虚拟化催生服务器新格局 在过去十年, IT领导者在开始使用特定策略比如服务器整合率以及虚拟主机数时,纵向扩展架构往往作为衡量IT性能的战略选择。
序言:软件定义世界,数据驱动未来。正如Netscape创始人、硅谷著名投资人马克•安德森(Marc Andreessen)在《软件正在吞噬整个世界》所述,从生活、电影、农业到国防,软件无所不在。未来十年,预计将有更多的行业被软件所瓦解,数据也将会越来越多。
回首存储历史,自从Compellent研发出自动分层存储技术,由IO密集型向计算密集型转换,进而兴起X86潮流,逐渐存储软件功能的优势浮出水面,存储已经不再是拼硬件,而是凸显与硬件紧密联系一起的软件优势,为软件定义存储(SDS)奠定了发展基础。虽然对于软件定义存储,行业内至今仍没有统一的说法,但随着软件定义数据中心、软件定义网络、软件定义服务器纷纷见诸于市场,“软件定义”技术的爆发之年已近在眼前。
服务器是构建云计算和数据中心的最核心基础设备,在公有云持续放量的背景下,服务器行业正迎来景气拐点。本文围绕4个核心问题,由浅入深对服务器进行深入剖析:
一直想抽空写写 vSAN 这个产品,在 15 年的时候笔者第一次听说 vSAN 这个产品,当时 VMware 还以 VDI 最佳拍档的方式去推广 vSAN,短短两年的时间, vSAN 经过多个版本的更新迭代,无论从功能还是稳定性上均有很大提升,最广泛的应用也由 VDI 变为了承载核心业务。
由于时代和磁盘技术发展的限制(单盘容量和性能发展缓慢),产生了raid相关技术。技术产生了,如何才能快速的来实现和进行部署呢?最简单最快的方法就是在操作系统层面实现或者在操作系统上部署raid软件(有点类似虚拟化里面kvm和xen的区别,kvm在linux内核里,xen是linux系统层面上的软件)。功能是轻易的实现了,但是性能呢,非常一般。早期阶段,CPU技术发展有限(也没有现在的什么多核超线程,频率也比较低),但raid计算又会消耗大量的CPU,造成CPU使用飙升。
IT大势,合久必分,分久必合。在虚拟化技术出现10年之后,计算与存储分立的传统架构正逐步被另一种更简约、更高效、更可靠的IT架构所替代,这种云时代的新兴架构就是超融合。
智能网卡可在网络任务方面卸载服务器CPU,提供内存扩展并执行安全操作、硬件加载等关键任务,在多个网络层为服务器提供额外的计算能力。这种可编程的算力设备本身可以高速执行必要的功能,而不是使用传统基础设施中服务器的资源。随着工作负载的日益增加,越来越多智能网卡正在加速服务器性能,以减少任务等待和时延。
H3C UIS 超融合产品是H3C公司面向IaaS(基础架构即服务)推出的新一代云数据中心软硬件融合一 体机,由超融合硬件服务器、超融合内核与超融合管理软件三部分构成。
研究显示,AI工程化落地过程中,出现痛点从高到底依次是资源利用率、大模型落地、分布式训练效率、推理效率、国产化、异构芯片调度。其中,资源利用率出现频率接近后面五名的总和。深挖痛点,其背后是资源分配不均衡、资源规划不合理、资源碎片多的问题。
一、什么是高并发 高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。 高并发相关常用的一些指标有响应时间(Response Time),吞吐量(Throughput),每秒查询率QPS(Query Per Second),并发用户数等。 响应时间:系统对请求做出响应的时间。例如系统处理一个HTTP请求需要200ms,这个200ms就是系统的响应时间。 吞吐量:单位时间内处理的请求数量。 QPS:每秒响应请求数。在互
数据中心约超过一半的成本是电费,数据存储系统作为数据中心三大件之一,能耗也约占三分之一,面对非结构化数据量的快速增长挑战,以及国家对数据中心绿色节能要求的提高,分布式存储的绿色节能愈来愈加重要。
NFV(网络功能虚拟化)是指利用虚拟化技术在标准化的通用IT设备(X86服务器,存储和交换设备)上实现各种网络功能。NFV的目标是取代通信网络中私有、专用和封闭的网元,实现统一通用硬件平台+业务逻辑软件的开放架构。NFV与SDN结合使用将对未来通信网络的发展带来重大影响,同时也带来了新的问题。
虽然数字货币已经非常火爆,但区块链产业的落地应用仍然还没有真正实现商业化。究其原因,是由于区块链技术还处于早期阶段,性能、易用性等还亟待提高。区块链行业需要全新的底层产品革新来实现更多、更快的交易确认和信息互通,HPB芯链通过分布式应用的性能拓展,以软硬件合力来打破性能瓶颈,打造易用的高性能区块链平台,跟产业实现深度融合,满足真实的商业需求。 关于汪晓明: HPB芯链创始人。区块链技术早期探索者,在中国区块链社区以ID「蓝莲花」活跃多年。曾任跨境电商公司Beltal CTO,十余年金融大数据、互联网技术研
上一篇 "大型网站架构概述,我们需要知道的这八个架构范式" ,我们主要一起了解了大型网站架构中为解决高并发访问、海量数据处理、高可靠运行等一系列问题与挑战,所践行的八大范式。
近年来超融合在国内迎来快速增长,根据IDC最新发布的报告,2019上半年中国超融合市场增长率达56.7%,大幅超越去年同期。Gartner发布的最新报告,到2023年我国超融合市场依旧保持23%的快速增长。超融合覆盖范围正在进一步扩大,不仅服务的客户在向大规模企业扩张,应用场景也从服务器虚拟化、VDI扩展到数据库、私有云等关键业务。
按照Nutanix给超融合的定义,计算、存储、网络其中两种基础架构的深度融合,就是超融合(HCI)架构。目前,超融合实现的最大特点是计算虚拟化和分布式存储的紧密融合。然而,这种紧密架构与云计算提倡的全分布式部署存在矛盾,日益被“神化”的超融合将是未来主流趋势,还只是一个过渡性技术?今年将有怎样的演进?
云计算基础架构在传统IT基础架构的基础上,对计算、存储和网络三类底层物理资源进行了虚拟化实现和统一的整合管理,将物理硬件抽象为有机的、可灵活调度和扩展的资源池。
直播的推流和拉流主要是由五个部分组成的,分别是:(音视频)采集、(数据)编码、(数据)传输、解码(数据)、播放显示。开发直播 app,直播源码是一个非常重要的存在。直播架构在直播系统开发过程中也是一件非常重要的事情,如果架构的设立不能从根本上解决问题或防止问题的发生,那么在前端app运行时就会出现一定的运行错误。关于直播架构,给大家分享下相关的内容。
物联网(Internet of Things,简称IoT)是指通过各种信息传感器、射频识别技术、全球定位系统、红外感应器、激光扫描器等各种装置与技术,实时采集任何需要监控、 连接、互动的物体或过程,采集其声、光、热、电、力学、化学、生物、位置等各种需要的信息,通过各类可能的网络接入,实现物与物、物与人的泛在连接,实现对物品和过程的智能化感知、识别和管理。物联网是一个基于互联网、传统电信网等的信息承载体,它让所有能够被独立寻址的普通物理对象形成互联互通的网络
在搭建web服务时,怎么做才能实现稳定、可持久的服务,如何保证数据安全,实现高速的访问速度,是一个非常重要的事。
数据中心内部系统的核心要求是“稳定可靠”,一是指系统在运行过程中有能力提供连续可靠的服务,长时间无故障运行;二是指当故障发生之后,有能力快速定位,及时排查,故障范围不蔓延。
当应用较复杂时,为了分离职责,将其中具有清晰职责的、内聚性强的部分,抽象出概念,便于理解。
存储系统作为IT系统的底层基础架构,存储技术进一步发展和推广对于整个信息产业具有重大意义。在数字化转型过程中,存储系统作为底层基础架构,其改造和实施过程需被重点关注。
上篇文章主要讲了常见的几种数据保护方式,本文我们主要讲下Ceph有哪些常见的灾备设计方式。Ceph在灾备方面有三大神兵利器:故障域、RBD异地灾备、RGW异地灾备。
软件架构的出现是为了解决系统规模增加后出现了系统耦合严重,开发效率低,逻辑复杂,扩展困难等问题。所以架构设计是为了解决软件复杂度而存在的,所以架构设计的目地是识别出需求的复杂点然后针对性的解决。系统设计时需要考虑:性能,系统的可扩展性,安全性,高可用,成本。 架构师的工作并不神秘,成熟的架构师需要对已经存在的技术非常熟悉,对已经经过验证的架构模式烂熟于心,然后根据自己对业务的理解,挑选合适的架构模式进行组合,再对组合后的方案进行修改和调整。
高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。
说简单,倒也简单:运维工作就是支持生产运行,是成本中心,一般不直接产生利润。目的就是运行保生产设备软硬件正常运行,让内外部用户满意度。
回顾IT产业发展史,自通用计算机诞生至今,算力和处理的分布表现出了在集中式架构和分布式架构之间交替循环的特征,技术进步推动性能提升、成本降低,上一代计算模式普及驱动数据量和计算需求增加,打破既有的成本与效益平衡,进而进入新一轮的周期。每个周期大概是二十年左右的时间:1960-1980——通用计算机诞生伊始,采用基于大型计算机的集中式计算模式,通过分时技术服务于多终端,架构趋向于集中;1980-2000——集成电路技术推动计算机体积缩小、性能提升,PC普及,客户机通过局域网与服务器相连,架构趋向于分散;2000-2020——基于虚拟化、分布式计算等技术,云计算实现随时随地、按需从资源共享池中获取所需资源,架构趋向于集中;如今,5G叠加物联网,终端量和数据量增长,集中式云计算表现出瓶颈,算力开始向边缘侧迁移,因此可以合理地推测,2020年到2030年将会是边缘云计算从兴起到繁荣的关键十年。
这不是一篇关于应用开发、测试过程中遇到重重困难的吐槽文章,甚至无关于开发测试。本文聚焦在应用开发者“提出服务器资源申请”到“服务器资源被提供”这个期间,“透明”的运维人员所要完成的“透明”工作。
随着超融合在国内市场兴起并逐步成为主流,一场针对于IT基础架构的技术变革悄然而至。沿用二十多年的传统IT架构面临着新一代架构的严重冲击。近几年来,面对巨大的市场机遇,超融合厂商也如雨后春笋,不断涌现。企业用户的数字化转型发展得益于超融合架构的创新推动,但同时也面临着如何评测和遴选优质厂商及产品的难题。
vSphere是VNware公司在2001年基于云计算推出的一套企业级虚拟化解决方案、核心组件为ESXi。如今,经历了5个版本的改进,已经实现了虚拟化基础架构、高可用性、集中管理、性能监控等一体化解决方案。
超融合并非新的概念,它的背后是长期以来,数据中心资源高效利用和低成本运营的驱动。数据中心的传统建设方式是计算、存储、网络、基础软件分层建设,这种方式的优势是各层互相解耦,独立扩展,独立采购方便,存在的问题是规划复杂,在建设之初,就要规划后未来3~5年的业务需求,设计好存算网的配比;运维复杂,需要多支专业的运维队伍(计算、存储、网络、软件);问题定界复杂,一旦出现问题,就涉及跨层的问题定界,异厂商互相推诿。 大约十年前, CI即融合基础设施架构被提出,CI架构主要解决的是融合管理的问题,通过预制的一柜式方案
领取专属 10元无门槛券
手把手带您无忧上云