赤道几内亚云电脑,塞内加尔vps_
高防服务器是一种具备高防御能力的服务器,主要是用来抵御各种网络攻击,可以保护网站或者是应用的安全和稳定运行,具有着强大的防御能力和安全保护措施,能够承受更高强度的网络攻击;普通服务器则是用来存储和处理数据以及提供服务,没有特别的安全保护措施,有着最为基本的防火墙和网络安全机制。
相比较来说,高防服务器比普通服务器有着更安全的保障,有着较为完善的安全措施,可以有效抵御各种网络攻击,让恶意攻击者无法轻松入侵服务器。
高防服务器中的网络带宽一般会比普通服务器中的高,因为高防服务器需要处理更多的网络流量,同时高防服务器中还有着全流式牵引带技术,能够区分恶意流量,并将其牵引到DDOS等攻击设备;在应用领域当中,普通服务器较为全面一些,而高防服务器则是运用在对DDOS和CC流量攻击的抵御中,能够保障企业业务的连续性和稳定性。
乌克兰云电脑,利比里亚裸金属_
一、5G
近期,5G等“新基建”的投资落地情况备受市场关注。
3月6日,中国移动采购与招标网挂出了中国移动28个省份公司的2020年5G二期无线网主设备集中采购公告,总需求为232143站。这意味着我国最大通信运营商中国移动2020年5G二期无线网主设备集中采购正式拉开帷幕,5G建网步伐有序推进。
中国移动已全面完成5G一期工程建设,在50个城市实现5G商用。此次启动5G二期工程设备集采,旨在保证2020年底5G基站数达到30万目标不变,确保2020年内在全国所有地级以上城市提供5G商用服务。
广东5G基站需求最多
从中国移动各省份公司集采公告来看,广东省5G基站建站需求最多,达到2.6万站,西藏、宁夏、青海三地的5G基站建站需求较少。
此次集采的无线网主设备供应商主要有四家:华为、中兴通讯、爱立信、诺基亚。中国移动各省份公司的招标公告中写明中标人数在2-4个,并划分了相应份额。
作为四家主设备商中唯一A股上市公司,中兴通讯2月以来股价涨幅超40%。中兴通讯近日在官微宣布,已经顺利通过了中国电信在业界率先组织的5G SA核心网商用设备整系统性能测试,为首家严格按要求运行48小时的通信设备厂商。该测试完整地验证了5G SA整系统的处理性能和稳定性,为实现5G SA网络的商用部署奠定了基础。
另外两家运营商的5G采购也有望近期启动。中国联通与中国电信将共建共享5G。此前他们也表示将共同制定5G无线设备联合招标方案,带动主设备厂家加速产能恢复。
5G基站的建设箭在弦上,也将带动产业链需求。上游天线、射频器件(PCB、射频芯片、滤波器等)、光模块等细分行业将优先受益于5G基站的建设。
近期密集推进集采
中国信通院副院长王志勤近日撰文指出,今年,我国将重点加速5G独立组网的建设,力争年内实现5G SA网络商用。四家运营商将加快5G网络由非独立组网向独立组网的演进,中国移动已经启动独立组网设备招标工作,力争在年内实现5G SA网络的商用。
3月5日,中国移动发布2020年5G SA核心网新建设备集中采购招标公告,涉及全国规模。招标公告显示,中国移动采购全国8大区/31省份公司新建5G SA核心网网元、NFV虚拟化平台设备(虚拟层软件、SDN系统、NFVO ,以及系统集成)。新建5G B2C网络及共用网元设备一次性优惠前最高限价为不含税42.24亿元,一次性优惠后最高限价为不含税32.54亿元;新建5G B2B网络设备一次性优惠前最高限价为不含税6.14亿元,一次性优惠后最高限价为不含税5亿元。
中国移动近期的集采颇为密集。3月5日,中国移动还发布2020年通信用磷酸铁锂电池产品集中采购招标公告,采购通信用磷酸铁锂电池共计6.102亿Ah(规格3.2V),采购需求满足期为1年,设置最高限价,最高投标限价不含税金额为25.08亿元。据了解,磷酸铁锂电池在通信行业上主要用于户外型基站等。
中金公司认为,尽管通信网络建设短期受新冠肺炎疫情波及,但目前,运营商、铁塔公司和通信服务公司已经复工,并开始抢进度、补损失,加快5G网络部署以满足电信企业提供5G服务的需求,5G建设的全面复工有望逐步得以实现,预期运营商将在3月和4月开启新一轮的5G设备及工程招标,为全年的5G建设吹响号角。因5G完全标准和SA独立组网技术有望在二季度末成熟,今年三季度开始,全行业有望实现单季度建设30万以上5G基站的快速扩张能力。
资本开支逐步上扬 5G建网有望加速
中金公司研报显示,政策层面的接连鼓励,有助于稳定和提升5G的投资力度,助力5G网络实现快速大规模扩张。2020年至2022年是5G建设的投资高峰期,运营商的资本开支将逐步上扬,以建设基本覆盖全国的5G商用网络。预测随着5G标准的完善和SA独立组网技术的成熟,5G建设将逐步提速,2020年全年建设基站数量或突破70万,并且在2021年和2022年继续明显增长。
此前,中国联通与中国电信表示,将在2020年前三季度力争完成全年25万5G基站的建设计划,而中国移动2020年5G基站暂时建设计划为30万。中国移动董事长杨杰也表示,坚持把5G建设发展作为重大政治任务,确保如期完成5G网络建设,做到5G建设目标不变、发展节奏不停。
中国广电也是拥有5G牌照和优势频段资源的5G建设生力军之一。在近日国家广电总局启动全国有线电视网络整合和广电5G建设一体化发展工作中,很重要的一项规划就是建设具有广电特色的5G网络。虽然广电方面还没有公布具体的基站建设计划,但其作为后来者,势必要在网络建设上投入重金。业界预测,今年广电方面或将建设5万至10万个5G基站。
5G基站建设概念股:
设备商:中兴通讯、烽火通信;
PCB:深南电路、沪电股份、生益科技;
光模块:光迅科技、中际旭创、华工科技;
天线:通宇通讯、东山精密、世嘉科技;
天线振子:硕贝德、信维通信、飞荣达、科创新源;
射频:卓胜微;
滤波器:大富科技、武汉凡谷、世嘉科技、东山精密、春兴精工;
小基站:宜通世纪、华星创业、邦讯技术;
网络规划实施:国脉科技、杰赛科技、日海智能、中通国脉、富春股份;
基站配套:数知科技、北讯集团、英维克、日海智能、中光防雷
宜通世纪收到由招标代理机构签发相关《中标通知书》
2019/11/26 8:56:32 挖贝网 春雨
挖贝网11月26日,宜通世纪(证券代码:300310)发布公告称,近日公司收到由招标代理机构签发相关《中标通知书》,公司为中国移动广东公司2019-2021年广东移动室内覆盖系统施工服务公开招标项目的中标单位之一。
项目名称:中国移动广东公司2019-2021年广东移动室内覆盖系统施工服务公开招标项目
项目概况:本项目为集中招标项目,划分12个标段,项目内容为采购广东省内的室内分布系统施工(含常规室分系统施工和分布式皮飞系统施工)服务。
计划工期:合同签订之日起至2021年9月30日
项目规模:本项目不含税总价上限为266,119.91万元
此次中标的项目符合公司的业务发展规划,若公司能够签订正式项目合同并顺利实施,将有利于公司保持在广东省的市场地位,对公司经营业绩有积极影响,且不影响公司经营的独立性。
二、工业互联网
【新基建之工业互联网概念股汇总】工业互联网是全球工业系统与高级计算、分析、感应技术以及互联网连接融合的结果。工业互联网概念股有华中数控、赛意信息、红豆股份等。
东土科技:专业的工业互联网整体解决方案提供商;主要产品是工业物联网一体化工业服务器;工业互联网解决方案已经在智能电网与智能交通行业落地;与宜通世纪就工业物联网达成战略合作。联合东北大学 东土科技打造全球领先的新一代工业互联网架构控制系统。
宜通世纪:华为发布5G工业模组相关产品;公司业务聚焦工业物联、车联网等行业,入围广东省经济和信息化委员会组织评选的工业互联网产业供给资源池等。母公司宜通世纪成功入选广东省经信委工业互联网产业生态供给资源池。
宜通世纪实现工业互联网在缝制设备行业落地。根据中央提出的智能制造和工业互联网的发展战略,老牌缝纫机械企业-标准股份与宜通世纪合作,构建了智能缝制机械/智能缝制工厂的全面解决方案— “T-IMS智云”。这也将会是工业互联网在缝制机械行业里面一个关键性的实践。“智云”系统首次将物联网和云技术赋予缝制设备本身,把孤立的生产设备整合为互联的信息终端,旨在为客户建立智能工厂和数字化车间,探索智慧缝制,引领下游产业转型升级。智能工厂中,客户的所有设备通过智能交互网互联互通,数据实时采集、实时上传、实时共享,生产统计、产能监测、生产线优化、生产数据交互、薪酬评估、设备管理、远程寻呼和大数据挖掘八大功能轻松实现。
三、宜通世纪联手中科院共推边缘计算
宜通世纪全资子公司与中国科学院计算技术研究所共建物联网端云协同联合实验室,联合实验室以边缘计算为技术相关研究作为工作重点,开展国产化物联网平台软件关键技术研发。
300310背靠三大运营商 华为,随着超高清和5G的逐步落地,订单将会爆发性增长:
来看看中信证券对于300310宜通世纪与中科院合作边缘计算的研报:
宜通世纪和中科院计算所在物联网端云协同、边缘计算、AI网关等方面开展系统架构及关键技术研究,联合申报的广东省重点领域研发计划2018-2019年度“新一代人工智能”重大科技专项项目《神经退行性疾病早期智能预警高级机器学习技术与示范应用》成功获批并获得政府研发经费资助。后续若相关研究成果达到披露标准,公司将及时对外公告。
台湾云主机,佳木斯云手机_
图片
随着 2020 年 5G 行业应用的快速发展,当前的边缘计算能力在实际应用中体现出部分不足,无法完全满足各类行业场景的实际诉求。一个关键因素在于 MEC 平台无法完全独立于运营商 5G 网络之外,网络能力与计算能力两者必须相互协同以进一步提升方案效率。在这样的背景下,本白皮书提出面向未来网络演进的 Edge Native 理念以支持运营商与行业面向未来的行业数字化转型。本文首先分析边缘计算发展现状及 5G 行业市场边缘需求,边缘计算虽进入 2.0,但在 5G MEC 部署过程中仍然存在若干痛点,因此需要新的 Edge Native 理念。其次,阐述Edge Native 产业理念及主要技术能力,Edge Native提供联接和计算的高效协同,是运营商网络以行业市场为主的中期目标架构。其中包含边缘编排、边缘智能、边缘安全等多种增强技术能力。
随着边缘计算产业的发展逐步从产业共识走向落地实践,边缘计算的主要落地形态、技术能力发展方向、软硬件平台的关键能力等问题逐渐成为产业界的关注焦点,边缘计算 2.0 应运而生。
边缘计算 2.0主要包括云边缘、边缘云和边缘网关三类落地形态;以“边云协同”和“边缘智能”为核心能力发展方向;软件平台需要考虑导入云理念、云架构、云技术,提供端到端实时、协同式智能、可信赖、可动态重置等能力;硬件平台需要考虑异构计算能力,如 X86、ARM、GPU、NPU 等。
图片
据不完全统计,全球在 2020 年开展了超过 5000 个行业试点项目,其中约 60% 均涉及 MEC 部署。以中国三大运营商为例,已在 40 多个城市开展了 100 多个基于边缘计算的 5G 商业应用试点项目,覆盖了多个行业和应用场景,包括智慧工厂、矿山、能源等。2020 年中国工业和信息化部的“绽放杯”5G 应用大赛中,5G MEC 的使用率达到 43%,相比去年增长 10 个百分点,在参加总决赛的 30 个项目中,MEC 的使用率超过 80%,5G MEC 已成为 5G 应用关键使能技术。
图片
结合上述行业实践,我们可以看出当前 5G MEC 技术上仍然存在一些不足。这些不足主要体现在网络部署及设备能力、软件开发两个方面。在网络部署及设备能力上:MEC可较好满足单一场景需要,但各场景对 MEC的部署位置、形态等差异较大,因此需要 MEC 可以支持更丰富的异构设备及组网形态;MEC平台及其承载的应用需要更强的数据分析能力,尤其是基于 AI 的高效智能化数据分析,因此需要MEC 在软硬件上都要提升 AI 能力;行业应用对于网络传输、可靠性要求普遍较高,因此 MEC 需要与行业应用、运营商网络进行高效协同;系统隔离、数据安全能力仍有待进一步提高。在边缘应用软件开发方面,开发者面对 5G MEC 的场景以及多样的 MEC 平台形态,需要考虑最大化的使用到 5G MEC 的开放能力。一个典型的 MEC 应用开发者流程如下:选择服务框架:根据应用开发者的语言技能,结合应用的最终运行场景进行应用开发态包含如应用框架、三方件、数据库等的选择。即在同一个 MEC 平台上,多微服务框架之间可以进行互相的注册发现、通信以及相关的服务治理。定义 Rest API:简而言之,是应用开发者需要确定自身应用对外的交互接口,对外能提供对应能力;使用 5G 网络能力:充分使用 5G 网络的低时延,大带宽等能力,并且是代码级的使用。即 5G 网络能力能够进行抽象,为开发者提供如 SDK/Rest API 等方便编程的能力;或者能够抽象为应用模板,使得开发者能够直接使用 Orchestrator 进行编排管理,而不需要关心里面具体的实现细节;适配多种平台:这里的平台需要区分为两层,即 IaaS 和 PaaS 层,即既需要应用能够适配 X86/ARM 等 平 台, 同 时 也 需 要 能 够 使 用 Openstack/Kubernetes 等 IaaS 平台,同时 MEP 平台也能够提供如基础数据库、安全、人工智能、区块链等边缘解决方案能力;DevSecOps/Orchestration:即应用需要端到端的DevSecOps 工具链支撑,同时也需要能够端到端的能力编排,如应用在部署时的依赖应用、三方能力等;为了更好地满足未来 5G 行业市场的发展,5G 确定性网络产业联盟(5GDNA)、EdgeGallery开源社区、边缘计算产业联盟(ECC)和工业互联网联盟(AII)共同提出 Edge Native(边缘原生)的产业理念。首先,Edge Native 与 Cloud Native(云原生)类似,都是一种长期文化与理念。因此其包含的范畴可能随着产业的发展而发生变化。就如同 Cloud Native 诞生之初更关心软件开发的 12 因子原则,而随后 2018 年 CNCF 将Cloud Native 定义为一种范式,让应用更加适应并使用云的特性,如弹性、分布式,而不需要关心底层的技术实现,从而实现快速部署、按需伸缩、不停机交付的特性。其次,Edge Native 与 Cloud Native 是一体两面,体现了 ICT 产业的重心不断向边缘转移。在这一转移过程中,Cloud Native 的技术面临了一些挑战,包括:端到云中心RTT时间较长,所有的计算、存储、网络消耗以及管理需要在中心终结。传输成本与计算成本相对较高隐私与数据安全的挑战而 Edge Native 则体现出了部分截然不同的特征和价值:
图片
由于 Edge Native 融合了更多的电信联接概念,导致熟悉 IT 的开发者较难理解边缘环境的一些架构、参数、特征等。所以边缘平台需要面向开发者将网络属性,包括 3GPP 等定义的具体参数进行友好的抽象表达。另外,对于 5G 网络行业数字化转型而言,Edge Native 也是网络的目标架构。基于 Edge Native 可在边缘云环境下深度利用边缘计算特有价值特性,高效构建、运行和维护管理时延敏感的边缘应用。
图片
Edge Native技术架构以边缘侧 5G 网络能力开放为特征,基于云边协同和边边协同的边缘网格技术、面向复杂场景跨网络的边缘编排技术、支持多语言 /serverless 和边缘自治的边缘框架技术、大量异构初始数据的低时延 / 实时预处理分析的边缘数据技术、基于认证加密和区块链的边缘可信技术、基于异构边缘智能硬件和硬件加速的边缘 AI 技术。
边缘基础设施 EdgeInfra边缘基础设施是 Edge Native 的底层基础,包括硬件与平台技术。硬件上,边缘基础设施不仅需要考虑增强计算能力,也需要考虑如何更好的支持 5G 网络所需要的大流量转发能力。因此需要支持异构硬件如 CPU(ARM 或 X86)、GPU、NP 等。平台技术上,目前越来越多的应用逐渐容器化 / 虚拟化。底层基础设施平台逐渐收敛至 Kubernetes 相关产品。但是 Kuberenetes 对于 MEC 应用的容器安全性、隔离性等有一些限制,需要对基础设施提出更高的诉求:增 强 的 电 信 网 络 支 持:电 信 MEC 场景需要Kubernetes 增强应用及平台的多网络平面隔离,多租户增强,以及电信网络能力增强(如 TSN 等)。容器与虚机的混合编排能力:电信网络功能及边缘应用厂商的容器化甚至虚拟化进展较慢,需要支持容器与虚机的混合编排。边缘网络 EdgeNetwork边缘计算平台作为联接 5G 网络与应用、最终用户的桥梁,需要在保障自身网络联接能力的基础上进一步加强与应用的协同,提供完善的 5G 网络开放能力:5G 网络能力开放:ETSI MEC 定义了一系列网络开放能力,如位置信息等;同时 3GPP 与电信运营商也定义了基于 3GPP NEF 的网络开放架构。算网一体的边缘计算平台:MEC 对下承载 5G 网络能力的打通,对上提供应用必须的计算与网络资源。MEC 平台需要对 5G 网络基础连接能力、计算能力、行业所需的确定性网络能力进行高效编排。边缘编排器EdgeOrchestrator由于边缘节点具有容量较小,部署环境复杂等特征,需要在整体边缘领域提供较强的边缘编排能力,以满足以行业为代表的业务 SLA: 边缘自治:边缘节点面临的弱网络等情况可能导致其与中心节点断联,出现如数据不同步,应用难以恢复等问题。插件式的多云支持:EdgeOrchestrator 需要针对不同场景适配典型的基础设施层(如各种云平台/裸金属),如集群场景下可以支持 Kubernetes、Openstack,单机场景下支持 K3S、MicroKubernetes,裸金属场景下可能需要支持如 RunC。边缘协同EdgeCollaborationMEC 边缘节点,即需要与运营商网络增强协同,也需要支撑最终应用客户端的协同,同时也需要考虑在多个 MEC 节点之间的协同,如算力的共享,网络的编排等等:
边边协同:结合 EdgeOrchestrator 可以对整网的MEC 节点进行统一的协同编排。
边云协同:由于云端/中心端通常具备海量计算能力,并且能提供给应用一系列的开放能力,通过边云协同可以使 MEC 上的应用充分使用云端的能力。
边端协同:由于 VR/AR/ 视频为代表的终端应用对时延有严格的要求,同时也对图像渲染等能力有一定要求,因此需要从架构 / 技术上保证 MEC 节点到端侧的高效通信,提供边端的高效数传协议,并通过 MEC 提供图像处理、渲染等能力。
边缘智能EdgeAI
边缘计算与人工智能结合的课题,目前在学术界与工业界都有比较深度的分析与研究。无论基于边缘计算节点进行就近训练,还是将中心节点训练好的模型下载到边缘进行推理,都有比较多的场景。结合目前高校与业界的深度讨论与探索,目前诉求如下:统一的边缘智能框架与模型:结合边缘、终端、中心协同,提供模型分割、数据分割、分布式学习、增量/迁移学习的引擎,以及对应的算法与协议接口。AI 异构算力的统一调度能力:边缘计算平台可以提供 HAL(Hardware Abrastraction Layer)层为最终应用提供异构硬件的资源抽象,提供屏蔽异构差异的统一硬件资源,并由 MEC 智能调度合适的硬件资源运行不同类型的服务为应用提供最佳的运行效率。
边缘安全 EdgeSecurity
边缘平台的安全要求毋庸置疑,结合行业对于安全的诉求,EdgeSecurity 需求包括如下:提供边缘平台端到端安全机制:边缘平台需要提供基础设施安全可信、网络安全可信(如网络隔离,网络监测与防护预警)、数据安全可信、应用安全可信等能力。如为防止 MEP 与 APP 等之间的通信数据被拦截、篡改,MEP 与 APP 等之间的数据传输应启用机密性、完整性、防重放保护等等功能。不可篡改的数据保存联盟链:通过抽象应用镜像摘要如 Hash 等 Meta 信息,并对此 Meta 信息加密后保存到区块中,将每个边缘节点作为私有区块数据存储点进行管理,同时接入统一的公有链进行协同,保障了应用的端到端数据安全
边缘存储 EdgeData
目前包括 IEEE 等研究组织都在对边缘计算上的存储进行多方面研究。此外边缘计算的分布式特点也对其存储系统提出了相应的诉求:分布式存储:其数据一致性需要 EdgeData 系统自行保持一致,支持去中心化存储系统之间的互联互通,包含冗余,容灾,边边数据协同等场景。异构化存储:边缘设备针对场景可采用不同存储软件或存储介质,EdgeData 需要解决不同存储软件或者存储数据的抽象问题。轻量化存储:例如针对 IoT 场景海量设备的监控数据和业务消息,可以提供轻量化的 TSDB 方案 ( 如TDEngine 等 )。虽然2020年基于MEC的各类5G行业试点项目均取得了不小的进展,但对 Edge Native 来说仍然只是一个起点。其整体理念与框架仍有待完善,各种具体技术也需要进一步深入研究。本次合作的联盟和开源社区还将继续探讨 Edge Native 技术架构,携手推动 Edge Native 的产业落地和实践。
© 著作权归作者所有,转载或内容合作请联系作者
俄罗斯云主机,大洋洲裸金属_
大家好,欢迎大家来参加CNBPS 2020云原生技术实践峰会,我是灵雀云的资深开发工程师刘梦馨,本次分享将由我和天翼云边缘计算的高级开发工程师范日明一起为大家带来如何构建多租户的VPC容器网络,重点介绍我们是如何将开源项目Kube-OVN在天翼边缘云的场景中进行落地。
01 如何构建多租户VPC容器网络
为什么需要多租户网络?
如果大家对公有云网络演化的趋势有印象,应该记得AWS最早用的网络其实是一个大二层网络,并非VPC网络。所谓的大二层网络,就是所有租户共享同一个地址空间,公有云在下面加一层防火墙来做多租户之间的隔离。但是随着用户的增加,地址空间不断耗尽,更为重要的是出于安全上的考虑,AWS最终采用了VPC网络来进行未来的架构。现在,国内、外的公有云基本上也都从原来的经典网络向VPC网络进行迁移,可以说主流趋势已经是VPC了。用户如果在公有云上新建网络,一般默认也都是VPC网络。
为什么要用VPC网络呢?主要有两点好处:第一个更好的隔离机制,纯大二层的网络,底层必须依赖防火墙的隔离,做一些比较细粒度的复杂控制。随着租户增多和需求的增加,防火墙的复杂度也会增加。但如果通过VPC网络,每个租户可以有一个完全独立的地址空间,可以做到天然逻辑上的隔离,会防火墙的机制更加简单,逻辑上也更加清晰。第二,VPC能提供更好的用户抽象,大二层网络,所有租户的IP地址空间都必须由下面的公有云预先进行分配,用户不能对自己的地址空间进行控制。
这对于一些大规模的场景,一些特殊应用来说,是很难接受的,而VPC提供了更好的灵活性,用户可以自定义地址空间,只要在自己的地址空间内不冲突即可,也扩充了整个系统可以使用的地址。比如,两个租户之间的地址是可以重叠的,这样很多事情就变得方便了,这也是公有云的演化趋势。
如果我们再把目光放回到Kubernetes,会发现Calico、Flannel,或者其他网络插件,大部分遵循的还是大二层的网络趋势,也就是所有容器其实是共享同一个地址空间,我们需要通过Network Policy来做访问控制。我们认为,未来Kubernetes网络一定会从经典大二层,向着多租户的VPC方向演进。
使用场景
再来看一下今年遇到的多租户网络需求的场景,究竟是哪些场景开始对Kubernetes多租户网络有了需求?
首先是公有云提供的容器服务。对于公有云来说,多租户的安全隔离是必备条件,强隔离需求是必备的,而且每个公有云用户在现有VPC网络的习惯下,倾向于自己有一个独立的网络空间,所以用户也需要定义自己的地址空间。
第二,也是我们今年看到的比较多的趋势,企业还是想给用户提供虚拟机的服务,但底层基础设施已经不再是OpenStack或者VMware,而是希望通过Kubernetes来提供虚拟机的虚拟化场景,这样对传统业务的兼容性比较好。对于虚拟机来说,他们其实也需要多租户网络,传统的大二层网络不符合他们的需求。
第三,我们在金融场景碰到越来越多的多租户的需求。大家前几年上容器云,对网络的需求是只要能打通,业务可以上就可以了,但随着越来越多的业务迁移到容器云,发现原来的一些安全审计和隔离的需求也会从虚拟机时代转移到容器云时代。金融场景对隔离有很强的管控,对流量需要细粒度的控制,原有的那种大二层所有IP地址空间混在一块的方式,显然不符合监管和安全的诉求。
对多租户的主要需求
第一点最基础的,是多租户之间的地址空间隔离,也就是说不同租户的地址可以重叠。你在一个租户下有个192.168.0的网段,在另一个租户下也可以有192.168.0的网段,每个租户之间只要不进行互访,都是可以在租户内部进行正常IP通信的。
第二,在IP地址可重叠的基础上,每个租户之间有一些相互独立的网络应用,比如每个租户要有自己的LB、NAT、EIP和DNS等网络应用层面的控制。用户在Kubernetes上多租户网络应用的需求在不断涌现。
第三,对于每个租户要有细粒度的控制,我们原有的Kubernetes的网络监控都是主机或者Pod级别的监控,但是随着多租户的场景,每个租户的监控也需要隔离,而且每个租户需要有不同的监控选项。在多租户上,还要进行细粒度的资源隔离,比如QoS,每个租户的带宽是怎样的,如果是提供EIP服务,公网带宽又应该如何给每个租户进行限制,此外,对于多租户,不管是公有云还是企业内部,会有一些计费或成本核算的需求,对网络这块也有计费的要求。
Kubernets上的多租户网络挑战
那么Kubernetes和现有多租户网络上的一些难点是什么样子的?首先,Kubernetes本身的多租户方案,不只是网络,所有资源层面的多租户,上游的方案都没有非常明确。大家如果关注Kubernetes上游社区的发展,会知道Kubernetes的多租户SIG里面,有两种方案争论的比较激烈,一种是HNC,参考namespace的多租户方案,还有一种Virtual Cluster方案,在Kubernetes大集群上虚拟出无数个Kubernetes虚拟节点,再加上一层虚拟的Kubernetes集群,相当于是Kubernetes on Kubernetes的架构。目前两个方向在同步进行,上游多租户方案的不确定,会影响到网络多租户服务的设计,如何与Kubernetes对接的过程。
除了上述多租户在整体架构上面临的问题,还有很多细粒度上的问题。
Kubernetes本身在设计之初没有考虑多租户网络的情况,现有Kubernetes架构,默认的一个行为是IP地址是不重叠的,一旦把多租户的网络上去了,IP重叠的现象会引发很多问题。
首先就是API校验的问题,现有Kubernetes的一些Pod,会对IP的唯一性进行校验。如果IP重叠,现有API会出现问题。再有我们碰到了一个比较直接的问题,在多租户网络下,主机和容器网络的互通其实是会存在问题的,因为IP是重叠的,主机直接去访问IP而没有租户信息的话,其实是没有办法访问的。现有的健康检查就会出现问题,比如TCP和HTTP的健康检查,其实默认的行为是kubelet会从主机的网络栈去往容器的网络栈,这种情况下,如果是多租户就会有一定问题。同样像Nodeport模式也会出现一些影响,因为现有的Nodeport也是通过主机网络栈直接往容器网络栈,通过IP映射,但是没有租户之间的关联关系,也会出现类似的问题。此外DNS、监控、容器访问、APIServer等等都需要考虑多租户网络和主机网络交互的情况。
第二,Cluster IP目前由Controller Manager集中分配,没有隔离机制。也就是说即使做到了底层IP可重叠,但由于Kubernetes现有的Cluster IP分配机制,是没有办法做到Cluster IP的租户隔离的。其实最理想的情况应该是每个租户,除了自己的IP地址,pod的IP地址空间和service的IP地址空间也是应该隔离的,这样Cluster IP也是可以重叠的。
第三点,租户级别的网络服务,比如LB/DNS/ACL/EIP/NAT,原来所有的设计方案都是为整个集群提供LB或者NAT服务,多租户情况下需要为每个租户分别考虑,网络的控制粒度会变得更细一层,不是从集群的粒度,而是从租户的粒度去看各个层面的网络组件方案。
02 天翼云边缘计算多租户网络实践
前面我们介绍了一些关于Kubernetes的网络多租户需求和现有的一些问题。下面有请天翼云的高级开发工程师范日明带来天翼云在多租户网络实践方面的分享。
我是范日明,主要做云计算相关的研发和解决方案落地相关的工作,目前主要负责中国电信天翼云边缘计算方案的集成和落地。在边缘计算这块,我们坚持使用云原生的解决方案,走了一些弯路,也积累了一些经验。特别是在多租户网络方面的突破对我们来说尤为重要,我今天要分享的内容是如何在边缘计算进行多租户的网络管理。
边缘计算:算力下沉的优势与难题
边缘计算的场景有什么特点呢?首先聊到边缘计算,大家听的最多的应该就是大带宽、低时延、大连接、靠近用户,能非常好地利用5G 的特点来去做场景化的业务构建。包括智慧园区、车路协同、物联网、视频汇聚、直播、工业控制等一些业务场景。下沉到边缘的业务,它往往不是一个简单的Web应用,而是各种垂直行业比较复杂的业务,纯粹的容器化其实是没有办法满足需求的。
同时相比大云,边缘计算的资源比较受限,大的节点可能有几十台的机器,小的只有几台,有些试点刚开始就给你一台,没有办法像大云那样,各个能力模块都用一个单独的集群来承载,只能把所有的能力融合来建设,做超融合架构,网络/存储/计算/管理等所有的能力都在一个集群里面。我们的解决方案是all in Kubernetes,要支撑边缘复杂的业务场景,Kubernetes就必须要同时承载安全、容器、虚拟机、函数计算这些能力。好在,这些都有相应的开源项目支持,我们也都把这些方案集成到我们的平台上来了。
最难的部分就是网络SDN。容器有代表性的网络方案Newton CNI和Openshift SDN,其实各有各的局限。OpenStackSDN非常强大,但是太重了,必须部署到OpenStack,这跟我们的原则是相背的,因为我们在边缘要尽量做到轻量化。Openshift SDN有一部分的多租户能力,但是不够丰富,没有做到强隔离,租户也没有主网能力。
Kube-OVN基础网络编排
最初我们在云原生网络方案的选型时,关注到Kube-OVN这个开源项目,它具备比较丰富和实用的功能,以及一些运维手段。底层采用了OVN,OVN本身有非常强的SDN能力,在OpenStack上也得到了充分验证,我们基于Kube-OVN开始构建了天翼云整个边缘计算的SDN能力。
一开始的方向是支持容器化应用,先下沉到边缘,这块是相对容易的,因为容器化应用大部分经过了微服务改造,能很好地适应Kubernetes的环境,基本上只要保证租户之间的网络在ACL层面的隔离,就能满足需求。在网络规划上,我们用了Kube-OVN自定义网络,还有固定IP的能力,为不同租户分配不同的网络段,租户也可以给自己的容器实例分配固定IP。
在网络隔离方面,我们使用Kubernetes的Network Policy的网络策略,租户之间可以做到ACL层面的隔离。入口流量方面使用了Ingress和MetalLB两个方案。Ingress负责七层的流量,不同租户之间分配不同的域名,就可以区分到不同租户的流量。MetalLB负责四层流量,有些业务要有自己的独立IP,MetalLB可以做到给不同租户使用自己的独立公网IP的能力。但它也有一些局限——仅限于入网流量可以走IP,出网的话,如果容器主动要访问外部的一些网站,或者自己部署在其他公有云的服务,是没办法走MetalLB同样的一个回路出去的。进网和出网是不同的IP,对一些业务来说是受限的。
总体来说,这些能力可以承载一般的容器应用,这是我们第一步首先去落地的方向。但它存在很多不够完善的地方,首先看网络隔离,租户之间网络三层,共用一个逻辑路由,没有强隔离,肯定不支持重叠网络。缺乏一些比较细粒度的QoS管控,出入网没无法使用同样的公网IP等,这一套的解决方案里面还是不能满足的。
目前来看,大部分客户其实是选择虚机而非容器,同时一些其他的业务还提出了专线组网等能力,目前这套方案是没有办法满足的。所以,我们还是考虑把中心云上VPC这一套的网络能力下沉到边缘,于是在Kube-OVN开源项目的基础上进行了升级改造,实现了强隔离,制定VPC的网络能力。
能力增强 回馈开源
首先来看两个架构图,左边是Kube-OVN 1.5版本以前的架构,Kube-OVN子网对应的其实是一个逻辑交换机,所有的逻辑交换机连接到同一个逻辑路由上面。这样所有的子网是三层,默认互通。子网隔离采取的是,在逻辑交换机上设置ACL的规则来实现隔离。
右边的架构是我们扩展的自定义VPC的能力,租户网络有独立的三层路由,VPC之间的网络是天然强隔离的,这就解决了常规容器网络在多租户隔离上的一个痛点。目前这个feature我们已经提交,并且合并到master的分支,大家可以提前去尝试体验一下。VPC解决了我们租户网络的隔离问题。从架构上来看,因为要做租户的强隔离,自定义VPC没有出口网关,没有利用原有的那套网络出入口的逻辑。
基于VPC的网络能力扩展
那么在自定义VPC的基础上,怎么去构建边界网络的流量?VPC的概念相信大家如果熟悉公有云的玩法,对其概念和周边扩展的能力应该比较熟悉了。有了VPC之后,我们可以对网络进行更精细的管控,把更多的大云上的网络能力下沉到边缘,但是云和边的实现是有区别的。
云上的每一个能力都可以用独立的集群去承载,但在边缘由于资源稀缺,只能把所有的能力做融合,单集群内所有的节点既是计算节点,也是网络节点,还有可能是存储节点,所以,VPC网络边界这块也进行了容器化的实现,包括NET网关,SLB、VPN网关、专线接入等功能,也可以用弹性IP,基本上把所有大云上的网络能力都下沉到边缘了,所以如果你是大云上IaaS的深度用户,要迁移到边缘,是可以无缝迁移的,切换成本非常低。
SLB这块其实可以替代Ingress的七层能力和MetalLB的四层负载均衡能力。这样每个租户有自己的SLB,而不需要像最初的容器应用一样,所有的流量共用一个Ingress,同时可以提供更多负载均衡的策略,这和云上的网络产品是基本保持一致的。
容器化可以带来更多的好处是轻量和灵活,可以在Kubernetes上的任意节点去部署网络能力,单点如果出现故障,可以做到秒级迁移,同时各个节点的带宽分配也可以做到非常灵活,因为它是容器化运行。我们可以根据业务的带宽负载压力,在所有节点上去根据自己的调度策略去均匀地做分布。
以上就是我要分享的全部内容,很高兴能跟大家分享我们的实践过程和思路,谢谢大家。
随着互联网技术的深入发展,数字孪生被越来越多地提及,那么数字孪生到底是什么?数字孪生,翻译自Digital Twin,最早在2002年,被从事产品生命周期管理PLM的Michael Grieves教授,在一次产品生命周期管理课程中提出,因而有一种观点认为数字孪生就是PLM的演变。发展至今,我认为对数字孪生最完整的解释是:综合运用感知、计算、建模等信息技术,通过软件定义,对物理实体进行描述、预测,进而实现物理空间与虚拟空间的交互映射。通俗来讲就是,把现实世界中的物理实体,通过一系列技术映射到虚拟空间中去,以实现一些更高要求的目的。
我们用生活中的场景举例:我想有一个不用我打开衣柜翻找和过多思考就能解决我穿衣问题的「聪明的助手」。我找到的解决方案就是「孪生」一个聪明衣柜。
然后就是执行方案:
step1:把所有的衣服和我自己制作成3D的素材,我可以找设计师或者自己使用可视化设计工具去进行。
step2:整理我所有的相关数据,包括:衣服的数据(尺码、颜色、风格、配件)、我的数据(身体数据、日程、心情、偏好)、场景数据(场合、天气)、衣柜的数据(空间、分区)。
step3:数据整理后实时接入,需要一套智能的算法帮助我完成搭配、衣服管理、新旧更换等等一系列事情。
step4:这些都准备好了需要有一个可以承载的平台,让可以通过屏幕或者投影去完成一系列展示和交互。每天有推荐搭配、数量提醒、换季提醒等等。
step5:衣服搭配都这么智能了,我的衣柜要不要也做成3D的,可以远程控制,衣服放入自动叠放、分区、挂好,旧衣服淘汰包装。新衣服线上试穿、购买直接下单等等都搭配起来呢?
举这个例子,是为了让大家感受到在这个简单的数字孪生过程中,有着无限可能的商机存在,并且上下游关联,形成一个闭环,你可以找到自己要做哪一环。
关于数字孪生生态,需要先明确几个圈层。具体包括:
物理层是基础:现实世界的物理实体;
数据层是关键:数据收集、数据处理、数据分析;
模型层是核心:可视化模型、算法模型、数据模型(软件);
功能层是目标:描述、诊断、预测、决策。
现在已经有的应用体现在:智慧城市、智慧工厂(工业互联网5.0)、车联网、智慧医疗、智慧园区等。
数字孪生生态中的要素包括2个空间和3个关键技术。
两个空间指的是现实空间与虚拟空间,二者信息实时联通并且能够进行交互:现实空间的数据反映到虚拟空间的描述中,虚拟空间的决策和处理结果反馈回现实空间。
三个关键技术包括数据、模型、软件。数据要求实时、动态,并且围绕数据做处理和分析;模型包括可视化模型和数据模型(多偏向于算法模型);软件是前两者重要的表现形式,也是应用和市场化的基础。
从以上的分析可以知道,在数字孪生生态中,有多种角色:
专注于数据的:数据采集(物联网相关)、数据处理、数据驱动模型(算法);
专注于软件的:代码、软件;
专注于映射的:可视化设计与表达、动态监测和呈现;
专注于决策的:人工智能、决策支持、综合服务。
并且除此之外,衍生的一系列服务、解决方案、咨询、平台、工具等等,都是大家可以参与进去的身份。
当前全球50多个国家、1000多个研究机构、上千名专家学者开展了数字孪生的相关研究并有研究成果发表。包括:
德国、美国、中国、英国、瑞典、意大利、韩国、法国、俄罗斯等科技相对发达的国家;
德国亚琛工业大学、美国斯坦福大学、英国剑桥大学、瑞典皇家理工学院、清华大学等各国一流大学;
西门子、PTC、德国戴姆勒、ABB、GE、达索、空客等国际著名一流企业;
美国NASA、美国空军研究实验室、法国国家科学研究中心、俄罗斯科学院等世界顶尖国家级研究机构;
具有智能制造、航空航天、医疗健康、城市管理等各研究背景的专家学者。
数字孪生以数字化的形式在虚拟空间中构建了与物理世界一致的高保真模型,能够模拟对象在物理世界中的行为,监控物理世界的变化,反映物理世界的运行状况,评估物理世界的状态,诊断发生的问题,预测未来趋势,乃至优化和改变物理世界。
数字孪生能够突破许多物理条件的限制,通过数据和模型双驱动的仿真、预测、监控、优化和控制,实现服务的持续创新、需求的即时响应和产业的升级优化。
数字孪生正在成为提高质量、增加效率、降低成本、减少损失、保障安全、节能减排的关键技术,同时数字孪生应用场景正逐步延伸拓展到更多和更宽广的领域。数字孪生具体功能、应用场景及作用如下表所示。
综上,数字孪生绝对不是某种技术、某个方案、某种商业模式,而是一个生态圈,并且是开放的、协作的。从工业到互联网,从企业到城市到国家,已经有很多力量投入到数字孪生生态的构建和技术的尝试中。从数字孪生五维模型的角度出发,如下技术大发展对数字孪生的实现和落地应用起到重要的支撑作用。
对物理世界的全面感知是实现数字孪生的重要基础和前提,物联网通过射频识别、二维码、传感器等数据采集方式为物理世界的整体感知提供了技术支持。
实现可视化与虚实融合是使虚拟模型真实呈现物理实体以及增强物理实体功能的关键。VR/AR/MR技术为此提供支持:
VR技术利用计算机图形学、细节渲染、动态环境建模等实现虚拟模型对物理实体属性、行为、规则等方面层次细节的可视化动态逼真显示;
AR与MR技术利用实时数据采集,场景捕捉,实时跟踪及注册等实现虚拟模型与物理实体在时空上的同步与融合,通过虚拟模型补充增强物理实体在检测、验证及引导等方面的功能。
边缘计算技术可将部分从物理世界采集到的数据在边缘侧进行实时过滤、规约与处理,从而实现了用户本地的即时决策、快速响应与及时执行。结合云计算技术,复杂的孪生数据可被传送到云端进行进一步的处理,从而实现了针对不同需求的云-边数据协同处理,进而提高数据处理效率、减少云端数据负荷、降低数据传输时延,为数字孪生的实时性提供保障。
数字孪生的规模弹性很大,单元级数字孪生可能在本地服务器即可满足计算与运行需求,而系统级和复杂系统级数字孪生则需要更大的计算与存储能力。云计算按需使用与分布式共享的模式可使数字孪生使用庞大的云计算资源与数据中心,从而动态地满足数字孪生的不同计算、存储与运行需求。
虚拟模型的精准映射与物理实体的快速反馈控制是实现数字孪生的关键。虚拟模型的精准程度、物理实体的快速反馈控制能力、海量物理设备的互联对数字孪生的数据传输容量、传输速率、传输响应时间提出了更高的要求。
5G通信技术具有高速率、大容量、低时延、高可靠的特点,能够契合数字孪生的数据传输要求,满足虚拟模型与物理实体的海量数据低延迟传输、大量设备的互通互联,从而更好的推进数字孪生的应用落地。
数字孪生中的孪生数据集成了物理感知数据、模型生成数据、虚实融合数据等高速产生的多来源、多种类、多结构的全要素/全业务/全流程的海量数据。
大数据能够从数字孪生高速产生的海量数据中提取更多有价值的信息,以解释和预测现实事件的结果和过程。
区块链可对数字孪生的安全性提供可靠保证,可确保孪生数据不可篡改、全程留痕、可跟踪、可追溯等。独立性、不可变和安全性的区块链技术,可防止数字孪生被篡改而出现错误和偏差,以保持数字孪生的安全,从而鼓励更好的创新。
此外,通过区块链建立起的信任机制可以确保服务交易的安全,从而让用户安心使用数字孪生提供的各种服务。
数字孪生凭借其准确、可靠、高保真的虚拟模型,多源、海量、可信的孪生数据,以及实时动态的虚实交互为用户提供了仿真模拟、诊断预测、可视监控、优化控制等应用服务。
AI通过智能匹配最佳算法,可在无需数据专家的参与下,自动执行数据准备、分析、融合对孪生数据进行深度知识挖掘,从而生成各类型服务。数字孪生有了AI的加持,可大幅提升数据的价值以及各项服务的响应能力和服务准确性。
© 著作权归作者所有,转载或内容合作请联系作者
_都柏林云手机,阿布扎比裸金属