Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >北京市政务/行业云采购:太极、电科、紫光、金山、电信、华为、移动、UCloud、京东、百度、腾讯、歌华、光环新网等 23 家入围

北京市政务/行业云采购:太极、电科、紫光、金山、电信、华为、移动、UCloud、京东、百度、腾讯、歌华、光环新网等 23 家入围

作者头像
云头条
发布于 2022-03-18 09:44:36
发布于 2022-03-18 09:44:36
2.1K0
举报
文章被收录于专栏:云头条云头条

2021年7月12日,北京市市级行政事业单位2021-2022云计算服务定点采购政府采购项目资格预审公告发布,本次采购,政务云(服务云)、行业云(健康云、教育云)须各自独立部署,总资源规模达到云主机2.8万台、vCPU 19万核、内存61万GB、存储38 PB。

教育云当前预计需求资源规模为云主机1到2千台、vCPU 6千核、内存3万GB、存储3PB。

六里桥云:云主机1.8万台、vCPU 15万核、内存47万GB、存储14 PB。

健康云(卫健):云主机6千台、vCPU 2万核、内存10万GB、存储20PB。

健康云(医保):云主机1,890台,vCPU 9,516核、内存1.4万GB、存储1.4PB。

政务云整体规划

北京市级政务云从2015年开始面向北京市市属行政事业单位的非涉密信息系统提供云计算服务,统一提供云计算、网络、云平台安全及相关配套服务。在政务数据汇聚、融合和公开等方面发挥重要作用。2020年为支撑智慧城市建设,特别是支撑智慧医疗、智慧教育行业发展,市级政务云服务范围扩展至特定行业领域。

市级政务云包括政务云和行业云两部分。

政务云分为服务云、办公云、备份节点。服务云位于六里桥,支撑公众服务类系统、大数据类业务系统运行;办公云位于通州,支撑政府内部办公类业务系统运行;备份节点位于密云,实现服务云和办公云的云主机备份、应用系统双活等业务需求。目前我市规划了2个行业云服务医疗健康、终身教育行业。

行业云管理行业信息系统和行业业务数据,是我市智慧城市建设的重要组成部分,也是我市信息化关键基础设施之一。

政务云与行业云在运行、管理、安全上坚持统一标准体系、统一监管体系和统一评估体系,实现多云统一管理体系;构建全市统一的政务云数据专区,实现多云数据的汇聚、管理和共享;构建全市统一安全保障和应急监测体系,实现多云节点和全市入云系统的安全监测和应急预警。

市级政务云由市经信局牵头规划和建立统一管理体系,政务云(服务云、办公云、备份节点)由市经信局管理和推广应用。行业云(健康云、教育云)由相关行业主管部门(市医保局、市卫健委、市教委)负责组织建设运营和管理推广。

市级政务云共享一套服务目录(含单价),享受相同的服务水平。

资格预审审核结果公告

2021年7月22日资格预审审核结果公告发布,资格审查合格申请人名单如下:

1、北京天鸿汇通网络科技有限公司

2、合肥软通通云科技有限公司

3、浪潮软件集团有限公司

4、电科云(北京)科技有限公司

5、北京国研网络数据科技有限公司

6、太极计算机股份有限公司

7、紫光云技术有限公司

8、同方有云(北京)科技有限公司

9、北京金山云网络技术有限公司

10、腾讯云计算(北京)有限责任公司

11、中国电信股份有限公司

12、华为软件技术有限公司

13、中国移动通信集团有限公司

14、北京阳光春雨科技有限责任公司

15、优刻得科技股份有限公司

16、首信云技术有限公司

17、北京北科融智云计算科技有限公司

18、北京歌华有线电视网络股份有限公司

19、成都超级计算中心有限公司

20、北京首都在线科技股份有限公司

21、北京光环新网科技股份有限公司

22、北京京东叁佰陆拾度电子商务有限公司

23、北京百度网讯科技有限公司

本公告中资格审查合格的申请人,可参与北京市市级行政事业单位2021-2022云计算服务定点采购政府采购项目后续正式的公开招标。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-07-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
基于 HBase & Phoenix 构建实时数仓(5)—— 用 Kafka Connect 做实时数据同步
本篇演示安装配置 Kafka connect 插件实现 MySQL 到 Hbase 的实时数据同步。依赖环境见本专栏前面文章。相关软件版本如下:
用户1148526
2024/03/21
5850
基于 HBase & Phoenix 构建实时数仓(5)—— 用 Kafka Connect 做实时数据同步
从 MySQL 到 ClickHouse 实时数据同步 —— MaterializeMySQL + Materialized View
本篇演示使用 ClickHouse 的 MaterializeMySQL 数据库引擎和物化视图,实时将 MySQL 库表中的数据同步到 ClickHouse 的库表中。相关软件版本如下:
用户1148526
2024/04/20
4K0
从 MySQL 到 ClickHouse 实时数据同步 —— MaterializeMySQL + Materialized View
基于 HBase & Phoenix 构建实时数仓(4)—— Kafka 集群安装部署
Kafka 是一个完整的消息系统,常用于实时系统中的消息中转和数据持久化。Kafka 集群安装部署依赖于 Zookeeper,本专栏前面文章介绍了 Zookeeper 安装部署及运行,参见 “安装部署 Zookeeper 集群”。本篇继续介绍在相同主机环境下安装部署 Kafka 集群。
用户1148526
2024/03/12
2350
ClickHouse 集群部署(不需要 Zookeeper)
(1)安装 ClickHouse Server 和 ClickHouse Client
用户1148526
2024/04/18
8.3K2
基于 HBase & Phoenix 构建实时数仓(2)—— HBase 完全分布式安装
完全分布式 HBase 集群的运行依赖于 Zookeeper 和 Hadoop,在前一篇中已经详细介绍了他们的安装部署及运行,参见“基于 HBase & Phoenix 构建实时数仓(1)—— Hadoop HA 安装部署”。本篇继续介绍在相同主机环境下安装配置完全分布式 HBase 集群。
用户1148526
2024/03/09
4420
基于 HBase & Phoenix 构建实时数仓(2)—— HBase 完全分布式安装
基于 HBase & Phoenix 构建实时数仓(1)—— Hadoop HA 安装部署
172.18.4.126 node1 172.18.4.188 node2 172.18.4.71 node3 172.18.4.86 node4
用户1148526
2024/03/08
4470
基于 HBase & Phoenix 构建实时数仓(1)—— Hadoop HA 安装部署
Mysql实时数据变更事件捕获kafka confluent之debezium
如果你的后端应用数据存储使用的MySQL,项目中如果有这样的业务场景你会怎么做呢?
XING辋
2019/03/26
3.5K0
Mysql实时数据变更事件捕获kafka confluent之debezium
湖仓一体电商项目(三):3万字带你从头开始搭建12个大数据项目基础组件
​上篇已经大概讲述大数据组件版本和集群矩阵配置说明,有不清楚的同学,可以阅读上一篇
Lansonli
2022/07/31
1.3K0
湖仓一体电商项目(三):3万字带你从头开始搭建12个大数据项目基础组件
大数据Flink进阶(九):集群基础环境搭建
Flink可以运行在所有类unix环境中,例如:Linux,Mac OS 和Windows,一般企业中使用Flink基于的都是Linux环境,后期我们进行Flink搭建和其他框架整合也是基于linux环境,使用的是Centos7.6版本,JDK使用JDK8版本(Hive版本不支持JDK11,所以这里选择JDK8),本小节主要针对Flink集群使用到的基础环境进行配置,不再从零搭建Centos系统,另外对后续整合使用到的技术框架也一并进行搭建,如果你目前已经有对应的基础环境,可以忽略本小节,Linux及各个搭建组件使用版本如下表所示。
Lansonli
2023/03/30
1.3K0
大数据Flink进阶(九):集群基础环境搭建
大数据ClickHouse(十四):Integration系列表引擎
ClickHouse提供了许多与外部系统集成的方法,包括一些表引擎。这些表引擎与其他类型的表引擎类似,可以用于将外部数据导入到ClickHouse中,或者在ClickHouse中直接操作外部数据源。
Lansonli
2022/08/30
7170
大数据ClickHouse(十四):Integration系列表引擎
kafka 连接器实现 Mysql 数据同步 Elasticsearch
Mysql 作为传统的关系型数据库,主要面向 OLTP,性能优异,支持事务,但是在一些全文检索,复杂查询上面并不快。Elasticsearch 底层基于 Lucense 实现,天然分布式,采用倒排索引存储数据,全文检索效率很高,使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。
Se7en258
2021/05/18
2.7K0
kafka 连接器实现 Mysql 数据同步 Elasticsearch
基于 HBase & Phoenix 构建实时数仓(3)—— Phoenix 安装
继续上一篇,本篇介绍在同一环境中安装 Phoenix,并连接上篇部署的 HBase 集群。
用户1148526
2024/03/09
5170
Kafka——分布式的消息队列
Producers – 生产者 生产者将数据发布到他们选择的主题。生产者负责选择要分配给主题中哪个分区的消息 可以以循环方式完成此操作,仅是为了平衡负载,也可以根据某些语义分区功能(例如基于消息中的某些键)进行此操作。
时间静止不是简史
2020/07/24
1.4K0
Streaming Data Changes from MySQL to Elasticsearch
MySQL Binary Log包含了针对数据库执行DDL(Data Definition Language)和DML(Data Manipulation Language)操作的完整事件,其被广泛应用于数据复制和数据恢复场景。本文所分享的就是一种基于MySQL Binary Log特性实现增量数据近实时同步到Elasticsearch的一种技术。要想实现增量数据的同步,仅仅有binary log是不够的,我们还需要一款变更数据捕获(CDC,Change Data Capture)工具,可能大家很快就会想到阿里巴巴开源的Canal。没错,但本文今天给大家分享一款新的开源工具:Debezium。Debezium构建于Kafka之上,它为MySQL、MongoDB、PostgreSQL、Orcale和Cassandra等一众数据库量身打造了一套完全适配于Kafka Connect的source connector。首先,source connector会实时获取由INSERT、UPDATE和DELETE操作所触发的数据变更事件;然后,将其发送到Kafka topic中;最后,我们使用sink connector将topic中的数据变更事件同步到Elasticsearch中去,从而最终实现数据的近实时流转,如下图所示。
程序猿杜小头
2022/12/01
1.6K0
Streaming Data Changes from MySQL to Elasticsearch
大数据Kafka(三):Kafka的集群搭建以及shell启动命令脚本编写
为了方便将来进行一键启动、关闭Kafka,我们可以编写一个shell脚本来操作。将来只要执行一次该脚本就可以快速启动/关闭Kafka。
Lansonli
2021/10/11
3.5K0
大数据Kafka(三):Kafka的集群搭建以及shell启动命令脚本编写
Debezium kafka connector 运行报错1236
今天发现stag环境kafka connector运行报错( curl 172.18.1.1:8083/connectors/order-center-connector/status)
XING辋
2019/07/19
2.2K0
数据同步工具之FlinkCDC/Canal/Debezium对比
数据准实时复制(CDC)是目前行内实时数据需求大量使用的技术,随着国产化的需求,我们也逐步考虑基于开源产品进行准实时数据同步工具的相关开发,逐步实现对商业产品的替代。本文把市面上常见的几种开源产品,Canal、Debezium、Flink CDC 从原理和适用做了对比,供大家参考。
王知无-import_bigdata
2021/10/27
13.9K0
ClickHouse 实战笔记 第01期:Kafka 数据同步到 ClickHouse
这一期首先聊聊 Kafka 数据同步到 ClickHouse 的其中一个方案:通过 Kafka 引擎方式同步,下面进入实际操作过程(环境:CentOS7.4):
数据库交流
2022/04/25
3.3K0
ClickHouse 实战笔记 第01期:Kafka 数据同步到 ClickHouse
Debezium结合kafka connect实时捕获mysql变更事件写入elasticsearch实现搜索流程
本文将会实现一套完整的Debezium结合Kafka Connect实时捕获MySQL变更事件写入Elasticsearch并实现查询的流程.
XING辋
2019/03/26
7.5K4
Debezium结合kafka connect实时捕获mysql变更事件写入elasticsearch实现搜索流程
Spark Streaming + Canal + Kafka打造Mysql增量数据实时进行监测分析
Spark中的Spark Streaming可以用于实时流项目的开发,实时流项目的数据源除了可以来源于日志、文件、网络端口等,常常也有这种需求,那就是实时分析处理MySQL中的增量数据。
王知无-import_bigdata
2021/04/21
1.6K0
Spark Streaming + Canal + Kafka打造Mysql增量数据实时进行监测分析
推荐阅读
相关推荐
基于 HBase & Phoenix 构建实时数仓(5)—— 用 Kafka Connect 做实时数据同步
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档