日志服务(Cloud Log Service,CLS)
支持按量计费(后付费)与资源包(预付费)两种方式,您可根据业务情况进行选择。说明:
计费方式
计费项
计费类别 | 计费项 | 说明 | 举例 |
流量费用 | 日志写流量(基础服务) | 定义:日志采集写入日志主题、数据加工和定时 SQL 分析任务写入目标日志主题所产生的流量。 计量方式:压缩后。 注:用户调用 API 采集日志,需要手动配置压缩格式。使用 SDK 和 Loglistener 采集日志,默认开启 LZ4 压缩格式。 | 用户原始日志为100GB,使用 Loglistener 采集,日志经压缩后写入日志主题,大约产生12.5GB的写流量。写流量大小与日志压缩率有关,压缩率一般为1:4 - 1:10。 |
| 指标写流量(基础服务) | 定义:指标采集写入指标主题、定时 SQL 分析任务写入目标指标主题所产生的流量。 计量方式:未压缩。 注:指标写入仅产生写流量,不会产生索引流量。 | 用户原始指标为100GB,采集写入指标主题,大约产生100GB的写流量。 |
| 全球加速写流量 (增值服务) | 定义:使用全球加速功能将日志写入日志主题所产生的流量。 计量方式:压缩后。 注1:使用全球加速功能才会产生该流量,普通外网访问不产生。 注2:使用全球加速功能时不再重复产生日志写流量。 | 用户原始日志为100GB,日志经压缩后使用全球加速写入日志主题,大约产生12.5GB的全球加速写流量(压缩率一般为1:4 - 1:10)。 |
| 内网读流量(增值服务) | 定义:使用 Kafka 协议消费(内网消费)日志,日志投递到同地域的腾讯云 COS、Ckafka、云函数 SCF,指标投递(内网)所产生的流量。 计量方式:未压缩/压缩后(取决于用户选择的压缩格式)。 注:用户可以选择不压缩,或者以 Snappy/LZ4/等压缩格式投递和消费日志(投递到云函数除外)。 | 用户原始日志为100GB,选择 Snappy 压缩格式投递到 COS,大约产生50GB的内网读流量。 |
| 外网读流量(增值服务) | 定义:Kafka 协议消费(外网消费)、下载日志、指标投递(外网)所产生的流量。 计量方式:未压缩/压缩后(取决于用户选择的压缩格式)。 注1:用户可以选择不压缩,或者以 Snappy/LZ4压缩格式消费日志 注2:下载日志默认 Gzip 压缩格式。 | 用户原始日志为100GB,使用 Kafka 协议消费(外网消费),选择 Snappy 压缩格式,大约产生50GB的外网读流量。 |
| 日志标准/低频索引流量 (增值服务) | 定义:日志开启全文索引、键值索引时产生的流量,全文索引流量的大小和用户日志所有的字段和字段值的长度有关。键值索引流量的大小与开启了索引的字段及字段值的长度有关。 计量方式:未压缩。 注1:CLS 内置保留字段如_FILENAME_、_SOURCE_,不计入索引流量。 注2:标准索引和低频索引流量的单价不同。 | 用户原始日志为100GB。 1. 仅开启全文索引,索引流量大约为100GB。 2. 全文和键值索引都开启,只计量全文索引的流量。 3. 仅开启键值索引,假定有10个字段且大小相当,开启了其中5个,那么索引流量大约为50GB。 |
存储费用 | 日志标准/低频存储量(基础服务) | 定义:标准/低频日志存储量大小和日志写流量大小、日志保存时长正相关。 计量方式:压缩后。 注1:CLS 内置保留字段如_FILENAME_、_SOURCE_,计入日志存储量。 注2:标准和低频日志存储的单价不同。 | 用户每天产生100GB的原始日志,使用 Loglistener 采集,日志保存7天。日志经压缩后写入日志主题,每天约产生12.5GB的日志存储量。第8天及以后,每天的日志存储量稳定在12.5GB*7天=87.5GB。 |
| 日志标准/低频索引存储量 (增值服务) | 定义:标准/低频索引存储量大小和索引流量大小、日志保存时长正相关。 计量方式:未压缩。 注1:CLS 内置保留字段如_FILENAME_、_SOURCE_,不计入索引存储量 注2:标准和低频日志索引存储的单价不同。 | 用户原始日志为100GB/天,开启索引,日志保存7天。 1. 仅开启全文索引,索引存储量大约为100GB/天,第8天及以后,每天的索引存储量稳定在100GB*7=700GB。 2. 全文和键值索引都开启,只计量全文索引的存储量。 3. 仅开启键值索引,假定有10个字段且大小相当,开启了其中5个,那么索引存储量大约为50GB/天。第8天及以后,每天的日志存储量稳定在50GB*7天=350GB。 |
| 指标存储量(基础服务) | 定义:指标存储量大小和指标写流量大小、指标保存时长正相关。 计费方式:未压缩。 注:指标存储不产生索引存储量 | 用户每天产生100GB的原始指标,保存7天。指标写入指标主题,每天约产生100GB的指标存储量。第8天及以后,每天的指标存储量稳定在100GB*7天=700GB。 |
数据处理费用 | 数据加工量(增值服务) | 定义:数据加工量的大小等同于源日志主题的写流量(解压缩后)。 计量方式:未压缩。 注:CLS 内置保留字段如_FILENAME_、_SOURCE_,不计入数据加工量。 | 用户原始日志为100GB,使用数据加工处理该日志数据,数据加工量为100GB。 |
其他费用 | 服务请求次数(基础服务) | 定义:根据上报日志/指标数据时调用日志服务接口的总次数进行计费,包括 Loglistener、API 和 SDK,无论成功或失败均会统计在内。 注:服务请求费用很低,不高于0.2元/百万次,主要防止滥用,比如无意义的高并发 API 调用。 | 无 |
| 主题分区个数(基础服务) | 定义:根据占用的主题分区数量进行计费。 | |







下面是您在使用日志主题的过程中, 可能产生与之对应的费用示意图。
上传日志至日志主题、检索分析(需开启索引)日志、投递日志至 COS/CKafka、使用 Kafka 协议消费日志、下载日志:

对日志进行处理,如数据加工(ETL)、定时 SQL 分析(OLAP):

计费示例