我有来自Logstash的数据,这些数据正在以一种过于急切的方式进行分析。从本质上讲,字段"OS X 10.8"将被分解为"OS"、"X"和"10.8"。我知道我可以只更改现有数据的映射和重新索引,但我如何更改默认分析器(在ElasticSearch或LogStash中)以避免在未来的数据中出现此问题?
具体解决方案:在第一次将数据发送到新集群之前,我为该类型创建了一个映射。
来自IRC的解决方案:创建
我已经创建了一个表,其范围分区为
CREATE TABLE nums_range (
id INT NOT NULL AUTO_INCREMENT,
PRIMARY KEY(id)
) PARTITION BY RANGE(id) (
PARTITION p0mil VALUES LESS THAN (1000000),
PARTITION p1mil VALUES LESS THAN (2000000),
PARTITION p2mil VALUES LESS THAN (3000000),
PARTITION p3mil
当使用SDP从Cloudant提取数据并填充dashDB时,我偶尔会在dashdb "XXXX_OVERFLOW“表中看到如下所示的错误消息:
[XXXX does not exist in the discovered schema. Document has not been imported.]
问题
这个错误意味着什么?
我怎么才能修好它?
嗨,我面临这个问题已经很长一段时间了。我没有得到任何帮助,所以我再次尝试转发,这是我以前的问题。有关详细信息,I am using MSSQL shared database for my sonarqube.我没有任何错误日志来解决我的问题。但是当我拿出我的数据库并运行嵌入式数据库时,它运行得很好。但是,当我通过配置我的MSSQL数据库运行时,我遇到了间歇性的分析失败。我的环境是Linux中的Sonarqube 5.6,数据库是MSSQL 14。
谢谢你的帮助。。