我在用logstash将数据从postgres传输到弹性数据时遇到了困难。我得到错误“块在converge_state”。产生的错误是:
Failed to execute action {:action=>LogStash::PipelineAction::Create/pipeline_id:main, :exception=>"LogStash::ConfigurationError", :message=>"Expected one of \r, \n at line 36, column 4 (byte 583) after # }"
我想在我的python脚本中退出logstash,然后在cmd中单击ctrl-c将其关闭。我试图使用其中的一个函数,但它不起作用。任何人都有一个想法,请告诉我怎么做。
import os
import subprocess
import signal
@main.route('/data')
def data():
...
target_dir = os.path.join("C:\elastic_stack\logstash-7.6.2")
# small check
if os.path.i
我用ELK和logstash-Logback-编码器将日志推送到Logstash。现在,我想使用相同的堆栈,也就是带有logstash编码器的ELK进行分析。
流动:
API(Create User)----> Commit data to RDBMS ----->
Callback Listener(on post persist and post update) --->
Logger.info("IndexName: {} . DocId: {} .User json: {}", "Customer", user.getID(), u
我试图安装码头-麋鹿堆栈使用码头-撰写,弹性搜索和基班纳工作良好,但我的日志没有连接到弹性搜索和抛出错误如下所示,我是第一次安装这个,所以没有太多的知识。
logstash-5-6 | [2017-11-26T06:09:06,455][ERROR][logstash.outputs.elasticsearch] Failed to install template. {:message=>"Template file '' could not be found!", :class=>"ArgumentError",
我正在尝试启用logstash死信队列,但是,我收到了这条警告消息,elasticsearch没有收到来自logstash的日志。
[WARN ][org.logstash.common.io.DeadLetterQueueWriter][main] Event previously submitted to dead letter queue. Skipping...
我正在尝试的情景,
限制elasticsearch碎片,因此在本例中,它不能创建新的碎片,日志将出现在死信队列中
curl -X PUT 'http://elasticsearch:9200/_cluster/sett