我已经检查了最新的,并试图使包装工作。我在protocol-ntp中做了一个简单的更改(即添加了一个新类)。当我在mvn package中运行protocol-ntp时,target中的jar将包含新的类。
但是,我很难让包含所有项目的jar中出现新的类。当我在mvn package文件夹中运行all时,它是“成功”的包,但是jar文件(它确实有更新的时间戳)只包含旧的项目,没有新的类。在主干根目录中运行mvn package会产生以下错误:
-------------------------------------------------------
T E S T S
---------
我无法正确配置基于JSON模式的验证。验证中介程序失败,原因如下:
Unsupported Operation org.apache.axiom.om.OMException: Unsupported Operation
at org.apache.axiom.om.impl.llom.OMTextImpl.getInputStream(OMTextImpl.java:422)
at org.apache.synapse.mediators.builtin.ValidateMediator.mediate(ValidateMediator.java:231)
at or
我使用双倍创建了这个示例程序
在IDE中运行时出现以下错误
log4j:WARN No appenders could be found for logger (org.apache.flink.api.scala.ClosureCleaner$).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread "main"
当我试图通过maven将包部署到OSGi时,它显示在已安装的状态中。我的项目是多模块,所以有两个包。我在taglib包中看到的是:
org.apache.felix.shell from org.apache.felix.shell (292)
org.apache.jackrabbit.api,version=[2.3,3) from org.apache.jackrabbit.jackrabbit-api (65)
org.apache.jackrabbit.api.jsr283.security -- Cannot be resolved
org.apache.jackrabbit.ap
我使用dataSet API,我有两种案例类。
case class Geo(country:Int, province:Int, city:Int, county:Int)
case class AntiFraudLog(
eventType: Int,
valid: Boolean
)
case class AntiFraudSession(fraudLogs: Seq[AntiFraudLog])
然后我生成了一个键/值对,它的值是一个case类。
val dataKeyValue: DataSet[(Long, AntiFraudLog)]
并尝试使
我已经安装了apache directory studio,但是服务器没有打开,当我创建一个新的连接时,我遇到了这个错误。 Une erreur est survenue lors de l''ouverture de la connexion
- ERR_04110_CANNOT_CONNECT_TO_SERVER Cannot connect to the server: Connection refused: no further information
org.apache.directory.studio.connection.core.io.StudioLda
我正在遵循的步骤。但是,在为mvn install项目运行时,会出现以下错误:
org.apache.flink.table.api.ValidationException: Could not find any factories that implement 'org.apache.flink.table.delegation.ExecutorFactory' in the classpath.
at org.apache.flink.table.factories.FactoryUtil.discoverFactory(FactoryUtil.java:387)
at
我已经编写了一个消费者,它读取卡夫卡主题,并使用StreamSink以拼图格式写入数据。但是我得到了以下错误
java.lang.Exception: org.apache.flink.streaming.runtime.tasks.ExceptionInChainedOperatorException: Could not forward element to next operator
at org.apache.flink.streaming.runtime.tasks.SourceStreamTask$LegacySourceFunctionThread.checkThrowS
当我尝试在进程中创建'SQL‘任务时,得到类似于下一个日志中的错误。但创建“shell或spark”任务是正常的。当在另一台具有相同配置的服务器上创建“sql”任务时也是正常的。 INFO 2021-09-27 22:52:34.393 org.apache.dolphinscheduler.api.controller.LoginController:84 - login user name: admin
INFO 2021-09-27 22:52:34.457 org.apache.dolphinscheduler.api.security.PasswordAu
当我试图用flatMap操作符写出集合时,我得到了非法的状态异常(仅在高负载下):缓冲池被破坏了,我在这里做错了什么?当flink抛出缓冲池错误时?
java.lang.RuntimeException: Buffer pool is destroyed.
at org.apache.flink.streaming.runtime.io.RecordWriterOutput.pushToRecordWriter(RecordWriterOutput.java:110)
at org.apache.flink.streaming.runtime.io.RecordWriter
当我执行我的Flink应用程序时,它给出了这个NullPointerException:
2017-08-08 13:21:57,690 INFO com.datastax.driver.core.Cluster - New Cassandra host /127.0.0.1:9042 added
2017-08-08 13:22:02,427 INFO org.apache.flink.runtime.taskmanager.Task - TriggerWindow(TumblingEventTimeWindows(30000), List
我们有一个flink流作业,它读取卡夫卡的数据并将其汇到S3。我们使用flink的内部流文件接收器API来实现这一点。然而,几天后,作业失败了,无法从失败中恢复。消息说它无法从找到文件。我们想知道可能的根本原因是什么,因为我们真的不想丢失任何数据。
谢谢。
整个输出如下所示
java.io.FileNotFoundException: No such file or directory: s3://bucket_name/_part-0-282_tmp_b9777494-d73b-4141-a4cf-b8912019160e
at org.apache.flink.fs.shaded.
在eclipse中尝试执行基本的Flink程序时,由于.print()被datastream_name.print()调用来打印我的数据,我得到了错误。
使用Java8
错误
Exception in thread "main" java.lang.reflect.InaccessibleObjectException: Unable to make field private final byte[] java.lang.String.value accessible: module java.base does not "opens java.lang" t
我是新的火花,我试图创建简单的JavaDStream,以测试我的工作火花测试基API。我迄今所做的是:
JavaStreamingContext streamingContext = new
JavaStreamingContext(jsc(),Durations.seconds(10));
List<String> list = new LinkedList<String>();
list.add("first");
list.add("second");
list.add(
我使用flink监控hdfs中的新文件(文件为gzip格式),并对其进行处理。 env.readFile(filePath) 它可以在文件有效时工作, 但如果gzip文件无效,flink作业将被终止。 有异常日志: java.io.IOException: Error opening the Input Split hdfs://mdw:8020/user/data/15_077_4.gz [0,-1]: Not in GZIP format
at org.apache.flink.api.common.io.FileInputFormat.open(FileInputFormat.
我的Flink管道目前使用一个Pojo,其中包含一些列表和映射( Strings),按照
public class MyPojo {
private List<String> myList = new ArrayList<>();
private OtherPojo otherPojo = new OtherPojo();
// getters + setters...
}
public class OtherPojo {
private Map<String, String> myMap = new HashMap<
flink消费卡夫卡,沉到点击
dataStreamSource.addSink(sinkInstance);错误
Exception in thread "main" org.apache.flink.api.common.InvalidProgramException: org.apache.http.protocol.HttpRequestExecutor@6ea2bc93 is not serializable. The object probably contains or references non serializable fields.
at org.
我正在用HDP 2.6安装钻头,在安装过程中,屏幕在选择从代理时停留在一个屏幕上。
在日志文件中:
java.lang.ClassCastException: java.util.LinkedHashSet cannot be cast to java.util.List
at org.apache.ambari.server.controller.internal.StackAdvisorResourceProvider.prepareStackAdvisorRequest(StackAdvisorResourceProvider.java:110)
at org.apach
作为标题,异常发生在键控窗口中,
java.lang.IllegalArgumentException: Key Group 91 does not belong to the local range.
at org.apache.flink.util.Preconditions.checkArgument(Preconditions.java:139)
at org.apache.flink.streaming.api.operators.HeapInternalTimerService.getIndexForKeyGroup(HeapInternalTimerService.java:43