我得到的错误信息是$ cd flink-0.9.0
$ .Diagnostics: File file:/home/hadoop/.flink/application_1439466798234_0008/flink-conf.yaml does not existjava.io.FileNotFoundException: File file:/home/hadoop/.flin
我需要理解的是,如果我在我的代码中使用Hadoop conf对象,那么所有的代码都是在Hadoop环境或正常环境中执行的,即使我的代码中没有hadoop操作。我已经写了一个独立的java模块,并进行正常的操作,但我需要Hadoop conf对象在数据上应用内置Hadoop压缩,并仅将数据存储在正常位置。我以hadoop jar jar_name的身份运行jar