在我看来,Processing Time Temporal Join用于流和外部数据库,并且总是基于联接条件在外部数据库中的最新值join。Temporal Join时使用the external table is not feasible to materialize the table as a dynamic table within Flink类似地,Lookup Join用于流和外部数据库,并且始终基于联接条件在外部数据库中look up值。
我正在使用flink程序将我从kafka获得的流数据写入Azure data Lake。当我使用同步来获取ADLOutputStream、写入和关闭时,它工作得很好,但是性能非常差,因为只有一个线程在写数据lake.When我使用多个线程而没有同步它抛出了http 400非法参数异常。有没有办法让多个线程在Azure数据湖中写入一个文件?