我有一个从PubSub主题读取事件数据的数据流管道。当收到消息时,我执行一个转换步骤,将事件数据与我想要的BigQuery模式相匹配。但是,如果创建的输入不符合模式,则会遇到问题。显然,它被无限重试着写到BigQuery:
Count: 76 RuntimeError: Could not successfully insert rows to BigQuery table目前,我正在进行大量手动检查,以确保输入
背景:我们有一个非常简单的管道,它从BigQuery (通常是300 to )过滤器/转换中读取一些数据,并将其放回BigQuery。在99%的情况下,该管道在7-10分钟内完成,然后重新启动以处理新的批处理。
问题:最近一段时间开始工作时间超过3h,在2000年的运行中,一个月可能需要2次。当我查看日志时,我看不到任何错误,实际上,这仅仅是第一步(从BigQuery读取