我必须将数以百万计的记录加载到redshift DB中(这是必须的),这样做的最有效/最快的方法是什么?现在,我正在创建一个字典,在其中存储行块,这些行被抛到字符串中,这样我就可以将它们放在查询字符串中,然后使用Pandas这样的方法: with conn.cursor() as c:
for chunk in df_chunks.keys()
当使用批量插入( Redhsift表中的 )插入记录时,spring框架会回落到一个接一个的插入,并且花费更多的时间。(main) org.springframework.jdbc.support.JdbcUtils: JDBC driver does not support batch updates
有没有办法在红移表中启用批量更新