我正在尝试使用PostgreSQL数据库将价值15MB的数据写入RDS实例,但是我观察到这真的很慢……将所有数据完全写入到实例中大约需要15+分钟。有人经历过将大量数据逐行写入RDS实例吗?谢谢!
# Assuming the table is already created
def handler(file_with_many_many_rows, con):
cur = con.cursor()
reader = csv.reader(f)
for i, line in enumerate(reader):
vals = ("val1