如果我跑:SELECT *ORDER BY idLIMIT 1; Limit (cost=3137296.54-> Index Scan using books_pkey on books (cost=0.57..3137296.57 rows=100000000 width=14)
我是否正确地理解PostgreSQL正在将100000000行加载到内存中,只供OFFSET丢弃除1之外<em
我有两个表users和products,它们之间的关联是User has many products。我希望将产品的数量存储在users表中,并且应该在每次插入或删除时更新它。因此,我在数据库中为它编写了一个存储过程,并触发了它。问题是,当我一次插入数千个产品时,它正在执行触发器per row insertion,而且花费了太多时间。我认为FOR EACH ROW才是真正的问题。但是当我用FOR EACH STATEMENT尝试时,它会抛出语句无效的错误。(即使只是在数据库中</