
问题场景: 服务端用 nodejs+mongoose+node-schedule 跑了些定时任务,执行 bulkWrite 操作,代码大概如下:
updateOne: { filter: {id: id}, update: {$set: item}, upsert: false } 在某时刻跑太多任务时,mongodb 偶发性会挂掉,出现以下错误:
MongoBulkWriteError: connection 20 to 127.0.0.1:27017 closed 这时我只能临时执行一下systemctl restart mongod命令重启一下就好了,请问大佬们,这是不是写入的数据太多了超过限制呢?是什么原因呢?该如何优化?谢谢!
1 defunct9 2024 年 3 月 15 日 开 ssh ,让我上去看看 |
2 qloog 2024 年 3 月 15 日 跑脚本的时候也可以适当的 sleep 个几秒, 让 mongodb 休息下 |
4 CivAx 2024 年 3 月 15 日 via iPhone 建议优先检查连接池的配置或者 keepalive 参数,有可能是你调的库默认一直在用 reconnect() 而不是开新连接导致某一时段 TTL 到期被杀掉了。 |
6 dorothyREN 2024 年 3 月 17 日 定时任务 加个锁,顺序执行就行了 |