
1 flynnX 2014 年 12 月 2 日 处理成批量插入的sql语句,然后执行试试,我试过一次批量插入20+W条数据,几秒搞定。建议开启事务再插入,以防数据有误,可能还有需要设置mysql packet大小,如果你的文本太大的话 |
2 jianghu52 2014 年 12 月 2 日 我数据量没你那么大,大概1千万条,navicat就已经卡的不行了。后来实在没办法,他们写的python脚本,把记录分成10个文件,然后一个个导入数据库。有时间,就是这么任性~ |
3 linkiosk 2014 年 12 月 2 日 写好shell别忘了共享一下 |
4 kofj OP |
5 billwang 2014 年 12 月 2 日 数据量不大,可以等负载低的时候分时分阶段搞定。随时监控服务器负载及空间情况。oracle的话还得监控归档空间使用,mysql应该不用。 |
6 mhycy 2014 年 12 月 2 日 处理成SQL语句以后直接在服务器上用mysql管理器用source命令导入 |
7 jianghu52 2014 年 12 月 2 日 你是直接copy到query下执行啊。还是用的dump sql 的形式执行的? dump sql 也会报错么? |
8 mahone3297 2014 年 12 月 2 日 bulk insert |
9 xiaogui 2014 年 12 月 2 日 使用 dump |
10 pi1ot 2014 年 12 月 2 日 load file? |
11 a591826944 2014 年 12 月 2 日 弄成 sql 用命令行 轻松导入啊 命令行最快了 |
12 markmx 2014 年 12 月 2 日 不管是什么导入 如果表类型是iNNODB的话。记得先google一下。。会快很多的! |
13 Battle 2014 年 12 月 2 日 求助,我也遇到了你这个问题; 我的是Access文件,每一个文件都是上百万条的数据,估计navicat会卡死,不知道怎么用shell导入到mysql中 |
14 hanwujibaby 2014 年 12 月 2 日 切分文件入库。 |