我是靠谱客的博主 伶俐心锁,这篇文章主要介绍python百万级数据批量插入postgreSQL数据库 copy_from()执行效率完胜executemany()和to_sql()方法,现在分享给大家,希望可以做个参考。
1.查询数据库中数据表是否存在,不存在则创建
复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15import psycopg2 conn = psycopg2.connect(host=***, port=***, database=***, user=***, password=***) cur = conn.cursor() try: cur.execute("select to_regclass(" + "'" + table_name + "'" + ") is not null") rows = cur.fetchall() except Exception as e: rows = [] conn.close() if rows: data = rows flag = data[0][0] print(flag)
flag的值即为查询出来的表是否存在的状态,存在则为True,不存在则为False
利用python在数据库创建表的例子网上很多,在此就不进行赘述了。
- executemany()方法批量输入数据到数据库
data是需要插入的数据,为list类型,3列,数据条数有70多万条
复制代码
1
2
3
4
5
6
7
8
9import psycopg2 conn = psycopg2.connect(host=***, port=***, database=***, user=***, password=***) cur = conn.cursor() sql = "insert into " + table_name + " values(%s, %s, %s) cur.executemany(sql, data) conn.commit() conn.close()
该方法下,70多万条数据插入到数据库需要3.88分钟
- datafame的to_sql()插入数据到数据库
复制代码
1
2
3
4
5from sqlalchemy import create_engine result = pd.DataFrame(data) engine = create_engine('postgresql://user:password@host:port/database') pd.io.sql.to_sql(result, table_name, engine, index = False, if_exists='append')
该方法下,70多万条数据插入到数据库需要4.42分钟
- 强大的copy_from(),是postgresSQ的内置函数
复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17import psycopg2 from sqlalchemy import create_engine import pandas as pd from io import StringIO data1 = pd.DataFrame(data) # dataframe类型转换为IO缓冲区中的str类型 output = StringIO() data1.to_csv(output, sep='t', index=False, header=False) output1 = output.getvalue() conn = psycopg2.connect(host=***, user=***, password=***, database=***) cur = conn.cursor() cur.copy_from(StringIO(output1), table_name1) conn.commit() cur.close() conn.close() print('done')
用copy_from()方法,70多万条数据插入到数据库仅仅需要0.06分钟,相比于前两种方法执行效率高太多啦
尝试了多张数据表循环批量插入,之前用executemany()需要15个小时才能插入完成的数据,用copy_from()只需要90分钟左右。相比来说已经很优秀了!
主要参考:
(https://blog.csdn.net/rongyongfeikai2/article/details/17935139?utm_source=blogxgwz5)
最后
以上就是伶俐心锁最近收集整理的关于python百万级数据批量插入postgreSQL数据库 copy_from()执行效率完胜executemany()和to_sql()方法的全部内容,更多相关python百万级数据批量插入postgreSQL数据库内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复