Py学习  »  DATABASE

Mysql批量大数据获取

悠游0902 • 5 年前 • 144 次点击  
阅读 37

Mysql批量大数据获取

背景

mysql连接数据库的时候,需要从表中拖数据,如果数据量过大会导致服务内存溢出。会提示java.lang.OutOfMemoryError: Java heap space错误。

解决方案1

尝试1

使用setFetchSize(1000)指定获取接口大小

    ps=conn.con.prepareStatement("select * from bigTable");
    ps.setFetchSize(1000);
复制代码

事实上,这种指定的方法是没有任何效果的,服务器还是会一次性取出所有数据放在客户端内存中,此时setFetchSize参数不起作用,当一条SQL返回数据量较大时可能会出现JVM OOM。

尝试2

使用setFetchSize(Integer.MIN_VALUE)

    ps = connection.prepareStatement("select * from bigTable",
        ResultSet.TYPE_FORWARD_ONLY, ResultSet.CONCUR_READ_ONLY);
复制代码

此时客户端会逐个从服务器段获取数据

改进

事实上,setFetchSize(1000)也可以生效的,需要使用useCursorFetch=true

    conn = DriverManager.getConnection("jdbc:mysql://localhost/?useCursorFetch=true", "user", "s3cr3t");
    stmt = conn.createStatement();
    stmt.setFetchSize(100);
    rs = stmt.executeQuery("SELECT * FROM your_table_here");
复制代码

摘自:https://dev.mysql.com/doc/connector-j/5.1/en/connector-j-reference-implementation-notes.html

解决方案2

通过指定limit/offset,分页读取,这里不再详细叙述。

但是该方法会有一个潜在的问题,如读取重复数据、脏数据,除非在读取之前LOCK表,读取完成后 UNLOCK 表 看到网上的解决方案, 可以通过创建一个临时表解决

  CREATE TEMPORARY TABLE AS SELECT..., and read with LIMIT/OFFSET
复制代码

事实上也并不是很好,最好还是通过这种游标取数据。

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/29708
 
144 次点击