今天就跟大家聊聊有關怎么在MySql中插入千萬級大數據,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
第一步,讀取文件,開始插入多線程
在這里,達到一定量的量是個需要斟酌的問題,在我的實驗中,開始使用100w作為這個量,但是出現了新的問題,Java 堆內存溢出,最終采用了10W作為量的標準。
當然,可以有其他的量,看大家自己喜歡那個了。
import java.io.BufferedReader;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import preprocess.ImportDataBase;
public class MuiltThreadImportDB {
/**
* Java多線程讀大文件并入庫
*
* @param args
*/
private static int m_record = 99999;
private static BufferedReader br = null;
private ArrayList<String> list;
private static int m_thread = 0;
static {
try {
br = new BufferedReader(
new FileReader(
"E:/tianci/IJCAI15 Data/data_format1/user_log_format1.csv"),8192);
} catch (FileNotFoundException e) {
e.printStackTrace();
}
try {
br.readLine(); // 去掉CSV Header
} catch (IOException e) {
e.printStackTrace();
}
}
public void start() {
String line;
int count = 0;
list = new ArrayList<String>(m_record + 1);
synchronized (br) {
try {
while ((line = br.readLine()) != null) {
if (count < m_record) {
list.add(line);
count++;
} else {
list.add(line);
count = 0;
Thread t1 = new Thread(new MultiThread(list),Integer.toString(m_thread++));
t1.start();
list = new ArrayList<String>(m_record + 1);
}
}
if (list != null) {
Thread t1 = new Thread(new MultiThread(list),Integer.toString(m_thread++));
t1.start();
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) {
new MuiltThreadImportDB().start();
}
}第二步,使用多線程,批量插入數據
class MultiThread implements Runnable {
private ArrayList<String> list;
public MultiThread(ArrayList<String> list) {
this.list = list;
}
public void run() {
try {
ImportDataBase insert = new ImportDataBase(list);
insert.start();
} catch (FileNotFoundException e) {
e.printStackTrace();
}
display(this.list);
}
public void display(List<String> list) {
// for (String str : list) {
// System.out.println(str);
// }
System.out.print(Thread.currentThread().getName() + " :");
System.out.println(list.size());
}
}批量操作中,使用mysql的prepareStatement類,當然也使用了statement類的批量操作,性能比不上前者。前者可以達到1w+每秒的插入速度,后者只有2000+;
public int insertUserBehaviour(ArrayList<String> sqls) throws SQLException {
String sql = "insert into user_behaviour_log (user_id,item_id,cat_id,merchant_id,brand_id,time_stamp,action_type)"
+ " values(?,?,?,?,?,?,?)";
preStmt = conn.prepareStatement(sql);
for (int i = 0; i < sqls.size(); i++) {
UserLog log =new UserLog(sqls.get(i));
preStmt.setString(1, log.getUser_id());
preStmt.setString(2, log.getItem_id());
preStmt.setString(3, log.getCat_id());
preStmt.setString(4, log.getMerchant_id());
preStmt.setString(5, log.getBrand_id());
preStmt.setString(6, log.getTimeStamp());
preStmt.setString(7, log.getActionType());
preStmt.addBatch();
if ((i + 1) % 10000 == 0) {
preStmt.executeBatch();
conn.commit();
preStmt.clearBatch();
}
}
preStmt.executeBatch();
conn.commit();
return 1;
}看完上述內容,你們對怎么在MySql中插入千萬級大數據有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。