溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

java怎么導出insert語句并生成sql腳本

發布時間:2021-06-08 13:55:45 來源:億速云 閱讀:370 作者:小新 欄目:開發技術

小編給大家分享一下java怎么導出insert語句并生成sql腳本,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

看代碼吧~

package com.mtpc.admin.controller.exportSql;
import ch.qos.logback.classic.db.names.ColumnName;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.sql.*;
import java.util.ArrayList;
import java.util.List;
public class ExportSqlController {
 
    private static Connection conn = null;
    private static Statement sm = null;
    private static String schema = "motooling2";//模式名
    private static String select = "SELECT * FROM";//查詢sql
    private static String insert = "INSERT INTO";//插入sql
    private static String values = "VALUES";//values關鍵字
    private static String[] table = {"city"};//table數組
    private static List<String> insertList = new ArrayList<String>();//全局存放insertsql文件的數據
    private static String filePath = "C:\\mysql\\sql.sql";//絕對路徑導出數據的文件
 
    /**
     * 導出數據庫表*@paramargs *@throwsSQLException
     */
    public static void main(String[] args) throws SQLException {
        List<String> listSQL = new ArrayList<String>();
        connectSQL("com.mysql.jdbc.Driver", "jdbc:mysql://192.168.2.186:3306/motooling2?useUnicode=true&characterEncoding=utf8&useSSL=false&tinyInt1isBit=true", "root", "123123");//連接數據庫
        listSQL = createSQL();//創建查詢語句
        executeSQL(conn, sm, listSQL);//執行sql并拼裝
        createFile();//創建文件
    }
 
    /**
     * 創建insertsql.txt并導出數據
     */
    private static void createFile() {
        File file = new File(filePath);
        if (!file.exists()) {
            try {
                file.createNewFile();
            } catch (IOException e) {
                System.out.println("創建文件名失?。?!");
                e.printStackTrace();
            }
        }
        FileWriter fw = null;
        BufferedWriter bw = null;
        try {
            fw = new FileWriter(file);
            bw = new BufferedWriter(fw);
            if (insertList.size() > 0) {
                for (int i = 0; i < insertList.size(); i++) {
                    bw.append(insertList.get(i));
                    bw.append("\n");
                }
            }
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            try {
                bw.close();
                fw.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
 
    /**
     * 拼裝查詢語句
     *
     * @return返回 select集合
     */
    private static List<String> createSQL() {
        List<String> listSQL = new ArrayList<String>();
        for (int i = 0; i < table.length; i++) {
            StringBuffer sb = new StringBuffer();
            sb.append(select).append(" ").append(schema).append(".").append(table[i]);
            listSQL.add(sb.toString());
        }
        return listSQL;
    }
 
    /**
     * 連接數據庫創建statement對象
     * *@paramdriver
     * *@paramurl
     * *@paramUserName
     * *@paramPassword
     */
    public static void connectSQL(String driver, String url, String UserName, String Password) {
        try {
            Class.forName(driver).newInstance();
            conn = DriverManager.getConnection(url, UserName, Password);
            sm = conn.createStatement();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
 
    /**
     * 執行sql并返回插入sql
     *
     * @paramconn
     * @paramsm
     * @paramlistSQL *
     * @throwsSQLException
     */
    public static void executeSQL(Connection conn, Statement sm, List listSQL) throws SQLException {
        List<String> insertSQL = new ArrayList<String>();
        ResultSet rs = null;
        try {
            rs = getColumnNameAndColumeValue(sm, listSQL, rs);
        } catch (SQLException e) {
            e.printStackTrace();
        } finally {
            rs.close();
            sm.close();
            conn.close();
        }
    }
 
    /**
     * 獲取列名和列值
     *
     * @return
     * @paramsm
     * @paramlistSQL
     * @paramrs
     * @throwsSQLException
     */
    private static ResultSet getColumnNameAndColumeValue(Statement sm, List listSQL, ResultSet rs) throws SQLException {
        if (listSQL.size() > 0) {
            for (int j = 0; j < listSQL.size(); j++) {
                String sql = String.valueOf(listSQL.get(j));
                rs = sm.executeQuery(sql);
                ResultSetMetaData rsmd = rs.getMetaData();
                int columnCount = rsmd.getColumnCount();
                while (rs.next()) {
                    StringBuffer ColumnName = new StringBuffer();
                    StringBuffer ColumnValue = new StringBuffer();
                    for (int i = 1; i <= columnCount; i++) {
                        String value = rs.getString(i).trim();
                        if ("".equals(value)) {
                            value = "";
                        }
                        if (i == 1 || i == columnCount) {
                            if(i==columnCount){
                                ColumnName.append(",");
                            }
                            ColumnName.append(rsmd.getColumnName(i));
                            if( i== 1){
                                if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                    ColumnValue.append("'").append(value).append("',");
                                } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                    ColumnValue.append(value).append(",");
                                } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                    ColumnValue.append("timestamp'").append(value).append("',");
                                } else {
                                    ColumnValue.append(value).append(",");
 
                                }
                            }else{
                                if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                    ColumnValue.append("'").append(value);
                                } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                    ColumnValue.append(value);
                                } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                    ColumnValue.append("timestamp'").append(value);
                                } else {
                                    ColumnValue.append(value);
 
                                }
                            }
 
                        } else {
                            ColumnName.append("," + rsmd.getColumnName(i));
                            if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                ColumnValue.append("'").append(value).append("'").append(",");
                            } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                ColumnValue.append(value).append(",");
                            } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                ColumnValue.append("timestamp'").append(value).append("',");
                            } else {
                                ColumnValue.append(value).append(",");
                            }
                        }
                    }
                    System.out.println(ColumnName.toString());
                    System.out.println(ColumnValue.toString());
                    insertSQL(ColumnName, ColumnValue,table[j]);
                }
            }
        }
        return rs;
    }
 
    /**
     * 拼裝insertsql放到全局list里面
     * @paramColumnName
     * @paramColumnValue
     */
    private static void insertSQL(StringBuffer ColumnName, StringBuffer ColumnValue,String tableName) {
            StringBuffer insertSQL = new StringBuffer();
            insertSQL.append(insert).append(" ").append(schema).append(".")
                    .append(tableName).append("(").append(ColumnName.toString()).append(")").append(values).append("(").append(ColumnValue.toString()).append(");");
            insertList.add(insertSQL.toString());
            System.out.println(insertSQL.toString());
       
    }
 
}

java 實現數據庫導出 sql文件

String commod = "mysqldump -u"+username+" -p"+password+" -h"+host+" -P"+port+" --single-transaction " +
                        "--master-data=2 --events --routines  --databases " +dataBaseName+"  -n -t " +
                        "--result-file="+sqlPath+dataBaseName+".sql";
        //調用系統黑窗口,運行命令
        Process p = null;
        try {
//            synchronized (this){
                p = Runtime.getRuntime().exec(commod);
//            }
        } catch (IOException e) {
            e.printStackTrace();
        }

遇到的坑 注意:

"mysqldump -u"+username+" -p"+password+" -h"+host+" -P"+port+" --single-transaction " +
"--master-data=2 --events --routines  --databases " +dataBaseName+"  -n -t " +
"--result-file="+sqlPath+dataBaseName+".sql";

網上大部分是 > 而不是--result-file= 在java中調用cmd,使用 > (重定向的意思)會出現錯誤,導致導出的sql文件為空;

另附上mysqldump常用參數,是復制來的:

1、 --all-databases, -A //導出全部數據庫。

#mysqldump  -uroot -p --all-databases>outfile.sql
#mysqldump  -uroot -p -A>outfile.sql      //等同于上句

2、 --all-tablespaces, -Y //導出全部表空間。

#mysqldump  -uroot -p --all-databases --all-tablespaces>outfile.sql
#mysqldump  -uroot -p –A -Y>outfile.sql      //等同于上句

3、 --no-tablespaces, -y //不導出任何表空間信息。

#mysqldump  -uroot -p --all-databases --no-tablespaces
#mysqldump  -uroot -p --A –y>outfile.sql  //等同于上句

4、 --add-drop-database

每個數據庫創建之前添加drop數據庫語句。

mysqldump  -uroot -p --all-databases --add-drop-database

5、 --add-drop-table

每個數據表創建之前添加drop數據表語句。(默認為打開狀態,使用--skip-add-drop-table取消選項)

mysqldump  -uroot -p --all-databases  (默認添加drop語句)
mysqldump  -uroot -p --all-databases –skip-add-drop-table  (取消drop語句)

6、 --add-locks

在每個表導出之前增加LOCK TABLES并且之后UNLOCK TABLE。(默認為打開狀態,使用--skip-add-locks取消選項)

mysqldump  -uroot -p --all-databases  (默認添加LOCK語句)
mysqldump  -uroot -p --all-databases –skip-add-locks   (取消LOCK語句)

7、 --allow-keywords

允許創建是關鍵詞的列名字。這由表名前綴于每個列名做到。

mysqldump  -uroot -p --all-databases --allow-keywords

8、 --apply-slave-statements

在'CHANGE MASTER'前添加'STOP SLAVE',并且在導出的最后添加'START SLAVE'。

mysqldump  -uroot -p --all-databases --apply-slave-statements

9、 --character-sets-dir //字符集文件的目錄

mysqldump  -uroot -p --all-databases  --character-sets-dir=/usr/local/mysql/share/mysql/charsets

10、 --comments

附加注釋信息。默認為打開,可以用--skip-comments取消

mysqldump  -uroot -p --all-databases  (默認記錄注釋)
mysqldump  -uroot -p --all-databases --skip-comments   (取消注釋)

11、 --compatible

導出的數據將和其它數據庫或舊版本的MySQL 相兼容。值可以為ansi、mysql323、mysql40、postgresql、oracle、mssql、db2、maxdb、no_key_options、no_tables_options、no_field_options等,要使用幾個值,用逗號將它們隔開。它并不保證能完全兼容,而是盡量兼容。

mysqldump  -uroot -p --all-databases --compatible=ansi

12、 --compact

導出更少的輸出信息(用于調試)。去掉注釋和頭尾等結構??梢允褂眠x項:--skip-add-drop-table --skip-add-locks --skip-

comments --skip-disable-keys
mysqldump  -uroot -p --all-databases --compact

13、 --complete-insert, -c

使用完整的insert語句(包含列名稱)。這么做能提高插入效率,但是可能會受到max_allowed_packet參數的影響而導致插入失敗。

mysqldump  -uroot -p --all-databases --complete-insert

14、 --compress, -C

在客戶端和服務器之間啟用壓縮傳遞所有信息

mysqldump  -uroot -p --all-databases --compress

15、 --create-options, -a

在CREATE TABLE語句中包括所有MySQL特性選項。(默認為打開狀態)

mysqldump  -uroot -p --all-databases

16、 --databases, -B

導出幾個數據庫。參數后面所有名字參量都被看作數據庫名。

mysqldump  -uroot -p --databases test mysql

17、 --debug

輸出debug信息,用于調試。默認值為:d:t:o,/tmp/mysqldump.trace

mysqldump  -uroot -p --all-databases --debug
mysqldump  -uroot -p --all-databases --debug=” d:t:o,/tmp/debug.trace”

18、 --debug-check

檢查內存和打開文件使用說明并退出。

mysqldump  -uroot -p --all-databases --debug-check

19、 --debug-info

輸出調試信息并退出

mysqldump  -uroot -p --all-databases --debug-info

20、 --default-character-set

設置默認字符集,默認值為utf8

mysqldump  -uroot -p --all-databases --default-character-set=latin1

21、 --delayed-insert

采用延時插入方式(INSERT DELAYED)導出數據

mysqldump  -uroot -p --all-databases --delayed-insert

22、 --delete-master-logs

master備份后刪除日志. 這個參數將自動激活--master-data。

mysqldump  -uroot -p --all-databases --delete-master-logs

23、 --disable-keys

對于每個表,用/*!40000 ALTER TABLE tbl_name DISABLE KEYS */;和/*!40000 ALTER TABLE tbl_name ENABLE KEYS */;語句引用INSERT語句。

這樣可以更快地導入dump出來的文件,因為它是在插入所有行后創建索引的。該選項只適合MyISAM表,默認為打開狀態。

mysqldump  -uroot -p --all-databases

24、 --dump-slave

該選項將導致主的binlog位置和文件名追加到導出數據的文件中。

設置為1時,將會以CHANGE MASTER命令輸出到數據文件;設置為2時,在命令前增加說明信息。

該選項將會打開--lock-all-tables,除非--single-transaction被指定。

該選項會自動關閉--lock-tables選項。默認值為0。

mysqldump  -uroot -p --all-databases --dump-slave=1
mysqldump  -uroot -p --all-databases --dump-slave=2

25、 --events, -E //導出事件。

mysqldump  -uroot -p --all-databases --events

26、 --extended-insert, -e

使用具有多個VALUES列的INSERT語法。這樣使導出文件更小,并加速導入時的速度。默認為打開狀態,使用--skip-extended-insert取消選項。

mysqldump  -uroot -p --all-databases
mysqldump  -uroot -p --all-databases--skip-extended-insert   (取消選項)

27、 --fields-terminated-by

導出文件中忽略給定字段。與--tab選項一起使用,不能用于--databases和--all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-terminated-by=”#”

28、 --fields-enclosed-by

輸出文件中的各個字段用給定字符包裹。與--tab選項一起使用,不能用于--databases和--all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-enclosed-by=”#”

29、 --fields-optionally-enclosed-by

輸出文件中的各個字段用給定字符選擇性包裹。與--tab選項一起使用,不能用于--databases和--all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql”  --fields-enclosed-by=”#” --fields-optionally-enclosed-by  =”#”

30、 --fields-escaped-by

輸出文件中的各個字段忽略給定字符。與--tab選項一起使用,不能用于--databases和--all-databases選項

mysqldump  -uroot -p mysql user --tab=”/home/mysql” --fields-escaped-by=”#”

31、 --flush-logs

開始導出之前刷新日志。

請注意:假如一次導出多個數據庫(使用選項--databases或者--all-databases),將會逐個數據庫刷新日志。除使用--lock-all-tables或者--master-data外。在這種情況下,日志將會被刷新一次,相應的所以表同時被鎖定。因此,如果打算同時導出和刷新日志應該使用--lock-all-tables 或者--master-data 和--flush-logs。

mysqldump  -uroot -p --all-databases --flush-logs

32、 --flush-privileges

在導出mysql數據庫之后,發出一條FLUSH PRIVILEGES 語句。為了正確恢復,該選項應該用于導出mysql數據庫和依賴mysql數據庫數據的任何時候。

mysqldump  -uroot -p --all-databases --flush-privileges

33、 --force //在導出過程中忽略出現的SQL錯誤。

mysqldump  -uroot -p --all-databases --force

34、 --help //顯示幫助信息并退出。

mysqldump  --help

35、 --hex-blob

使用十六進制格式導出二進制字符串字段。如果有二進制數據就必須使用該選項。影響到的字段類型有BINARY、VARBINARY、BLOB。

mysqldump  -uroot -p --all-databases --hex-blob

36、 --host, -h //需要導出的主機信息

mysqldump  -uroot -p --host=localhost --all-databases

37、 --ignore-table

不導出指定表。指定忽略多個表時,需要重復多次,每次一個表。每個表必須同時指定數據庫和表名。

例如:

--ignore-table=database.table1 --ignore-table=database.table2 ……
mysqldump  -uroot -p --host=localhost --all-databases --ignore-table=mysql.user

38、 --include-master-host-port

在--dump-slave產生的'CHANGE MASTER TO..'語句中增加'MASTER_HOST=<host>,MASTER_PORT=<port>'

mysqldump  -uroot -p --host=localhost --all-databases --include-master-host-port

39、 --insert-ignore

在插入行時使用INSERT IGNORE語句.

mysqldump  -uroot -p --host=localhost --all-databases --insert-ignore

40、 --lines-terminated-by

輸出文件的每行用給定字符串劃分。與--tab選項一起使用,不能用于--databases和--all-databases選項。

mysqldump  -uroot -p --host=localhost test test --tab=”/tmp/mysql”  --lines-terminated-by=”##”

41、 --lock-all-tables, -x

提交請求鎖定所有數據庫中的所有表,以保證數據的一致性。這是一個全局讀鎖,并且自動關閉--single-transaction 和--lock-tables 選項。

mysqldump  -uroot -p --host=localhost --all-databases --lock-all-tables

42、 --lock-tables, -l

開始導出前,鎖定所有表。用READ LOCAL鎖定表以允許MyISAM表并行插入。對于支持事務的表例如InnoDB和BDB,--single-transaction是一個更好的選擇,因為它根本不需要鎖定表。

請注意當導出多個數據庫時,--lock-tables分別為每個數據庫鎖定表。因此,該選項不能保證導出文件中的表在數據庫之間的邏輯一致性。不同數據庫表的導出狀態可以完全不同。

mysqldump  -uroot -p --host=localhost --all-databases --lock-tables

43、 --log-error

附加警告和錯誤信息到給定文件

mysqldump  -uroot -p --host=localhost --all-databases  --log-error=/tmp/mysqldump_error_log.err

44、 --master-data

該選項將binlog的位置和文件名追加到輸出文件中。如果為1,將會輸出CHANGE MASTER 命令;如果為2,輸出的CHANGE MASTER命令前添加注釋信息。

該選項將打開--lock-all-tables 選項,除非--single-transaction也被指定(在這種情況下,全局讀鎖在開始導出時獲得很短的時間;其他內容參考下面的--single-transaction選項)。

該選項自動關閉--lock-tables選項。

mysqldump  -uroot -p --host=localhost --all-databases --master-data=1;
mysqldump  -uroot -p --host=localhost --all-databases --master-data=2;

45、 --max_allowed_packet

服務器發送和接受的最大包長度。

mysqldump  -uroot -p --host=localhost --all-databases --max_allowed_packet=10240

46、 --net_buffer_length

TCP/IP和socket連接的緩存大小。

mysqldump  -uroot -p --host=localhost --all-databases --net_buffer_length=1024

47、 --no-autocommit

使用autocommit/commit 語句包裹表。

mysqldump  -uroot -p --host=localhost --all-databases --no-autocommit

48、 --no-create-db, -n

只導出數據,而不添加CREATE DATABASE 語句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-db

49、 --no-create-info, -t

只導出數據,而不添加CREATE TABLE 語句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-info

50、 --no-data, -d

不導出任何數據,只導出數據庫表結構。

mysqldump  -uroot -p --host=localhost --all-databases --no-data

51、 --no-set-names, -N

等同于--skip-set-charset

mysqldump  -uroot -p --host=localhost --all-databases --no-set-names

52、 --opt

等同于--add-drop-table, --add-locks, --create-options, --quick, --extended-insert, --lock-tables, --set-charset, --disable-keys 該選項默認開啟, 可以用--skip-opt禁用.

mysqldump  -uroot -p --host=localhost --all-databases --opt

53、 --order-by-primary

如果存在主鍵,或者第一個唯一鍵,對每個表的記錄進行排序。在導出MyISAM表到InnoDB表時有效,但會使得導出工作花費很長時間。

mysqldump  -uroot -p --host=localhost --all-databases --order-by-primary

54、 --password, -p //連接數據庫密碼

55、 --pipe(windows系統可用)

使用命名管道連接mysql

mysqldump  -uroot -p --host=localhost --all-databases --pipe

56、 --port, -P //連接數據庫端口號

57、 --protocol

使用的連接協議,包括:tcp, socket, pipe, memory.

mysqldump  -uroot -p --host=localhost --all-databases --protocol=tcp

58、 --quick, -q

不緩沖查詢,直接導出到標準輸出。默認為打開狀態,使用--skip-quick取消該選項。

mysqldump  -uroot -p --host=localhost --all-databases 
mysqldump  -uroot -p --host=localhost --all-databases --skip-quick

59、 --quote-names,-Q

使用(`)引起表和列名。默認為打開狀態,使用--skip-quote-names取消該選項。

mysqldump  -uroot -p --host=localhost --all-databases
mysqldump  -uroot -p --host=localhost --all-databases --skip-quote-names

60、 --replace

使用REPLACE INTO 取代INSERT INTO.

mysqldump  -uroot -p --host=localhost --all-databases --replace

61、 --result-file, -r

直接輸出到指定文件中。該選項應該用在使用回車換行對(\\r\\n)換行的系統上(例如:DOS,Windows)。該選項確保只有一行被使用。

mysqldump  -uroot -p --host=localhost --all-databases --result-file=/tmp/mysqldump_result_file.txt

62、 --routines, -R

導出存儲過程以及自定義函數。

mysqldump  -uroot -p --host=localhost --all-databases --routines

63、 --set-charset

添加'SET NAMES default_character_set'到輸出文件。默認為打開狀態,使用--skip-set-charset關閉選項。

mysqldump  -uroot -p --host=localhost --all-databases 
mysqldump  -uroot -p --host=localhost --all-databases --skip-set-charset

64、 --single-transaction

該選項在導出數據之前提交一個BEGIN SQL語句,BEGIN 不會阻塞任何應用程序且能保證導出時數據庫的一致性狀態。它只適用于多版本存儲引擎,僅InnoDB。

本選項和--lock-tables 選項是互斥的,因為LOCK TABLES 會使任何掛起的事務隱含提交。

要想導出大表的話,應結合使用--quick 選項。

mysqldump  -uroot -p --host=localhost --all-databases --single-transaction

65、 --dump-date

將導出時間添加到輸出文件中。默認為打開狀態,使用--skip-dump-date關閉選項。

mysqldump  -uroot -p --host=localhost --all-databases
mysqldump  -uroot -p --host=localhost --all-databases --skip-dump-date

66、 --skip-opt //禁用–opt選項.

mysqldump  -uroot -p --host=localhost --all-databases --skip-opt

67、 --socket,-S

指定連接mysql的socket文件位置,默認路徑/tmp/mysql.sock

mysqldump  -uroot -p --host=localhost --all-databases --socket=/tmp/mysqld.sock

68、 --tab,-T

為每個表在給定路徑創建tab分割的文本文件。注意:僅僅用于mysqldump和mysqld服務器運行在相同機器上。

mysqldump  -uroot -p --host=localhost test test --tab="/home/mysql"

69、 --tables

覆蓋--databases (-B)參數,指定需要導出的表名。

mysqldump  -uroot -p --host=localhost --databases test --tables test

70、 --triggers

導出觸發器。該選項默認啟用,用--skip-triggers禁用它。

mysqldump  -uroot -p --host=localhost --all-databases --triggers

71、 --tz-utc

在導出頂部設置時區TIME_ZONE='+00:00' ,以保證在不同時區導出的TIMESTAMP 數據或者數據被移動其他時區時的正確性。

mysqldump  -uroot -p --host=localhost --all-databases --tz-utc

72、 --user, -u //指定連接的用戶名。

73、 --verbose, --v //輸出多種平臺信息。

74、 --version, -V

輸出mysqldump版本信息并退出

75、 --where, -w

只轉儲給定的WHERE條件選擇的記錄。請注意如果條件包含命令解釋符專用空格或字符,一定要將條件引用起來。

mysqldump  -uroot -p --host=localhost --all-databases --where=” user='root'”

76、 --xml, -X //導出XML格式.

mysqldump  -uroot -p --host=localhost --all-databases --xml

77、 --plugin_dir

客戶端插件的目錄,用于兼容不同的插件版本。

mysqldump  -uroot -p --host=localhost --all-databases --plugin_dir=”/usr/local/lib/plugin”

78、 --default_auth

客戶端插件默認使用權限。

mysqldump  -uroot -p --host=localhost --all-databases --default-auth=”/usr/local/lib/plugin/<PLUGIN>”

java基本數據類型有哪些

Java的基本數據類型分為:1、整數類型,用來表示整數的數據類型。2、浮點類型,用來表示小數的數據類型。3、字符類型,字符類型的關鍵字是“char”。4、布爾類型,是表示邏輯值的基本數據類型。

以上是“java怎么導出insert語句并生成sql腳本”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女