# Linux下如何使用split切割文件和合并文件
在Linux系統中,處理大文件時常常需要將其分割成多個小文件以便傳輸或存儲,隨后再合并還原。`split`和`cat`命令是完成這一任務的利器。本文將詳細介紹這兩個命令的使用方法。
---
## 一、使用split切割文件
### 1. 基本語法
```bash
split [選項] 輸入文件 [輸出文件前綴]
-b SIZE
:按大小分割(支持K/M/G單位,如-b 100M
)-l NUM
:按行數分割-d
:使用數字后綴(默認是字母后綴aa
,ab
…)-a N
:設置后綴長度(如-a 3
生成001
,002
)--verbose
:顯示分割過程信息# 將1GB的video.mp4分割為100MB的小文件
split -b 100M video.mp4 video_part_
生成文件:video_part_aa
, video_part_ab
, …, video_part_aj
# 將10萬行的data.log分割為每個2萬行
split -l 20000 data.log log_part_ -d -a 2
生成文件:log_part_00
, log_part_01
, …, log_part_04
split -b 50M -d -a 3 archive.zip "zip_part_"
生成文件:zip_part_000
, zip_part_001
, …
cat 分割文件* > 合并后的文件
cat video_part_* > restored_video.mp4
cat log_part_00 log_part_01 log_part_02 > full.log
或使用通配符(需保證文件順序正確):
cat log_part_* > full.log
合并后建議校驗文件一致性:
# 計算MD5校驗和
md5sum original_file restored_file
tar czvf - big_dir/ | split -b 500M - compressed.tar.gz_part_
cat compressed.tar.gz_part_* | tar xzvf -
find . -name "prefix*" -print0 | sort -z | xargs -0 cat > output
# 使用parallel加速合并
parallel cat {} ::: part_* > full_file
-print0
和-0
選項通過靈活組合split
和cat
命令,配合其他Linux工具(如md5sum
校驗、parallel
并行處理),可以高效地管理大文件。建議在實際操作前先用小文件測試驗證流程。
“`
注:本文約750字,實際字數可能因Markdown渲染方式略有差異。如需調整篇幅,可增減案例細節或進階技巧部分。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。