当前位置: 首页 > article >正文

比rsync更强大的文件同步工具rclone

背景

多个复制,拷贝,同步文件场景,最大规模的是每次几千万规模的小文件需要从云上对象存储中拉取到本地。其他的诸如定期数据备份,单次性数据备份。

rsync是单线程的,开源的mrsync是多线程的,但适用范围没有rclone广

rclone几乎支持市面上所有的S3协议的存储,诸如各家云厂商的对象存储

这里只记录一下常用的参数

实践

首先要生成rclone配置文件

rclone config
e) Edit existing remote
n) New remote
d) Delete remote
r) Rename remote
c) Copy remote
s) Set configuration password
q) Quit config
e/n/d/r/c/s/q>n # 新建一个远端
Enter name for new remote.
name> remoteoss # 远程连接指定名字
Storage>  # 选择时请确认选择Amazon S3 Compliant Storage Providers开头的选项,具体数字可能会有所改变
provider> # 选择时请确认选择Any other S3 compatible provider(Other),具体数字可能会有所改变
env_auth> 1
access_key_id> aa
secret_access_key> bb
region> 1 
endpoint> # 输入不同云上的对象存储的不同地域的endpoint
location_constraint> # 回车跳过

acl> 1 # 权限 

# 保存配置即可
# 建议配置配置文件加密 因为里面包含了aksk敏感信息 每次执行rclone命令时要输入配置的配置文件密码

本地复制上云&下云将目录对调即可

rclone copy --s3-use-multipart-etag false -vv --no-update-modtime --transfers 64 --s3-no-check-bucket --no-traverse --ignore-checksum  --no-check-dest --ignore-case-sync \
--max-backlog 100000 --inplace --ignore-size --buffer-size 0 --s3-chunk-size 50M --s3-upload-cutoff 200M /data1 remoteoss:dir1/dir2/data1 > rclone_data1_241108.log 2>&1

本地不同目录间复制

rclone copy --s3-use-multipart-etag false -v --no-update-modtime --transfers 128 --s3-no-check-bucket --no-traverse --ignore-checksum  --ignore-case-sync \
--max-backlog 100000 --inplace --ignore-size --buffer-size 0 --s3-chunk-size 50M --s3-upload-cutoff 200M /data2/xx  /home/xx/data2 > rclone_xx_241118.log 2>&1

删除目录及其子目录和文件

rclone purge /mnt/data1 --transfers 32 --max-backlog 100000 --ignore-size --no-check-dest
参数说明
–s3-use-multipart-etagfalse 禁用 S3 使用多部分上传时的 ETag 校验
–no-update-modtime禁止在文件复制时更新目标文件的修改时间
–transfers设置同时进行的文件传输数为 64
–s3-no-check-bucket不检查S3 存储桶是否存在
–no-traverse禁止在上传时遍历目标目录
–ignore-checksum忽略文件的校验和比较
–no-check-dest禁用目标文件的检查
–ignore-case-sync忽略文件名大小写的不同
–max-backlog设置上传队列的最大等待文件数量为 100000
–inplace该选项表示如果目标文件已存在且内容相同,rclone 会直接覆盖该文件而不是先删除再重新上传
–ignore-size忽略文件大小的检查
–buffer-size设置缓存大小为 0 字节减少内存占用
–s3-chunk-size更改默认分片的大小,提高带宽利用率
–s3-upload-cutoff文件上传切割的阈值当文件大于200MB进行分片

建议将日志等级-vv 调整为一个v,在执行千万级别文件复制时,日志文件高达20G。当然也可以通过脚本实现logrotate日志切割
基本上使用这些参数可以更好的利用现有的40g专线带宽,ib网络,U2硬盘 等资源。

reference
更多参数诸如限制带宽等,可以参阅文档
https://rclone.org/docs/
https://github.com/rclone/rclone


http://www.kler.cn/a/406339.html

相关文章:

  • Docker核心概念总结
  • IntelliJ+SpringBoot项目实战(四)--快速上手数据库开发
  • JAVA后端如何调用百度的身份证识别API
  • [Unity Demo]从零开始制作空洞骑士Hollow Knight第二十集:制作专门渲染HUD的相机HUD Camera和画布HUD Canvas
  • 【Three.js基础学习】28.Coffee Smoke
  • vue中mixin(混入)的使用
  • 解析粗糙度仪在工业制造及材料科学和建筑工程领域的重要性
  • 半导体工艺与制造篇5 光刻
  • 40分钟学 Go 语言高并发:并发下载器开发实战教程
  • 「Chromeg谷歌浏览器/Edge浏览器」篡改猴Tempermongkey插件的安装与使用
  • 倒计时功能分享
  • 数据结构-8.Java. 七大排序算法(上篇)
  • Linux 手动升级软件保姆级教程,适用所有软件,不限于麒麟等国产系统
  • 【Golang】协程
  • 迁移学习理论与应用
  • 力扣--LRC 142.训练计划IV
  • Ubuntu ESP32开发环境搭建
  • 五天SpringCloud计划——DAY2之使用Docker完成项目的部署
  • Excel的图表使用和导出准备
  • [面试]-golang基础面试题总结
  • redis7.x源码分析:(4) ae事件处理器(一)
  • 《Django 5 By Example》阅读笔记:p645-p650
  • SQL注入:理解、防范与最佳实践
  • Ubuntu安装Electron环境
  • 学习electron
  • C#实现blob分析——分别基于OpenCvSharp和Emgu实现