当前位置: 首页 > article >正文

Python操控HDFS

前言

Python中进行HDFS编程共有两种方法,库pyhdfs与hdfs,两个库都是直接pip安装即可。同时两个库的实现原理也是一样的,hdfs的web api接口。

pyhdfs

pyhdfs没有追加功能慎用。如果要是用追加功能,建议使用hdfs这个库。请查看第二部分 。

创建

import pyhdfs

fs = pyhdfs.HdfsClient(hosts="127.0.0.1,50070", user_name="fonttian")  # 这两种连接方式都可以
# fs = pyhdfs.HdfsClient(hosts="127.0.0.1,9000", user_name="root")

展示根目录/获取namenode

print("展示根目录")
print(fs.get_home_directory())

print("获取namenode")
print(fs.get_active_namenode())

查增删改-查

print("展示路径")
print(fs.listdir("/"))
print("展示所有路径")
print(list(fs.walk('/original_data')))
print("判断/original_data/students2文件是否存在")
print(fs.exists('/original_data/students2'))

查增删改-增删

print(fs.mkdirs("/original_data/file_folder"))
fs.copy_from_local("/home/fonttian/database/hive/job", '/original_data/job', )  # 从本地上传到hadoop上

print(fs.delete("/original_data/job2"))  # 删除文件


print(fs.mkdirs("/original_data/file_folder"))

查增删改-改

print(fs.mkdirs("/original_data/file_folder"))
print(fs.rename("/original_data/file_folder", destination="/original_data/file_folder_rename"))  # 删除目录
# recursive=True
print(fs.delete("/original_data/file_folder_rename", recursive=True))  # 删除目录  recursive=True

上传下载

# print("上传下载:")
fs.copy_from_local("/home/fonttian/database/hive/user.txt", '/original_data/user.txt')  # 从hadoop下载到本地
fs.copy_from_local("/home/fonttian/database/hive/job", '/original_data/job')  # 从本地上传到hadoop上
fs.copy_to_local("/original_data/user.txt", '/home/fonttian/database/hive/user_2.txt')  # 从hadoop下载到本地

hdfs

创建

from hdfs import InsecureClient

hdfs_client = InsecureClient('http://127.0.0.1:50070', user='fonttian')

查询

查看状态
hdfs_client.status('.')
查看目录
print(hdfs_client.list("/original_data/"))

创建

# 创建目录
hdfs_client.makedirs('/original_data/pyhdfs', permission=777)

删除

# 删除目录
# 其他参数:delete(hdfs_path, recursive=False)
# recursive:删除文件和其子目录,设置为False如果不存在,则会抛出异常,默认为False
hdfs_client.delete('/original_data/pyhdfs', recursive=False)

上传

# 上传文件
# 第一个参数,hdfs路径
# 第二个参数,本地路径
# 第三个参数,是否覆盖hdfs已有的文件

hdfs_client.upload('/original_data/pyhdfs/word.txt', '/home/fonttian/database/hive/word.txt', False)

下载

# 从hdfs获取文件到本地
# client.download(hdfs_path, local_path, overwrite=False)
hdfs_client.download('/original_data/pyhdfs/word.txt', '/home/fonttian/database/hive/word_download.txt', overwrite=True)

追加

#  追加数据到hdfs文件
# client.write(hdfs_path, data, overwrite=False, append=True, encoding='utf-8')
hdfs_client.write('/original_data/pyhdfs/word.txt', 'this is overwite \n', overwrite=True)
hdfs_client.write('/original_data/pyhdfs/word.txt', 'this is append ', overwrite=False, append=True, encoding='utf-8')

修改或移动

# 移动或者修改文件
# client.rename(hdfs_src_path, hdfs_dst_path)
hdfs_client.rename('/original_data/pyhdfs/word.txt', '/original_data/pyhdfs/word_2.txt')

http://www.kler.cn/news/133990.html

相关文章:

  • struct结构体【C#】
  • Mac M1 M1 pro安装 protobuf 2.5.0
  • vue中使用echarts实现省市地图绘制,根据数据显示不同区域颜色,点击省市切换,根据经纬度打点
  • 【VSCode】Visual Studio Code 配置简体中文环境教程
  • 10个提高VS Code工作效率的技巧
  • 【Linux网络】典型NAS存储方式:NFS网络共享存储服务
  • Android跨进程通信,IPC,RPC,Binder系统,C语言应用层调用
  • 批量替换WordPress文章内图片链接
  • vue3.0中实现excel文件的预览
  • 07-流媒体-RTMP推流
  • 实战项目:VB龟兔赛跑游戏+猜数字游戏
  • vue3安装vue-router
  • 云计算(Docker)
  • 文件转换,简简单单,pdf转word,不要去找收费的了,自己学了之后免费转,之后就复制粘贴就ok了
  • how to find gcc openbug
  • mysql 设置远程登录
  • 【数据结构&C++】二叉平衡搜索树-AVL树(25)
  • 系列五、怎么查看默认的垃圾收集器是哪个?
  • Java 语言关键字有哪些
  • 【0234】PgBackendStatus 记录当前postgres进程的活动状态
  • GDPU 数据结构 天码行空10
  • 华为OD机试 - 转盘寿司(Java JS Python C)
  • Springboot更新用户头像
  • 大语言模型的三阶段训练
  • vim指令
  • promise时效架构升级方案的实施及落地 | 京东物流技术团队
  • 【Go入门】 Go搭建一个Web服务器
  • 340条样本就能让GPT-4崩溃,输出有害内容高达95%?OpenAI的安全防护措施再次失效
  • 电路的基本原理
  • DeepStream--测试resnet50分类模型