当前位置: 首页 > article >正文

熟悉常用的 Linux 操作和 Hadoop 操作

文章目录

  • 前言
  • 一、常用命令集合
    • 1、cd命令:切换目录
      • 1、切换到目录/usr/local
      • 2、切换回上级目录
      • 3、切换到当前登录Linux系统的用户的自己的文件夹
    • 2、ls命令:查看文件与目录
    • 3、mkdir命令:创建目录
    • 4、rmdir命令:删除空的目录
    • 5、cp 命令:复制文件或目录
    • 6、mv 命令:移动文件与目录,或更名
    • 7、rm 命令:移除文件或目录
    • 8、cat 命令:查看文件内容
    • 9、tac 命令:反向查看文件内容
    • 10、more 命令:一页一页翻动查看
    • 11、head 命令:取出前面几行
    • 12、tail 命令:取出后面几行
    • 13、touch 命令:修改文件时间或创建新文件
    • 14、chown 命令:修改文件所有者权限
    • 15、find 命令:文件查找
    • 16、tar 命令:压缩命令
    • 17、grep 命令:查找字符串
    • 18、配置环境变量
  • 二、常用的 Hadoop 操作
    • 1.启动 Hadoop,为 hadoop 用户在 HDFS 中创建用户目录/user/hadoop
    • 2、接着在 HDFS 的目录/user/hadoop下,创建 test 文件夹,并查看文件列表
    • 3、将 Linux 系统本地的“~/.bashrc”文件上传到 HDFS 的 test 文件夹中,并查看 test
    • 4、将 HDFS 文件夹 test 复制到 Linux 系统本地文件系统的/usr/local/hadoop目录下
  • 三、总结
  • 四、参考资料


前言

Hadoop 运行在 Linux 系统上,因此,需要学习实践一些常用的 Linux 命令。本实验旨在熟悉常用的 Linux 操作和 Hadoop 操作,为顺利开展后续其他实验奠定基础。
环境:
1、阿里云服务器 Ubuntu18.0.4
2、Hadoop 3.1.3
3、JDK 1.8


一、常用命令集合

1、cd命令:切换目录

1、切换到目录/usr/local

cd /usr/local

2、切换回上级目录

cd …

3、切换到当前登录Linux系统的用户的自己的文件夹

cd ~

2、ls命令:查看文件与目录

  • 查看当前目录下的所有文件与目录

ls -al

3、mkdir命令:创建目录

  • 创建单个目录:
 mkdir a
  • 创建多个目录:
 mkdir -p a1/a2/a3/a4

4、rmdir命令:删除空的目录

  • 删除单个目录:

rmdir a

  • 删除多个目录:
 rmdir -p a1/a2/a3/a4

5、cp 命令:复制文件或目录

  • 将当前用户的主文件夹下的文件.bashrc 复制到目录“/usr”下,并重命名为 bashrc1:
 sudo cp ~/.bashrc /usr/bashrc1
  • 在目录“/tmp”下新建目录 test,再把这个目录复制到“/usr”目录下:
cd /tmp
mkdir test
sudo cp -r /tmp/test /usr

6、mv 命令:移动文件与目录,或更名

  • 将“/usr”目录下的文件 bashrc1 移动到“/usr/test”目录下:
 sudo mv /usr/bashrc1 /usr/test
  • 将“/usr”目录下的 test 目录重命名为 test2:
 sudo mv /usr/test /usr/test2

7、rm 命令:移除文件或目录

  • 将“/usr/test2”目录下的 bashrc1 文件删除:
 sudo rm /usr/test2/bashrc1
  • 将“/usr”目录下的 test2 目录删除:
 sudo rm -r /usr/test2

8、cat 命令:查看文件内容

  • 查看当前用户主文件夹下的.bashrc 文件内容:
cat ~/.bashrc

9、tac 命令:反向查看文件内容

  • 反向查看当前用户主文件夹下的.bashrc 文件的内容:
 tac ~/.bashrc

10、more 命令:一页一页翻动查看

  • 翻页查看当前用户主文件夹下的.bashrc 文件的内容:
 more ~/.bashrc

11、head 命令:取出前面几行

  • 1、查看当前用户主文件夹下.bashrc 文件内容前 20 行:
 head -n 20 ~/.bashrc
  • 2、查看当前用户主文件夹下.bashrc 文件内容,后面 50 行不显示,只显示前面几行
 head -n -50 ~/.bashrc

12、tail 命令:取出后面几行

  • 1、查看当前用户主文件夹下.bashrc 文件内容最后 20 行:
tail -n 20 ~/.bashrc
  • 2、查看当前用户主文件夹下.bashrc 文件内容,并且只列出 50 行以后的数据:
 tail -n +50 ~/.bashrc

13、touch 命令:修改文件时间或创建新文件

  • 1、在“/tmp”目录下创建一个空文件 hello,并查看文件时间:
cd /tmp
touch hello
ls -l hello
  • 2、修改 hello 文件,将文件时间整为 5 天前:
 touch -d “5 days ago” hello

14、chown 命令:修改文件所有者权限

  • 将 hello 文件所有者改为 root 帐号,并查看属性:
 sudo chown root /tmp/hello
 ls -l /tmp/hello

15、find 命令:文件查找

  • 找出主文件夹下文件名为.bashrc 的文件:
 find ~ -name .bashrc

16、tar 命令:压缩命令

  • 1、在根目录“/”下新建文件夹 test,然后在根目录“/”下打包成 test.tar.gz:
sudo mkdir /test
sudo tar -zcv -f /test.tar.gz test
  • 2、把上面的 test.tar.gz 压缩包,解压缩到“/tmp”目录:
sudo tar -zxv -f /test.tar.gz -C /tmp

17、grep 命令:查找字符串

  • 从“~/.bashrc”文件中查找字符串’examples’:
 grep -n 'examples' ~/.bashrc

18、配置环境变量

  • 1、首先,使用 vim 编辑器打开文件“~/.bashrc”,命令如下:
 vim ~/.bashrc
  • 2、然后,在该文件的最上面加入一行如下形式的语句:
export JAVA_HOME=JDK 安装路径
  • 3、最后,执行如下命令使得环境变量配置生效:
source ~/.bashrc
  • 4、查看 JAVA_HOME 变量的值:
echo $JAVA_HOME

二、常用的 Hadoop 操作

1.启动 Hadoop,为 hadoop 用户在 HDFS 中创建用户目录/user/hadoop

 cd /usr/local/hadoop
 ./sbin/start-dfs.sh
 ./bin/hdfs dfs -mkdir -p /user/hadoop

在这里插入图片描述

2、接着在 HDFS 的目录/user/hadoop下,创建 test 文件夹,并查看文件列表

 cd /usr/local/hadoop
 ./bin/hdfs dfs -mkdir test
 ./bin/hdfs dfs -ls

在这里插入图片描述

3、将 Linux 系统本地的“~/.bashrc”文件上传到 HDFS 的 test 文件夹中,并查看 test

cd /usr/local/hadoop
./bin/hdfs dfs -put ~/.bashrc test
./bin/hdfs dfs -ls test

在这里插入图片描述

4、将 HDFS 文件夹 test 复制到 Linux 系统本地文件系统的/usr/local/hadoop目录下

cd /usr/local/hadoop
./bin/hdfs dfs -get test ./

在这里插入图片描述


三、总结

实验内容主要就是熟悉linux命令以及hadoop的一些基本操作,实验内容已全部完成。出现的重大问题就是在启动hadoop过后使用jps查看各个名称节点时,未显示,尝试了许多方法也无法解决,后面猜想可能是jdk和hadoop以及ubuntu等的版本不互相匹配造成,后来跟着林子雨老师的慕课重新装了一边才成功。

四、参考资料

https://www.icourse163.org/learn/XMU-1002335004?tid=1469834441#/learn/announce


http://www.kler.cn/a/2440.html

相关文章:

  • 数据结构漫游记:初识vector
  • 详解 Qt WebEngine 模块
  • 【服务器】MyBatis是如何在java中使用并进行分页的?
  • electron-vite【实战系列教程】
  • Mamba安装环境和使用,anaconda环境打包
  • PHY6239:具有高精确度AFE的无线MCU芯片,常用在智能穿戴上
  • 【Docker】之docker-compose的介绍与命令的使用
  • spring boot 集成 postgis jar
  • leetcode -- 876.链表的中间节点
  • XCPC第十一站,带你学会图论基本算法
  • 【kubernetes云原生】k8s标签选择器使用详解
  • 小白怎么系统的自学计算机科学和黑客技术?
  • 【Shell】脚本
  • day13 模块和异常捕获总结
  • 【洛谷刷题】蓝桥杯专题突破-深度优先搜索-dfs(7)
  • 银行数字化转型导师坚鹏:基于案例研究的银行APP运营成功之道
  • Word2010(详细布局解释)
  • 栈----数据结构
  • 测试用例的价值与体系(软件测试入门)
  • 字符串的反转以及巧用反转 ------关于反转,看这一篇就足够了
  • 架构师必须要掌握的大小端问题
  • TCP/UDP协议
  • 【CMake手册篇】CMake帮助手册的使用
  • 第二十天SpringBootWeb请求、响应、分层解耦
  • 【Unity入门】3D物体
  • Spring《一》快速入门