当前位置: 首页 > article >正文

Hive数仓操作(二)

Hive 数据类型与连接

Hive 是一个用于处理大规模数据集的工具,支持多种数据类型以满足不同的需求。本文将详细介绍 Hive 的基本数据类型和集合数据类型。

一、Hive 基本数据类型

Hive 提供了多种基本数据类型,适用于不同的数据存储和处理需求:

数据类型描述长度示例
TINYINT1 字节有符号整数1 byte20
SMALLINT2 字节有符号整数2 bytes20
INT4 字节有符号整数4 bytes20
BIGINT8 字节有符号整数8 bytes20
BOOLEAN布尔类型,取值为 true 或 false-TRUE, FALSE
FLOAT单精度浮点数4 bytes3.14159
DOUBLE双精度浮点数8 bytes3.14159
STRING字符串类型,可指定字符集最大 2GB'now is the time’或"for all good men"
TIMESTAMP时间戳类型-‘2023-10-01 12:00:00’
BINARY字节数组-(binary data)

注意

  • Hive 的 STRING 类型相当于数据库中的 VARCHAR 类型,但不能声明最大字符数,理论上可以存储 2GB 的字符数据。
  • Hive 在处理时间时通常使用字符串格式存储日期和时间,支持灵活的时间字符串格式。

二、Hive 集合数据类型

Hive 还支持集合数据类型,这些数据类型允许存储复杂的数据结构。

数据类型描述语法示例
STRUCT类似于 C 语言中的结构体,通过“点”符号访问元素内容。struct<first:STRING,last:STRING>
MAP键-值对集合,使用数组表示法访问数据。map<STRING, STRING>
ARRAY数组,相同类型元素的集合,每个元素有一个编号。array<STRING>

例子

  1. STRUCT 示例

    SELECT person.name.first FROM table;
    
  2. MAP 示例

    SELECT person.address['city'] FROM table;
    

    假设有一个 address 列,这个列的类型是 MAPaddress 列存储了以下键-值对:

  • 'city' -> 'New York'
  • 'state' -> 'NY'
  • 'zip' -> '10001'
  1. ARRAY 示例
    SELECT names[1] FROM table;  -- 获取第二个名字
    

三、数据导入 Hive

在 Hive 中,数据的导入通常有两种方式:

  • Pull(自己获取数据)
    通过工具、存储过程或 SQL 语句,从其他系统查询数据,经过处理后保存到 Hive 中。

  • Push(其他系统提供数据)
    其他系统将数据保存为文件(如 TXT 和 CSV 格式),然后将文件导入 Hive。这通常涉及文件和表的映射关系。


四、Hive的连接

1. 直接使用 Hive 客户端

在 Linux 命令行下,你可以直接输入 hive 命令来启动 Hive 客户端。

hive
终端
$ hive
Logging initialized using configuration in /path/to/hive/conf/hive-log4j.properties
Hive CLI is running on Apache Hive <version> (Hive <version>)
Type "exit" or "quit" to quit.
hive (default)>
结果:
  • 当看到提示符 hive (default)> 时,表示你已成功进入 Hive 客户端。
  • 注意:这种方式仅能连接到本地的 Hive 服务。

2. 使用 Beeline 客户端

要使用 Beeline 客户端,首先需要启动被连接的 HiveServer2 服务。启动命令如下:

hiveserver2 &
连接 Beeline:

然后,你可以通过 Beeline 连接到 HiveServer2。启动 Beeline 客户端:

beeline
连接到 Hive:

在 Beeline 提示符下,使用以下命令连接到 Hive:

!connect jdbc:hive2://192.168.150.130:10000
终端
beeline> !connect jdbc:hive2://192.168.150.130:10000
Connecting to jdbc:hive2://192.168.150.130:10000
Enter username for jdbc:hive2://192.168.150.130:10000: root
Enter password for jdbc:hive2://192.168.150.130:10000: ********
结果:
  • 输入连接信息后,你将被提示输入用户名和密码(如果需要)。
  • 成功连接后,你就可以在 Beeline 中执行 SQL 查询。

3. 使用第三方工具连接

例如,使用 DataGrip 或其他 SQL 客户端工具连接到 Hive。以 DataGrip 为例:

设置 DataGrip 连接:
  1. 打开 DataGrip。
  2. 创建新的数据源,选择 Hive 作为数据库类型。
  3. 填入连接信息:
    • 驱动: 选择 Hive JDBC 驱动。
    • URL: jdbc:hive2://192.168.150.130:10000
    • 用户名密码(如果需要)。
结果:
  • 点击“测试连接”确认连接成功。
  • 成功连接后,可以在 DataGrip 中编写和执行 Hive 查询。


http://www.kler.cn/news/335675.html

相关文章:

  • Go语言实现长连接并发框架 - 请求分发器
  • Rust-模式匹配
  • 2024年9月30日--10月6日(ue5肉鸽结束)
  • 猫猫cpu的缓存(NW)
  • 单片机长短按简单实现
  • 全网最适合入门的面向对象编程教程:56 Python字符串与序列化-正则表达式和re模块应用
  • Nginx基础详解5(nginx集群、四七层的负载均衡、Jmeter工具的使用、实验验证集群的性能与单节点的性能)
  • 解决Ubuntu无法找到python3.7的包的问题 E: Couldn‘t find any package by glob ‘python3.7‘
  • 华为仓颉语言入门(9):for-in表达式
  • Pikichu-xss实验案例-通过xss获取cookie
  • 基于Python的人工智能应用案例系列(15):LSTM酒类销售预测
  • CMake构建工程基本要素
  • 文本到语音或视频的构想
  • 什么是数字化智能工厂的组成
  • Microsoft Edge 离线安装包制作或获取方法和下载地址分享
  • 从DBA是“擦车的”谈起
  • 【Linux】用虚拟机配置Ubuntu 24.04.1 LTS环境
  • 社群团购中的用户黏性价值:以开源小程序多商户AI智能名片商城源码为例
  • 科技赋能,商贸物流新速度 —— 智慧供应链商城加速企业成长
  • 【瑞昱RTL8763E】音频