【hudi】基于hive2.1.1的编译hudi-1.0.0源码
hudi版本1.0.0
需要使用较低版本的hive,编译hudi只需要修改下类即可:
org.apache.hudi.hadoop.hive.HoodieCombineHiveInputFormat
一、复制org.apache.hadoop.hive.common.StringInternUtils
找个hive2.3.9的源码包,创建包路径,并将此类复制到hudi的hudi-common
到下。
当然其他包(hudi-hadoop-mr
)也可以。HoodieCombineHiveInputFormat
类能读取到就可以。
二、添加方法并修改
基于不同的hive版本,只是有一些方法,中string <—> path 不同,因此添加一些转换对象,将path和string互转即可。如下:
添加方法:
public static <T> Map<Path, T> toPathMap(Map<String, T> input) {
Map<Path, T> output = new HashMap<>();
input.forEach((s, strings) -> {
output.put(new Path(s), strings);
});
return output;
}
public static <T> Map<String, T> toStrMap(Map<Path, T> input) {
Map<String, T> output = new HashMap<>();
input.forEach((k, v) -> output.put(k.toString(), v));
return output;
}
public static <T> Map<Map<Path, T>, Map<Path, T>> toMapPathMap(Map<Map<String, T>, Map<String, T>> input) {
Map<Map<Path, T>, Map<Path, T>> output = new HashMap<>();
input.forEach((k, v) -> {
Map<Path, T> k1 = toPathMap(k);
Map<Path, T> v1 = toPathMap(v);
output.put(k1, v1);
});
return output;
}
public static <T> Map<Map<String, T>, Map<String, T>> toMapStrMap(Map<Map<Path, T>, Map<Path, T>> input) {
Map<Map<String, T>, Map<String, T>> output = new HashMap<>();
input.forEach((k, v) -> {
Map<String, T> k1 = toStrMap(k);
Map<String, T> v1 = toStrMap(v);
output.put(k1, v1);
});
return output;
}
将所有的本类中的类似string和path报错的位置添加转换方法即可。
三、修改pushProjectionsAndFilters
参数
此处参考org.apache.hadoop.hive.ql.io.BucketizedHiveInputFormat
的使用方法:
参照如下修改即可:
Path pathTmp = hsplit.getPath(0);
pushProjectionsAndFilters(job, inputFormatClass, pathTmp.toString(), pathTmp.toUri().toString());
四、编译
mvn clean package "-Dspark3.3" "-Dflink1.18" "-Dmaven.test.skip=true" "-Dcheckstyle.skip=true"