当前位置: 首页 > article >正文

Spark学习:spark读写postgreSql

读写PostgreSql

    • 一、环境搭建
    • 二、写
    • 三、读
    • 四、ETL

一、环境搭建

1、spark安装包,官网地址,我下的是如下版本
在这里插入图片描述
2、postgreSql数据库jdbc驱动,官网地址,我下的是如下版本
在这里插入图片描述
3、java版本1.8;scala版本2.12.15
4、spark安装包解压到任意目录,把postgreSql的jdbc驱动jar包放在spark的jars目录下
5、创建maven项目,把maven项目的Modules的Dependencies指定的到spark解压后的jars目录
在这里插入图片描述
6、此时你的External Libraries应该多了很多jar包,如下所示,如果没有,就是有问题了


http://www.kler.cn/a/13646.html

相关文章:

  • magento webapi 接口返回 json对象
  • 安装配置 JupyterLab ubuntu20.04
  • 【LeetCode刷题笔记】反转链表、移除链表元素、两两交换链表中的节点、删除链表的倒数第N个结点
  • 数据结构和算法面试题系列-二叉树面试题汇总
  • OpenCV实战(17)——FAST特征点检测
  • 14022.xilinx通过IP核axi-iic扩展多路i2c总线
  • LeetCode LCP 04. 覆盖【二分图最大匹配,匈牙利算法】困难
  • JSP环境美容服务公司网站[源程序+论文]
  • 查询提速 20 倍,Apache Doris 在 Moka BI SaaS 服务场景下的应用实践
  • 18 标准模板库STL之deque
  • centos7.6非默认端口的ssh免密登录(centos7.6指定端口的ssh免密登录)
  • Hadoop之Yarn篇
  • 完整支持Oracle PL/SQL,星环科技KunDB高兼容性实现低成本国产化替代
  • C++——入门讲解(3)
  • 基于vfw的局域网语音聊天室系统源码论文
  • 4、Symbol-ES6新基础类型
  • Python OpenCV3 计算机视觉秘籍:6~9
  • GeoPandas 笔记:合并数据
  • 使用@Scope注解设置组件的作用域
  • 专业四js知识点