当前位置: 首页 > article >正文

StreamPark安装部署与部署Flink程序

前言: 我自己在本地开发时,是可以运行的,但是我打完jar包就不能运行.因为我的程序依赖我用的是外部提供的,程序在运行时告诉我依赖冲突.解决这个问题搞了好久太麻烦了,于是我采用了StramPark工具,他不仅能自己构建项目,项目的依赖问题他也会自己解决,可以说只要你本地开发没问题,他就不会就问题.他还有程序警告的功能.

一、部署环境

       需要JAVA和Maven与Flink环境,不支持window系统

        StreamPark1.2.2之前(包含)的版本,只支持scala2.11的版本,使用Flink时要检查对应的scala版本1.2.3之后(包含)的版本, 支持scala2.11 和scala2.12两个版本 .

二、安装部署

        我们这里部署的是StreamPark_2.12-2.1.4版本,这里的Maven和Flink你们自己部署吧.上传解压的过程就不展示了.解压完成后进入StreamPark的conf目录下,修改配置文件.注意: 绿色代表需要配置的内容,且变量名称与值之间需要有空格

vim config.yaml

datasource:
  dialect: mysql  #h2, mysql, pgsql #配置元数据使用的数据库,这里使用MySql数据库
  # if datasource.dialect is mysql or pgsql, you need to configure the following connection information
  # mysql/postgresql connect user
  username: root #登入mysql的用户名
  # mysql/postgresql connect password
  password: 123456 #密码
  # mysql/postgresql connect jdbcURL
  # mysql example: datasource.url: jdbc:mysql://localhost:3306/streampark?useUnicode=true&characterEncoding=UTF-8&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=GMT%2B8
  # postgresql example: jdbc:postgresql://localhost:5432/streampark?stringtype=unspecified
  url: jdbc:mysql://node101:3306/streampark?useSSL=false&useUnicode=true&characterEncoding=UTF-8&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=GMT%2B8

streampark:
  workspace:
    # Local workspace, storage directory of clone projects and compiled projects,Do not set under $APP_HOME. Set it to a directory outside of $APP_HOME.
    local: /home/bduser/modules/streampark_workspace #本地工作区,克隆项目和编译项目的存储目录,不要在$APP_HOME下设置。将其设置为$APP_HOME之外的目录。

    # The root hdfs path of the jars, Same as yarn.provided.lib.dirs for flink on yarn-application and Same as --jars for spark on yarn
    remote: hdfs://node101:8020/streampark #jar的根hdfs路径
  proxy:
    # lark proxy address, default https://open.feishu.cn
    lark-url:
    # hadoop yarn proxy path, e.g: knox process address https://streampark.com:8443/proxy/yarn 
    yarn-url:
  yarn:
    # flink on yarn or spark on yarn, monitoring job status from yarn, it is necessary to set hadoop.http.authentication.type
    http-auth: 'simple'  # default simple, or kerberos
  # flink on yarn or spark on yarn, HADOOP_USER_NAME
  hadoop-user-name: bduser #登入hadoop的用户名

 配置完成后保存退出.到StreamPark的根目录下执行,再执行这个命令之前,需要先创建local:指定的目录

bin/startup.sh

运行StreamPark服务,去游览器访问: 节点ip:10000 . 默认用户名: admin 密码:streampark

三、修改配置

登录进去以后需要指定maven配置文件的地址

 这里可以设置警告邮箱,可选择

 

这里的邮箱密码是,邮箱里面的第三方授权密码,网易邮箱里面可以申请.且同时需要开启下面图片中的服务

  

 这里需要设置警告设置,点击添加

添加完成后,点击下面的闪电符号,测试.出现右边的提示,表示测试成功

 

这里开始是本文的重点.将你的项目添加到StreamPark,点击项目管理->点击添加

里面都是中文,一看就懂,第一次可以不用设置POM依赖,构建项目参数根据自己项目设置,没有不用管

添加完成以后,构建项目.再构建项目之前需要将自己Flink目录下的plugins文件上传到HDFS上的/streampark目录下,命令文件.执行完该命令,点击构建项目

hadoop fs -put /home/bduser/modules/flink-1.18.1/plugins/ /streampark

构建完成后,添加作业 

 

 这里有一个作业依赖可以不用管,他会自己解决.添加完成后.点击发布->点击启动

启动成功后,就完成了,后面的就自己探索吧 


http://www.kler.cn/a/566305.html

相关文章:

  • Ubuntu20.04安装Isaac sim/ Isaac lab
  • DBGPT安装部署使用
  • 递归遍历目录 和 普通文件的复制 [Java EE]
  • 软件工程----喷泉模型
  • 数据结构秘籍(三)树 (含二叉树的分类、存储和定义)
  • 如何权衡深度学习中的查全率和查准率
  • 2025 最新版鸿蒙 HarmonyOS 开发工具安装使用指南
  • 2020年蓝桥杯Java B组第二场题目+部分个人解析
  • 【idea】关于idea中新建springboot项目Java版本不能选择11和8的解决办法
  • 测试计划、测试用例、测试报告的示例文档
  • Eureka Server 数据同步原理深度解析
  • vscode使用豆包MARSCode----集成doubao1.5 DeepSeekR1 DeepseekV3模型的ai编程插件
  • golang安装(1.23.6)
  • Rust中的异步编程:构建简单的网页爬虫
  • Spring Boot集成MyBatis访问MySQL:从项目搭建到基础数据库查询(基础入门)
  • 面试(进阶) —虚拟列表在什么场景使用,如何实现?
  • 【RAG】sPecialized KnowledgE and Rationale Augmented Generation
  • MAVlink链路环境搭建并解决“ModuleNotFoundError: No module named ‘xxx’”问题
  • MR-图解
  • AutoMQ:无需 Cruise Control 实现 Kafka 的自动分区再平衡