- spark 2.4.4
- hadoop 3.1.x
- hive > 2.3.3
- kafka 1.x,2.x
- scala 2.11.12
- java 1.8
zdh 分2部分,前端配置+后端数据ETL处理,此部分只包含ETL处理
前端配置项目 请参见项目 https://github.com/zhaoyachao/zdh_web
zdh_web 和zdh_server 保持同步 大版本会同步兼容 如果zdh_web 选择版本1.0 ,zdh_server 使用1.x 都可兼容
二次开发同学 请选择dev 分支,dev 分支只有测试通过才会合并master,所以master 可能不是最新的,但是可保证可用性
http://zycblog.cn:8081/login
用户名:zyc
密码:123456
服务器资源有限,界面只供预览,不包含数据处理部分,谢码友们手下留情
数据采集ETL处理,通过spark 平台抽取数据,并根据etl 相关函数,做数据处理
新增数据源需要继承ZdhDataSources 公共接口,重载部分函数即可
项目采用gradle 管理
打包命令,在当前项目目录下执行
window: gradlew.bat release -x test
linux : ./gradlew release -x test
项目需要的jar 会自动生成到relase/libs 目录下
如果想单独打包项目代码
window: gradlew.bat jar
linux : ./gradlew jar
1 先编译项目--参见上方项目编译打包
2 下载release 目录修改启动脚本
3 需要将release/copy_spark_jars 目录下的jar 拷贝到spark home 目录下的jars 目录
4 启动脚本 start_server.sh
注意项目需要用到log4j.properties 需要单独放到driver 机器上,启动采用client 模式
在release/bin 目录下 修改start_server.sh 脚本中的BASE_RUN_PATH 变量为当前所在路径
运行start_server.sh 脚本即可
kill `ps -ef |grep SparkSubmit |grep zdh_server |awk -F ' ' '{print $2}'`
使用tidb 连接时,需要在zdh_server 启动配置文件中添加如下配置
spark.tispark.pd.addresses 192.168.1.100:2379
spark.sql.extensions org.apache.spark.sql.TiExtensions