Skip to content

Commit

Permalink
optimize deploy docs
Browse files Browse the repository at this point in the history
  • Loading branch information
Zzm0809 committed Jan 18, 2024
1 parent 2e4c153 commit 5e77ab9
Showing 1 changed file with 3 additions and 2 deletions.
5 changes: 3 additions & 2 deletions docs/docs/deploy_guide/normal_deploy.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -126,9 +126,10 @@ spring:
Dinky 需要具备内置的 Flink 环境,该 Flink 环境的实现需要用户自己在 Dinky 根目录下 extends/flink${FLINK_VERSION} 文件夹上传相关的 Flink 依赖,如 flink-dist, flink-table 等,具体见下文。当然也可在启动文件中指定 FLINK_HOME,但不建议这样做。

:::warning 注意事项
1. Dinky 当前版本的 yarn 的 per-job 与 application 执行模式依赖 flink-shade-hadoop ,如果你的 Hadoop 版本为 2+ 或 3+,需要额外添加 flink-shade-hadoop-uber-3 包,请手动删除该包内部的 javax.servlet 等冲突内容。
1. Dinky 并没有内置的 mysql/postgres 数据库驱动,需要用户自己上传 mysql-connector-java-xxx.jar/postgresql-xxx.jar 等jdbc 驱动到 lib 下/extends 下
2. Dinky 当前版本的 yarn 的 per-job 与 application 执行模式依赖 flink-shade-hadoop ,如果你的 Hadoop 版本为 2+ 或 3+,需要额外添加 flink-shade-hadoop-uber-3 包,请手动删除该包内部的 javax.servlet 等冲突内容。
当然如果你的 Hadoop 为 3+ 也可以自行编译对于版本的 dinky-client-hadoop.jar 以替代 uber 包,
2. Dinky所有监控相关功能目前强依赖hadoop,即使你不需要任何hadoop功能,也需要上传hadoop相关依赖,否则会导致监控功能无法正常使用,建议添加`flink-shade-hadoop`
3. Dinky所有监控相关功能目前强依赖hadoop,即使你不需要任何hadoop功能,也需要上传hadoop相关依赖,否则会导致监控功能无法正常使用,建议添加`flink-shade-hadoop`
:::

将 flink-shade-hadoop 上传到到 plugins 文件目录下,使用 flink-shade-hadoop-3 地址如下:
Expand Down

0 comments on commit 5e77ab9

Please sign in to comment.