至0.2.65版本后,本工程不再开发新的特性
计划开展一个新项目 https://github.com/robotslacker/testcli
新项目将完全重构工程,用来纠正这个工程本身存在的一些缺陷。
目前testcli还不能完全正常工作,正在努力中。
预计testcli稳定可靠大概是在2023年中旬。
SQLCli 是一个主要用Python完成的,命令快速的测试工具。
设计目的:
1: 满足数据库方面的相关功能测试、压力测试需要。
2: 能够作为一个日常小工具,进行数据库的日常操作。
3: 能够根据需要快速、灵活的生成测试需要的随机数据。
4: 能够操作Kafka消息队列。
5: 能够操作HDFS上的文件。
6: 完成基于执行结果比对的回归测试校验。
程序可以通过JPype连接数据库的JDBC驱动。
也可以通过ODBC标准连接数据库的ODBC驱动,但是这部分并没有经过严谨的测试。
SQLCli 目前可以支持的数据库有:
- Oracle,MySQL,PostgreSQL,SQLServer,TeraData, Hive, H2等主流通用数据库
- 达梦,神通, 金仓, 南大通用,LinkoopDB, 快立方等众多国产数据库
- ClickHouse数据库
- 其他符合标准JDBC规范的数据库
SQLCli 目前支持的数据类型有:
CHAR ====> str
VARCHAR ====> str
LONGVARCHAR ====> str
TIMESTAMP_WITH_TIMEZONE ====> datetime.datetime
TIMESTAMP ====> datetime.datetime
TIME ====> datetime.time
DATE ====> datetime.date
BINARY ====> bytearray
VARBINARY ====> bytearray
LONGVARBINARY ====> bytearray
DECIMAL ====> decimal.Decimal
NUMERIC ====> decimal.Decimal
DOUBLE ====> decimal.Decimal
REAL ====> decimal.Decimal
FLOAT ====> float
TINYINT ====> int
INTEGER ====> int
SMALLINT ====> int
INTEGER ====> int
BOOLEAN ====> bool
BFILE ====> str "bfilename(dirpath:filename)"
BIGINT ====> decimal.Decimal
BIT ====> decimal.Decimal
STRUCT ====> tuple()
ARRAY ====> list()
CLOB ====> SQLCliLargeObject.getData() ==> str
BLOB ====> SQLCliLargeObject.getData() ==> bytearray
需要通过SQL语句来查看、维护数据库的。
需要进行各种数据库功能测试、压力测试的。
需要用统一的方式来连接各种不同数据库的。
这个工具的存在目的不是为了替代各种数据库的命令行工具,如Oracle的SQLPlus,MYSQL的mysql等
这个工具的存在目的是在尽可能地兼容这些命令行工具的同时提供测试工作需要的相关特性。
这些特性包括:
1:并发脚本的支持,通过在脚本中使用JOBManager,可以同时执行多个脚本,同时利用时间戳还可以同步脚本之前的行为。
2:一些internal的命令,可以完成数据库之外的相关操作。
安装的前提有:
-
有一个Python 3.6以上的环境
-
能够连接到互联网上, 便于下载必要的包
-
安装JDK8
-
对于Windows平台,需要提前安装微软的C++编译器(jpype1使用了JNI技术,需要动态编译)
-
对于Linux平台, 需要提前安装gcc编译器,unixODBC开发环境,以及Python3的开发包(原因同上)
yum install -y gcc-c++ gcc
yum install -y unixODBC unixODBC-devel yum install python3<?>-devel(在Anaconda环境下,这一步不是必须的. ?是具体的Python版本,根据自己的环境决定) -
对于MAC平台, 需要提前安装gcc编译器,以及unixODBC开发环境
brew install gcc
brew install unixODBC
依赖的第三方安装包:
- 这些安装包会在robotslacker-sqlcli安装的时候自动随带安装
- setproctitle : Python通过setproctitle来设置进程名称,从而在多进程并发时候给调试人员以帮助
- click : Python的命令行参数处理
- prompt_toolkit : 用于提供包括提示符功能的控制台终端的显示样式
- hdfs : HDFS类库,支持对HDFS文件操作
- requests :HTTP客户端请求协议
- websockets : HTTP客户端请求协议
- pydantic : FastAPI服务端支持
- uvicorn[standard] : FastAPI服务端支持
- fastapi : FastAPI服务端支持 其他: 对于Linux和MAC,在安装后需要手工加载confluent_kafka来保证kafka操作的正常
- pip install confluent_kafka
对于Windows,由于confluent_kafka目前不支持Windows,所以无需安装,也不能使用该功能
利用PIP来安装:
pip install -U robotslacker-sqlcli
安装后步骤-下载驱动程序:
- 根据你的测试需要, 下载 https://github.com/robotslacker/sqlcli/blob/master/sqlcli/jlib/下对应的Jar包
- 放置jar包到 <PYTHON_HONE>/../site-packages/sqlcli/jlib下
- github上提供的仅仅是一些测试用的Jar包,如果你有自己的需要,可以用自己的文件覆盖上述下载的文件
安装后步骤-根据需要修改sqlcli/conf/sqlcli.ini文件:
- 默认情况下,这个文件不需要修改
- 如果你需要定义自己内网的驱动程序下载服务器,你需要修改这个文件
- 如果你需要定义自己的数据库驱动,你需要修改这个文件
安装后直接在命令下执行sqlcli命令即可。
如果你的<PYTHON_HOME>/Scripts没有被添加到当前环境的$PATH中,你可能需要输入全路径名
(base) >sqlcli
SQL*Cli Release 0.0.32
SQL>
如果你这里看到了版本信息,那祝贺你,你的程序安装成功了
(base) >sqlcli
SQL*Cli Release 0.0.32
SQL> connect mem;
SQL> Connected.
如果你下载了至少H2的驱动程序,执行这个命令将连接到内置的H2数据库中,如果你看到了Connected信息,那再一次祝贺你,你的程序基本工作正常。
sqlcli是一个基于JDBC/ODBC的数据库工具,基于JDBC操作数据库的前提当前环境下有对应的数据库连接jar包,基于ODBC前提是安装了相关的ODBC驱动。
配置文件位于SQLCli的安装目录下的conf目录中,配置文件名为:sqlcli.conf
配置例子:
[driver]
oracle=oracle_driver
mysql=mysql_driver
....
[oracle_driver]
filename=ojdbc8.jar
downloadurl=http://xxxxxx/driver/ojdbc8.jar
md5=1aa96cecf04433bc929fca57e417fd06
driver=oracle.jdbc.driver.OracleDriver
jdbcurl=jdbc:oracle:thin:@${host}:${port}/${service}
[mysql_driver]
filename=mysql-connector-java-8.0.20.jar
downloadurl=http://xxxxx/driver/mysql-connector-java-8.0.20.jar
md5=48d69b9a82cbe275af9e45cb80f6b15f
driver=com.mysql.cj.jdbc.Driver
jdbcurl=jdbc:mysql://${host}:${port}/${service}
jdbcprop=socket_timeout:360000000
odbcurl=DRIVER={driver_name};SERVER=${host};PORT=${port};DATABASE=${service};UID=${username};PWD=${password};
如果数据库要新增其他数据库的连接,则应仿效上述配置例子。
其中:
- 所有的数据库名称及配置项名称均应该出现在[driver]的配置项中
如果某一种数据库连接需要不止一个jar包,则这里应该配置多个配置项
例如: mydb=mydb1_driver1, mydb1_driver2 - 数据库的具体配置应该在具体的配置项中
filename: 可选配置项,jar包具体的名字
driver: 可选配置项,数据库连接的主类
jdbcurl: 可选配置项,jdbc连接字符串,其中${host}${port}${service}分别表示数据库连接主机,端口,数据库名称
downloadurl: 可选配置项,若本地不存在该文件,则文件下载需要的路径
md5: 可选配置项,文件下载校验MD5
jdbcprop: 可选配置项,若该数据库连接需要相应的额外参数,则在此处配置 odbcurl: 可选配置项,若该数据库连需要通过ODBC连接数据库,则在此处配置
jdbcurl和odbcurl两个参数,至少要配置一个。若配置jdbcurl,则jdbc对应的filename,driver也需要配置 - 基于这个原则,最简化的运行配置应该为:
[driver]
oracle=oracle_driver
mysql=mysql_driver
[oracle_driver]
filename=ojdbc8.jar
driver=oracle.jdbc.driver.OracleDriver
jdbcurl=jdbc:oracle:thin:@${host}:${port}/${service}
[mysql_driver]
filename=mysql-connector-java-8.0.20.jar
driver=com.mysql.cj.jdbc.Driver
jdbcurl=jdbc:mysql://${host}:${port}/${service}
基于上述参数文件的正确配置,可以使用--syncdriver的方式从服务器上来更新数据库连接需要的jar包
例子:
(base) C:\Work\linkoop\sqlcli>sqlcli --syncdriver
Checking driver [oracle] ...
File=[ojdbc8.jar], MD5=[1aa96cecf04433bc929fca57e417fd06]
Driver [oracle_driver] is up-to-date.
Checking driver [mysql] ...
File=[mysql-connector-java-8.0.20.jar], MD5=[48d69b9a82cbe275af9e45cb80f6b15f]
Driver [mysql_driver] is up-to-date.
(base) sqlcli --help
Usage: sqlcli [OPTIONS]
Options:
--version Output sqlcli's version.
--logon TEXT logon user name and password. user/pass
--logfile TEXT Log every query and its results to a file.
--execute TEXT Execute SQL script.
--nologo Execute with silent mode.
--sqlperf TEXT SQL performance Log.
--syncdriver Download jdbc jar from file server.
--clientcharset TEXT Set client charset. Default is UTF-8.
--resultcharset TEXT Set result charset. Default is same to clientcharset.
--help Show this message and exit.
--version 用来显示当前工具的版本号
(base) sqlcli --version
Version: 0.0.32
--logon 用来输入连接数据的的用户名和口令
(base) sqlcli --logon user/pass
Version: 0.0.32
Driver loaded.
Database connected.
SQL>
如果用户、口令正确,且相关环境配置正常,你应该看到如上信息。
user/pass : 数据库连接的用户名和口令
成功执行这个命令的前提是你已经在环境变量中设置了数据库连接的必要信息。
这里的必要信息包括:
环境变量: SQLCLI_CONNECTION_URL
参数格式: jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
--logfile 用来记录本次命令行操作的所有过程信息
这里的操作过程信息包含你随后在命令行里头的所有输出信息。
如果你在随后的命令行里头设置了SET ECHO ON,那么记录里头还包括了你所有执行的SQL语句原信息
文件输出的字符集将根据参数resultcharset中的设置来确定
(base) sqlcli --logon user/pass --logfile test.log
Version: 0.0.32
Driver loaded.
Database connected.
set echo on
select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
SQL> exit
Disconnected.
(base) type test.log
Driver loaded.
Database connected.
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> exit
Disconnected.
--execute 在SQLCli启动后执行特定的SQL脚本
为了能够批处理一些SQL语句,我们通常将这批SQL语句保存在一个特定的文件中,这个文件的习惯后缀是.sql
通过execute参数,可以让SQLCli来执行这个脚本,而不再需要我们一行一行的在控制台输入
脚本字符集将根据参数clientcharset中的设置来确定
(base) type test.sql
select * from test_tab;
(base) sqlcli --logon user/pass --execute test.sql
Version: 0.0.32
Driver loaded.
Database connected.
set echo on
select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
SQL> exit
Disconnected.
注意: 即使你的SQL脚本中不包含Exit语句,在sqlcli执行完当前脚本后,他也会自动执行exit语句
如果SQL脚本中不包含数据库驱动加载或者数据库连接语句,请在执行这个命令前设置好相应的环境变量信息
--nologo 这是一个选项,用来控制sqlcli是否会在连接的时候显示当前的程序版本
(base) sqlcli
SQL*Cli Release 0.0.32
SQL>
区别:
(base) sqlcli --nologo
SQL>
--sqlperf 输出SQL运行日志
这里的运行日志不是指程序的logfile,而是用CSV文件记录的SQL日志,
这些日志将作为后续对SQL运行行为的一种分析
运行日志共包括如下信息:
1、Script 运行的脚本名称
2、StartedTime SQL运行开始时间,格式是:%Y-%m-%d %H:%M:%S
3、elapsed SQL运行的消耗时间,这里的单位是秒,精确两位小数
4、RAWSQL 原始的SQL信息
4、SQL 运行的SQL,注意:这里可能和RAWSQL不同,不同的原因是SQL可能会被重写文件改写
5、SQLStatus SQL运行结果,0表示运行正常结束,1表示运行错误
6、ErrorMessage 错误日志,在SQLStatus为1的时候才有意义
7、Scenario 程序场景名称,这里的内容是通过在SQL文件中指定-- [Hint] Scenario:name的方式来标记的Scenario信息
说明:上述信息都有TAB分隔,其中字符信息用单引号包括,如下是一个例子:
Script Started elapsed SQLPrefix SQLStatus ErrorMessage Scenario
sub_1.sql 2020-05-25 17:46:23 0.00 loaddriver localtest\linkoopdb-jdbc-2.3. 0 Scenario1
sub_1.sql 2020-05-25 17:46:23 0.28 connect admin/123456 0 Scenario1
sub_1.sql 2020-05-25 17:46:24 0.00 SET ECHO ON 0 Scenario1
sub_1.sql 2020-05-25 17:46:24 0.00 SET TIMING ON 0 Scenario2
sub_1.sql 2020-05-25 17:46:24 0.01 LOADSQLMAP stresstest 0 Scenario2
sub_1.sql 2020-05-25 17:46:24 0.92 ANALYZE TRUNCATE STATISTICS 0 Scenario3
sub_1.sql 2020-05-25 17:46:25 0.02 SELECT count(SESSION_ID) FROM INFORMATI 0 Scenario3
sub_1.sql 2020-05-25 17:46:25 1.37 drop user testuser if exists cascade 0 Scenario3
sub_1.sql 2020-05-25 17:46:26 0.54 CREATE USER testuser PASSWORD 123456 0 Scenario3
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> help
+--------------+-----------------------------------------------------+
| Command | Description |
+--------------+-----------------------------------------------------+
| __internal__ | 执行内部操作命令: |
| __internal__ | __internal__ hdfs HDFS文件操作 |
| __internal__ | __internal__ kafka kafka队列操作 |
| __internal__ | __internal__ data 随机测试数据管理 |
| __internal__ | __internal__ test 测试管理 |
| __internal__ | __internal__ job 后台并发测试任务管理 |
| __internal__ | __internal__ transaction 后台并发测试事务管理 |
| connect | 连接到指定的数据库 |
| disconnect | 断开数据库连接 |
| echo | 回显输入到指定的文件 |
| exit | 正常退出当前应用程序 |
| help | Show this help. |
| host | 执行操作系统命令 |
| loaddriver | 加载数据库驱动文件 |
| loadsqlmap | 加载SQL映射文件 |
| quit | Quit. |
| session | 数据库连接会话管理 |
| set | 设置运行时选项 |
| sleep | 程序休眠(单位是秒) |
| spool | 将输出打印到指定文件 |
| start | 执行指定的测试脚本 |
+--------------+-----------------------------------------------------+
这里显示的是所有除了标准SQL语句外,可以被执行的各种命令开头。
标准的SQL语句并没有在这里显示出来,你可以直接在控制行内或者脚本里头执行SQL脚本。
在sqlcli命令行里头,可以通过connect命令来连接到具体的数据库
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL>
能够成功执行connect的前提是: 数据库驱动已经放置到jlib下,并且在conf中正确配置
如果已经在环境变量中指定了SQLCLI_CONNECTION_URL,连接可以简化为
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass
Database connected.
SQL>
在数据库第一次连接后,第二次以及以后的连接可以不再输入连接字符串,程序会默认使用上一次已经使用过的连接字符串信息,比如:
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> connect user2/pass2
Database connected.
SQL>
常见数据库的连接方式示例:
H2:
connnet mem
ORACLE:
connect username/password@jdbc:oracle:tcp://IP:Port/Service_Name
MYSQL:
connect username/password@jdbc:mysql:tcp://IP:Port/Service_Name
PostgreSQL:
connect username/password@jdbc:postgresql:tcp://IP:Port/Service_Name
SQLServer:
connect username/password@jdbc:sqlserver:tcp://IP:Port/DatabaseName
TeraData:
connect username/password@jdbc:teradata:tcp://IP/DatabaseName
Hive:
connect hive/hive@jdbc:hive2://IP:Port/DatabaseName
ClickHouse:
connect default/""@jdbc:clickhouse:tcp://IP:Port/DatabaseName
LinkoopDB:
connect username/password@jdbc:linkoopdb:tcp://IP:Port/Service_Name
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> disconnect
Database disconnected.
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
SQL> session save sesssion1
Session saved.
# 这里会把当前会话信息保存到名字为session1的上下文中,session1为用户自定义的名字
# 注意:这里并不会断开程序的Session1连接,当Restore的时候也不会重新连接
SQL> connect user/pass@jdbc:[数据库类型]:[数据库通讯协议]://[数据库主机地址]:[数据库端口号]/[数据库服务名]
Database connected.
# 连接到第一个会话
SQL> session save sesssion2
Session saved.
# 这里会把当前会话信息保存到名字为session2的上下文中,session2为用户自定义的名字
# 注意:这里并不会断开程序的Session2连接,当Restore的时候也不会重新连接
SQL> session show
+---------------+-----------+-----------------------------------------------+
| Sesssion Name | User Name | URL |
+---------------+-----------+-----------------------------------------------+
| session1 | xxxxx | jdbc:xxxxx:xxx://xxx.xxx.xxx.xxx/xxxx |
| session2 | yyyyy | jdbc:yyyy:xxx://xxx.xxx.xxx.xxx/yyyyy |
+---------------+-----------+-----------------------------------------------+
# 显示当前保存的所有会话信息
SQL> session restore sesssion1
Session stored.
# 这里将恢复当前数据库连接为之前的会话1
SQL> session restore sesssion2
Session stored.
# 这里将恢复当前数据库连接为之前的会话2
SQL> session saveurl sesssion3
Session saved.
# 这里会把当前会话信息的URL保存到名字为session3的上下文中,session3为用户自定义的名字
# 注意:这里并不会保持程序的Session3连接,仅仅记录了URL信息,当Restore的时候程序会自动重新连接
SQL> session release sesssion3
Session released.
# 这里将释放之前保存的数据库连接,和针对具体一个连接的DisConnect类似
我们可以把语句保存在一个SQL文件中,并通过执行SQL文件的方式来执行具体的SQL
语法格式为:
start [script1.sql] [script2.sql] .... [loop $nlooptime]
例如:
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> start aa.sql
SQL> ....
SQL> disconnect
这里将执行aa.sql
如果有多个文件,可以依次填写,如SQL> start aa.sql bb.sql ....
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> start aa.sql loop 10
SQL> ....
SQL> disconnect
这里将执行aa.sql共计10次
如果有多个文件,可以依次填写,如SQL> start aa.sql bb.sql .... loop 10
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> sleep 10
SQL> disconnect
Database disconnected.
这里的10指的是10秒,通过这个命令可以让程序暂停10秒钟。
Sleep的做法主要用在一些定期循环反复脚本的执行上
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> host date
2020年 10月 29日 星期四 11:24:34 CST
SQL> disconnect
Database disconnected.
这里的date是主机的命令,需要注意的是:在Windows和Linux上命令的不同,脚本可能因此无法跨平台执行
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> echo subtest.sql
-- 这里是subtest.sql
connect admin/123456
select * from cat
SQL> echo off
这里从echo开始,到echo off结束的中间内容并不会被数据库执行,而且会记录在subtest.sql中
同样的操作,这里也可以用来生成一些简单的配置文件,简单的报告信息等
SQLCli会默认加载所有配置在conf/sqlcli.ini中的JDBC驱动
(base) sqlcli
SQL*Cli Release 0.0.32
SQL> loaddriver;
没有任何参数的loaddriver命令将显示出所有系统已经加载的驱动程序
SQL> loaddriver [database_name] [jdbc_jarfile]
将用参数中jdbc_jarfile指定的文件替换掉配置文件中的文件信息
在sqlcli命令行里头,可以通过loadsqlmap命令来加载SQL重写配置文件
(base) sqlcli
SQL*Cli Release 0.0.31
SQL> loadsqlmap map1
Mapping file loaded.
这里的map1表示一个重写配置文件,这里可以写多个配置文件的名字,比如loadsqlmap map1,map2,map3,多个文件名之间用逗号分隔
重写文件的查找顺序:
1. 以map1为例子,如果map1是一个全路径或者基于当前目录的相对目录,则以全路径或相对目录为准。这时候参数应该带有后缀
2: 如果依据全路径没有找到,则会尝试在脚本所在的目录进行相对目录的查找。这时候参数不能够带后缀,查找的后缀文件名是.map
同时存在多个配置的情况下,配置会被叠加
启用SQL重写的方法:
1. 在命令行里面,通过sqlcli --sqlmap map1的方式来执行重写文件的位置
2. 定义在系统环境变量SQLCLI_SQLMAPPING中指定。 如果定义了命令行参数,则系统环境变量不生效
3. 通过在SQL输入窗口,输入loadsqlmap的方式来指定
重写文件的写法要求:
以下是一个重写文件的典型格式, 1,2,3,4,5 是文件的行号,不是真实内容:
1 #..*:
2 ((?i)CREATE TABLE .*\))=>\1 engine xxxxx
3 WEBURL=>{ENV(ROOTURL)}
4 MYID=>{RANDOM('random_ascii_letters_and_digits',10)}
5 #.
行1:
这里定义的是参与匹配的文件名,以#.开头,以:结束,如果需要匹配全部文件,则可以在中间用.*来表示
行2:
这里定义的是一个正则替换规则, 在符合CREATE TABLE的语句后面增加engine xxxxx字样
行3:
这里定义的是一个正则替换规则, 用环境变量ROOTURL的值来替换文件中WEBURL字样
行4:
这里定义的是一个正则替换规则, 用一个最大长度位10,可能包含字母和数字的内容来替换文件中的MYID字样
行5:
文件定义终止符
每一个MAP文件里,可以循环反复多个这样的类似配置,每一个配置段都会生效
重写SQL的日志显示:
被重写后的SQL在日志中有明确的标志信息,比如:
SQL> CREATE TABLE T_TEST(
> id int,
> name varchar(30),
> salary int
> );
REWROTED SQL> Your SQL has been changed to:
REWROTED > CREATE TABLE T_TEST(
REWROTED > id int,
REWROTED > name varchar(30),
REWROTED > salary int
REWROTED > ) engine xxxx;
这里第一段是SQL文件中的原信息,带有REWROTED的信息是被改写后的信息
在数据库连接成功后,我们就可以执行我们需要的SQL语句了,对于不同的SQL语句我们有不同的语法格式要求。
- 对于SQL语句块的格式要求:
SQL语句块是指用来创建存储过程、SQL函数等较长的SQL语句
SQL语句块的判断依据是:
CREATE | REPLACE ****** FUNCTION|PROCEDURE **** | DECLARE ****
这里并没有完整描述,具体的信息可以从代码文件中查阅
SQL语句块的结束符为【/】,且【/】必须出现在具体一行语句的开头 比如:
SQL> CREATE PROCEDURE PROC_TEST()
> BEGIN
> bulabulabula....;
> END;
> /
SQL>
对于SQL语句块,SQLCli将被等待语句结束符后把全部的SQL一起送给SQL引擎(不包括语句结束符)。
- 对于多行SQL语句的格式要求:
多行SQL语句是指不能在一行内写完,需要分成多行来写的SQL语句。
多行SQL语句的判断依据是: 语句用如下内容作为关键字开头
CREATE | SELECT | UPDATE | DELETE | INSERT | __INTERNAL__ | DROP | REPLACE | ALTER
多行SQL结束符为分号【 ;】 比如:
SQL> CREATE TABLE TEST_TAB
> (
> ID CHAR(20),
> COL1 CHAR(20)
> );
SQL>
对于多行SQL语句,同样也可以使用行首的【/】作为多行语句的结束符
对于SQL多行语句,SQLCli将被等待语句结束符后把全部的SQL一起送给SQL引擎(包括可能的语句结束符分号)。
- 其他SQL语句
不符合上述条件的,即不是语句块也不是多行语句的,则在输入或者脚本回车换行后结束当前语句。
结束后的语句会被立刻送到SQL引擎中执行。
-
语句中的注释
注释信息分为行注释和段落注释,这些注释信息不会被送入到SQL引擎中,而是会被SQLCli直接忽略。行注释的写法是: 【 ...SQL... -- Comment 】
即单行中任何【--】标识符后的内容都被理解为行注释信息。段落注释的写法是: 【 ...SQL... /* Comment .... / 】
即单行中任何【/】标识符和【*/】标识符中的内容都被理解为行注释信息。
比如:
SQL> CREATE TABLE TEST_TAB
> (
> ID CHAR(20), -- ID信息,这是是一个行注释
> COL1 CHAR(20) -- 第一个CHAR字段,这也是一个行注释
> /* 这个表是做测试用的,有两个字段:
> ID和COL
> 这上下的4行内容都是段落注释
> */
> );
SQL>
通过SET命令,我们可以改变SQLCli的一些行为或者显示选项。
SQL> set
Current set options:
+--------------------+----------------------+----------------------+
| Name | Value | Comments |
+--------------------+----------------------+----------------------+
| WHENEVER_SQLERROR | CONTINUE | |
| PAGE | OFF | |
| ECHO | ON | |
| TIMING | OFF | |
| TIME | OFF | |
| OUTPUT_FORMAT | LEGACY | TAB|CSV|LEGACY |
| CSV_HEADER | OFF | ON|OFF |
| CSV_DELIMITER | , | |
| CSV_QUOTECHAR | | |
| FEEDBACK | ON | ON|OFF |
| TERMOUT | ON | ON|OFF |
| ARRAYSIZE | 10000 | |
| SQLREWRITE | OFF | ON|OFF |
| LOB_LENGTH | 20 | |
| FLOAT_FORMAT | %.7g | |
| DECIMAL_FORMAT | | |
| DATE_FORMAT | %Y-%m-%d | |
| DATETIME_FORMAT | %Y-%m-%d %H:%M:%S %f | |
| TIME_FORMAT | %H:%M:%S %f | |
| CONN_RETRY_TIMES | 1 | Connect retry times. |
| OUTPUT_PREFIX | | Output Prefix |
| SQL_EXECUTE | PREPARE | DIRECT|PREPARE |
| JOBMANAGER | OFF | ON|OFF |
| JOBMANAGER_METAURL | | |
| SCRIPT_TIMEOUT | -1 | |
| SQL_TIMEOUT | -1 | |
+--------------------+----------------------+----------------------+
没有任何参数的set将会列出程序所有的配置情况。
主要的控制参数解释:
1.ECHO SQL回显标志, 默认为ON,即SQL内容在LOG中回显
SQL> set ECHO ON # 在LOG中将会回显SQL语句
SQL> set ECHO OFF # 在LOG中不会回显SQL语句
例如:执行SELECT 3 + 5 COL1 FROM DUAL,
在ECHO打开下,log文件内容如下:
SQL> SELECT 3 + 5 COL1 FROM DUAL;
SQL> ===========
SQL> = COL1 ===
SQL> ===========
SQL> 8
SQL> 1 rows selected.
在ECHO关闭下,log文件内容如下:
SQL> ===========
SQL> = COL1 ===
SQL> ===========
SQL> 8
SQL> 1 rows selected.
2. WHENEVER_SQLERROR SQL错误终端表示, 用来控制在执行SQL过程中遇到SQL错误,是否继续。 默认是CONTINUE,即继续。
目前支持的选项有:
CONTINUE | 遇到SQL语句错误继续执行
EXIT | 遇到SQL语句错误直接退出SQLCli程序
3. PAGE 是否分页显示,当执行的SQL语句结果超过了屏幕显示的内容,是否会暂停显示,等待用户输入任意键后继续显示下一页,默认是OFF,即不中断。
4. OUTPUT_FORMAT 显示格式, 默认是ASCII(会择机变化成TAB) 目前支持的选项有:
LEGACY | 显示格式为表格的格式(第三方工具提供,暂时保留,来作为兼容性)
CSV | 显示格式为CSV文件的格式
TAB | 显示格式为表格的格式
以下是一个例子:
SQL> set output_format legacy
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set output_format csv
SQL> select * from test_tab;
"ID","COL2"
"1","XYXYXYXY"
"1","XYXYXYXY"
2 rows selected.
SQL>
5. LOB_LENGTH 控制LOB字段的输出长度,默认是20
由于LOB字段中的文本长度可能会比较长,所以默认不会显示出所有的LOB内容到当前输出中,而是最大长度显示LOB_LENGTH值所代表的长度对于超过默认显示长度的,将在输出内容后面添加...省略号来表示
对于BLOB类型,输出默认为16进制格式。对于超过默认显示长度的,将在输出内容后面添加...省略号来表示
SQL> set LOB_LENGTH 300 # CLOB将会显示前300个字符
例子,执行一个CLOB字段查询,CLOB中的信息为ABCDEFGHIJKLMNOPQRSTUVWXYZ
SQL> set LOB_LENGTH 5
SQL> SELECT CLOB1 FROM TEST_TAB;
SQL> ===========
SQL> = CLOB1 ==
SQL> ===========
SQL> ABCDE
SQL> 1 rows selected.
SQL> set LOB_LENGTH 15
SQL> =====================
SQL> = CLOB1 =
SQL> =====================
SQL> ABCDEFGHIJKLMNO...
SQL> 1 rows selected.
6. FEEDBACK 控制是否回显执行影响的行数,默认是ON,显示
SQL> set feedback on
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set feedback off
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
7. TERMOUT 控制是否显示SQL查询的返回,默认是ON,显示
SQL> set termout on
SQL> select * from test_tab;
+----+----------+
| ID | COL2 |
+----+----------+
| 1 | XYXYXYXY |
| 1 | XYXYXYXY |
+----+----------+
2 rows selected.
SQL> set termout off
SQL> select * from test_tab;
2 rows selected.
8. FLOAT_FORMAT 控制浮点数字的显示格式,默认是%.7g
SQL> select abs(1.234567891234) from dual;
+----------+
| C1 |
+----------+
| 1.234568 |
+----------+
1 row selected.
SQL> set FLOAT_FORMAT %0.10g
SQL> select abs(1.234567891234) from dual;
+-------------+
| C1 |
+-------------+
| 1.234567891 |
+-------------+
1 row selected.
类似的参数还有DECIMAL_FORMAT
SQL> set DATE_FORMAT %Y%m%d
SQL> select CAST('2000-02-02' AS DATE) from dual;
+-------------+
| C1 |
+-------------+
| 20000111 |
+-------------+
1 row selected.
类似的参数还有DATETIME_FORMAT, TIME_FORMAT
9. CSV格式控制
CSV_HEADER 控制CSV输出中是否包括字段名称信息, 默认是OFF
CSV_DELIMITER CSV输出中字段的分隔符, 默认为逗号,即,
CSV_QUOTECHAR CSV中字符类型字段的前后标记符号,默认为不标记
SQL> select * from cat where rownum<10;
ADATA_1000W,TABLE
ADATA_100W,TABLE
ADATA_10W,TABLE
ADATA_1W,TABLE
ADATA_2000W,TABLE
ADATA_500W,TABLE
BIN$p+HZrV/nKjTgU1ABqMCZxw==$0,TABLE
BIN$p+HaveUdKjzgU1ABqMC4xg==$0,TABLE
BIN$p+HbAAWeKlfgU1ABqMCSUg==$0,TABLE
SQL> select 1.2+2.2 from dual
> union
> select 3+4 from dual;
3.4
7
10. 运行时间显示
TIMING ON|OFF 控制在SQL运行结束后是否显示执行消耗时间, 默认是OFF
TIME ON|OFF 控制在SQL运行结束后是否显示系统当前时间, 默认是OFF
11. 连接尝试次数
默认是1,即数据库只尝试一次数据库连接,失败后即退回。
可以调整到其他数值,来应用不稳定的数据库连接环境
12. 数据读取预Fetch的缓冲区大小
默认是10000,即数据库每次读取数据的时候,预缓存10000条记录到本地
如果没有十分必要的需求,不建议修改这个参数。过低的参数将导致程序运行性能下降
13. SQLREWRITE
控制是否启用SQL重写,默认是ON。
当设置为OFF的时候,无论运行是否指定了SQLMAP,映射都不会工作
14. SQL_EXECUTE
控制Jpype调用JDBC测试的时候,使用的具体行为方式。有两个可能的选项,分别是DIRECT和PREPARE
对于DIRECT的行为类似:
conn.createStatement().execute("sql ...")
对于PREPARE的行为类似:
PrepareStatement m_pstmt == conn.PrepareStatement(sql)
m_pstmt.execute()
在某些特定的情况下,这个参数将影响显示输出效果。目前正在测试中。
15. SQL脚本并发控制
程序实现了并发的脚本运行,以及对脚本运行中的聚合点支持
并发运行的时候, 应用程序的角色分为主调度程序和Worker工作程序
通过 SET JOBManager ON的方式可以启用本机的主调度程序。
在SET JOBManager ON后,通过SET命令查看当前设置,可以看到如下信息:
| JOBMANAGER | on | ON|OFF |
| JOBMANAGER_METAURL | tcp://192.168.3.155:50869 | |
此时的JOBMANAGER_METAURL就是主调度程序所工作的地址
Worker工作程序可以通过手工的方式注册到主调度程序上,也可以通过主调度程序利用JOB的相关命令来启动
具体的使用方法随后的章节将详细介绍
15. SQL脚本超时控制
程序实现了超时管理,默认的超时时间为无限制,即不做任何控制
SCRIPT_TIMEOUT 脚本的最大运行时间,单位为秒,当脚本运行超过这个时间后,脚本将失败,程序将退出
SQL_TIMEOUT 单个语句的最大运行时间,单位为秒,当单个语句运行超过这个时间后,当前语句将失败,程序将继续
两个参数可以同时设置,同时生效,也可以根据需要设置其中一个
注意:
1: 当发生SQL超时中断后,程序将会启动调用数据库的cancel机制来回退当前运行状态,但不是每个数据库都能支持cancel机制
所以,不要对超时退出后,数据库的连接状态有所预期,可能(非常可能)会导致后续的所有SQL执行失败
2: 目前TimeOut仅用于如下函数, Connect, Execute
在一些场景中,我们通过Hint隐含提示符来控制SQL的具体行为
SQL> -- [Hint] Order
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将会把随后的SQL语句进行排序输出,原程序的输出顺序被忽略
SQL> -- [Hint] LogFilter .*Error.*
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将不再显示随后输出中任何包含Error字样的行
.*Error.* 是一个正则表达式写法
SQL> -- [Hint] LogFilter ^((?!Error).)*$
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli仅显示输出中包含Error字样的行
SQL> -- [Hint] LogMask Password:.*=>Password:******
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,SQLCli将把日志输出中所有符合Password:.*的内容替换成Password:*****
SQL> -- [Hint] SQL_PREPARE
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,随后的SQLCli程序在执行的时候将首先解析SQL语句,随后再执行,
这是默认的方式
SQL> -- [Hint] SQL_DIRECT
SQL> Select ID,Name From TestTab;
....
加入这个提示符后,随后的语句在SQLCli执行中将跃过解析(PrepareStatement)层面
这不是默认方式,和之前的SQL_PREPARE相互斥的一个设置
在某些情况下,有的特殊SQL语句不支持PREPARE,这是一个可以绕开问题的办法
可以通过设置变量的方式来全局影响这个设置.
SQL> SET SQL_EXECUTE PREPARE|DIRECT
SQL> -- [Hint] LOOP [LoopTimes] UNTIL [EXPRESSION] INTERVAL [INTERVAL]
循环执行当前SQL语句一直到表达式EXPRESSION被满足,或者循环次数满足设置要求
循环执行的次数是LoopTimes,每次循环的间隔是INTERVAL(秒作为单位)
在一些场景中,我们需要通过变量来变化SQL的运行
这里提供的解决办法是:
* 用set的语句来定义一个变量
SQL> set @var1 value1
如果value1中包含空格等特殊字符,需要考虑用^将其前后包括,例如:
SQL> set @var1 ^value1 fafsadfd^
此时,尖括号内部的字符串将作为参数的值,但尖括号并不包括在内
注意: value1 是一个eval表达式,可以被写作 3+5, ${a}+1, 等
如果你要在value1中传入一个字符串,请务必将字符串用‘包括,即'value1'
* 用${}的方式来引用已经定义的变量
SQL> select ${var1} from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select value1 from dual
-- 这里真实的表达意思是: select value1 from dual, 其中${var1}已经被其对应的变量替换
SQL> spool test.log
SQL> select 1+2 from dual;
3
1 rows selected.
SQL> spool off
$> type test.log
SQL> select 1+2 from dual;
3
1 rows selected.
-- spool [file name] 表示将从此刻开始,随后的SQL语句输出到新的文件中
-- spool off 表示从此刻开始,关于之前的SQL文件输出
* 在已经进行spool的过程中,spool新的文件名将导致当前文件被关闭,随后的输出切换到新文件中
* spool 结果的目录:
1. 如果程序运行过程中提供了logfile信息,则spool结果的目录和logfile的目录相同
2. 如果程序运行过程中没有提供logfile信息,则spool结果文件目录就是当前的文件
有一些场景通常要求我们来下一个SQL指定的时候,将上一个SQL的结果做出参数来执行
这里提供的解决办法是: 在SQL中引入用JQ表达式定义的表达式
例子:
{$LastSQLResult(JQPattern)}
LastSQLResult 是一个包含了上次结果集的JSON表达式,其包含的内容为:
{
"desc": [column name1, column name2, ....],
"rows": rowcount,
"elapsed": sql elapsed time,
"result": [[row1-column1 , row1-column2,...] [row2-column1 , row2-column2,...] ...]
}
SQL> -- 返回上一个SQL执行影响的记录数量
SQL> select '${LastSQLResult(.rows)}' from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select '1' from dual
+-----+
| '1' |
+-----+
| 1 |
+-----+
1 row selected.
SQL> -- 返回上一个SQL结果记录集的零行零列内容
SQL> select '${LastSQLResult(.result.0.0)}' from dual;
REWROTED SQL> Your SQL has been changed to:
REWROTED > select '1' from dual
+-----+
| '1' |
+-----+
| 1 |
+-----+
1 row selected.
支持的JQ过滤表达式:
dict key过滤 .key
dict key列表 .keys()
dict value列表 .values()
dict key,value对 .iterms()
list过滤 .3 或 .[3]
list负索引 .-2 或 .[-2]
list切片1 .2:6 或 .[2:6]
list切片2 .2: 或 .[2:]
list切片3 .:6 或 .[:6]
list step1 .1:6:2 或 .[1:6:2]
list step2 .1::2 或 .[1::2]
list step3 .::2 或 .[::2]
string过滤 ..与list相同
string切片 ..与list相同
string切片step ..与list相同
通过使用SQLHint,我们可以实现简单的语句循环。
例子:
SQL> -- [Hint] LOOP 100 UNTIL False INTERVAL 2
Select * From Cat;
-- 以上的语句将以间隔2秒执行一次的节奏执行100次的“Select * From Cat”
SQL> -- [Hint] LOOP 100 UNTIL ${LastSQLResult(.result.0.0)}>10 INTERVAL 2
Select * From Cat;
以上的语句将以间隔2秒执行一次的节奏执行“Select * From Cat”
一直执行到100次或者该语句返回结果集的第一行第一内内容大于10
其中: ${LastSQLResult(.result.0.0)}是一个标准的JQ表达式,写法参考__internal__ test assert中写法说明
SQLCli在执行的时候可以指定初始化文件,初始化文件会在真正的脚本执行之前被执行
可以通过以下三种方式来定义SQLCli的初始化文件:
1: 通过在SQLCli的命令行参数中执行,
OS> sqlcli --profile xxxx
2. 通过创建SQLCLI_HOME/profile/default文件,并在其中输入相关信息
3. 通过修改程序的安装目录中对应文件来指定,即<PYTHON_PACKAGE>/sqlcli/profile/default
同时存在上述3类文件的时候,3类文件都会被执行。叠加执行的顺序是:3,2,1
除非打开调试模式,否则初始化脚本的执行不会有任何输出日志,不会影响到日志校验等
SQL> __internal__ DATA SET HDFSUSER [USERNAME]
这里将指定随后操作HDFS操作时使用的用户名(程序使用InSecureClient来上传文件,所以无需口令)
SQL> __internal__ DATA SET SEEDFILE DIR [DIRECTORY]
这里将指定随后程序加载种子Seed文件时所使用的目录,如果不指定,默认目录是SQLCLI_HOME\data
SQL> __internal__ DATA CREATE [string|integer] SEEDDATAFILE [SeedName] LENGTH [row length] ROWS [row number]
> WITH NULL ROWS [null rows number];
如果指定了SEEDFILE的目录,则会在目录下创建seed文件。否则,会在$SQLCLI_HOME/data下创建seed文件,用来后续的随机函数
[string|integer] 是字符型随机数据文件还是数字型随机数据文件
[SeedName] 数据种子的名称,根据需要编写,应简单好记
[row length] 数据种子中每行数据的最大长度
[row number] 数据种子的行数
[null rows number] 在该数据文件row number的行数中有多少行为空行
__internal__ DATA CREATE [MEM|FS|HDFS] FILE [FileName]
(
此处为宏代码
如果参数中提供了ROWS:
这里将把括号内内容理解为一行内容,其中的换行符在处理过程中被去掉
相关信息将被完成宏替换后,重复ROWS行数后构成一个文件
如果参数没有提供了ROWS:
这里将把括号内内容理解为多行内容
相关信息将被完成宏替换后构成一个文件
) ROWS [number of rows];
MEM: 表示文件将被创建在内存中,程序退出后,文件将不复存在
FS: 表示文件将被创建在文件中,需要注意的是,这里的目录不是真实的OS目录,而是一个相对于工作目录的相对目录
HDFS: 表示文件将被创建在HDFS上,这里需要远程的HDFS服务器开启WebFS的功能
文件格式例子: http://nodexx:port/dirx/diry/xx.dat
其中port是webfs的port,不是rpc的port, SQLCli并不支持rpc协议
这里语句的开头: __internal__ 是必须的内容,固定写法
宏代码的格式包括:
{identity(start_number)} 表示一个自增字段,起始数字为start_number
如果一行内有多个identity,他们将分别自增
{identity_timestamp(start_time,fmt,step)} 表示一个自增的时间戳
起始数字为start_time,格式位fmt(可以省略,默认是%Y-%m-%d %H:%M:%S),
每次自增长度为Step, Step的单位可以是s,ms,ns (默认为ms)
s: 秒 ; ms: 毫秒; ns: 纳秒
如果一行内有多个identity,他们将分别自增
{random_ascii_letters(length)} 表示一个随机的ascii字符串,可能大写,可能小写,最大长度为length
{random_ascii_lowercase(length)} 表示一个随机的ascii字符串,只能是大写字母,最大长度为length
{random_ascii_uppercase(length)} 表示一个随机的ascii字符串,只能是小写字母,最大长度为length
{random_digits(length)} 表示一个随机的数字,可能数字,最大长度为length
{random_ascii_letters_and_digits(length)} 表示一个随机的ascii字符串,可能大写,可能小写,可能数字,最大长度为length
{random_date(start, end, frmt)} 表示一个随机的日期, 日期区间为 start到end,日期格式为frmt
frmt可以不提供,默认为%Y-%m-%d
{random_time(start, end, frmt)} 表示一个随机的时间, 时间区间为 start到end,时间格式为frmt
frmt可以不提供,默认为%H:%M:%S
{random_timestamp(start, end, frmt)} 表示一个随机的时间戳, 时间区间为 start到end,日期格式为frmt
frmt可以不提供,默认为%Y-%m-%d %H:%M:%S
{random_boolean()) 表示一个随机的Boolean,可能为0,也可能为1
{current_unixtimestamp()} unix时间戳格式表示的系统当前时间
{column_name: macro()} 一个带有列名的宏定义,其中macro()的写法参考前面的写法
{value(:column_name)} 根据列名,引用之前的一个定义
{random_from_seed(seedname,length)} 表示从seed文件中随机选取一个内容,并且最大长度限制在length, 此时seedname不要引号
{random_from_seed(seedname,start_pos, length)} 表示从seed文件中随机选取一个内容,内容从start_pos开始(第一个位置为0), 并且最大长度限制在length, 此时seedname不要引号
使用random_from_seed需要用到seed文件,必须提前准备到$SQLCLI_HOME/data下,用来后续的随机函数
SQL> __internal__ DATA CREATE [MEM|FS|HDFS] FILE [LocalFileName] FROM [MEM|FS|HDFS] FILE [RemoteFileName]
如果是HDFS文件,则文件名格式为: http://HDFSHOST:HDFSRPCPORT/RemoteFileName
会下载相应文件, 并保存到指定目录,即完成文件复制
例子:
SQL> __internal__ DATA CREATE FS FILE abc.txt
> (
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> ) ROWS 3;
会在当前的文件目录下创建一个名字为abc.txt的文本文件,其中的内容为:
10,'vxbMd','jsr'
11,'SSiAa','vtg'
12,'SSdaa','cfg'
SQL> __internal__ DATA CREATE FS FILE abc.txt
> (
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> {identity(10)},'{random_ascii_letters(5)}','{random_ascii_lowercase(3)}'
> );
会在当前的文件目录下创建一个名字为abc.txt的文本文件,其中的内容为:
10,'vxbMd','jsr'
11,'SSiAa','vtg'
SQLCli工具可以操作Kafka,建立、删除Topic,查看Topic的状态,给Topic发送信息
提前准备:
SQL> __internal__ kafka connect server [bootstrap_server];
连接一个Kafka服务器,格式位nodex:port1,nodey:port2....
注意,这里并没有校验服务器的实际信息是否正确。
SQL> __internal__ kafka create topic [topic name]
[ Partitions [number of partitions]
replication_factor [number of replication factor]
timeout [timeout of creation]
.... kafka valid configuration ...
];
创建一个kafka的Topic.
其中: timeout of creation 可以省略, 默认是60
number of partitions 可以省略, 默认是16
number of replication factor 可以省略, 默认是1
kafka valid configuration 可以为1个或者多个有效的配置参数,比如retention.ms
例子: __internal__ kafka create topic mytopic;
SQL> __internal__ kafka get info topic [topic name] group [gruop id];
其中: group id 可以省略
获得消息队列的高水位线和低水位线
+-----------+-----------+-----------+
| Partition | minOffset | maxOffset |
+-----------+-----------+-----------+
| 0 | 0 | 1 |
| 1 | 0 | 1 |
+-----------+-----------+-----------+
例子: __internal__ kafka get info topic mytopic Partition 0 group abcd;
SQL> __internal__ kafka produce message from file [text file name] to topic [topic name];
将指定文本文件中所有内容按行发送到Kafka指定的Topic中
例子: __internal__ kafka produce message from file Doc.md to topic Hello;
SQL> __internal__ kafka consume message from topic [topic name] to file [text file name];
将Kafka指定的Topic中所有消息消费到指定文本文件中
例子: __internal__ kafka consume message from topic Hello to file xxx.md;
SQL> __internal__ kafka produce message topic [topic name]
> (
> [message item1]
> [message item2]
> [message item3]
> );
将SQL中包含的Message item发送到kafka指定的topic中
上述的例子,将发送3条消息到服务器。
SQL> __internal__ kafka produce message topic [topic name]
> (
> [message part1]
> [message part2]
> [message part3]
> ) rows [num of rowcount]
> frequency [num of frequency];
将SQL中包含的Message part重复num of rowcount发送到kafka指定的topic中
上述的例子,将发送num of rowcount条消息到服务器。
其中: num of frequency 表示每秒最多发送的消息数量。 可以省略,省略表示不对发送频率进行限制
具体message part的写法参考前面描述的创建数据文件的例子
注意:frequency的计数器并不是精准计数器,不排除1~2秒的误差
SQL> __internal__ kafka drop topic [topic name] timeout [timeout of deletion];
其中: timeout of deletion 可以省略, 默认是1800
删除指定的topic
SQL> __internal__ hdfs connect [hdfs webui url] with user [hdfs user name]
用HDFSweb连接到指定的HDFS上
例子:
SQL> __internal__ hdfs connect http://localhost:9870/user/testuser/abcd with user testuser;
Hdfs Server set successful.
这里的/user/testuser/abcd将作为后续HDFS操作的根目录
SQL> __internal__ hdfs cd [hdfs new dir]
切换当前HDFS的主目录到新的目录上
例子:
SQL> __internal__ hdfs cd testuser/abcd;
Hdfs root dir change successful.
这里的testuser/abcd将作为后续HDFS操作的根目录
SQL> __internal__ hdfs status [hdfs path]
获取指定的HDFS文件信息
例子:
SQL> __internal__ hdfs status aa.log;
HDFS file status:
+--------+------------+-------+--------+------+---------------------+
| Path | Permission | owner | group | Size | Modified |
+--------+------------+-------+--------+------+---------------------+
| aa.log | -rw-r--r-- | ldb | ldbp67 | 1148 | 2021-03-05 11:11:41 |
+--------+------------+-------+--------+------+---------------------+
Total 1 files listed.
SQL> __internal__ hdfs list [hdfs path]
显示远程的HDFS文件目录信息。 hdfs_path可以省略,省略情况下显示当然目录信息。
例子:
SQL> __internal__ hdfs list;
HDFS file List:
+-------+------------+--------+--------+------+---------------------+
| Path | Permission | owner | group | Size | Modified |
+-------+------------+--------+--------+------+---------------------+
| 111 | drwxr-xr-x | ldbp67 | ldbp67 | 0 | 2021-03-05 09:26:56 |
| aa.sh | -rw-r--r-- | ldbp67 | ldbp67 | 363 | 2021-03-05 09:07:35 |
+-------+------------+--------+--------+------+---------------------+
Total 2 files listed.
SQL> __internal__ hdfs rm [hdfs path]
删除指定的HDFS文件信息,如果需要删除多个文件,可以提供文件通配符
例子:
SQL> __internal__ hdfs rm aa.log;
Hdfs file deleted successful.
SQL> __internal__ hdfs makedirs [hdfs path]
建立需要的HDFS路径
SQL> __internal__ hdfs upload [local file] [remote file]
上传本地文件到远程的HDFS文件目录中
SQL> __internal__ hdfs download [remote file] [local file]
下载远程的HDFS文件到本地文件目录中
SQLCli可以在你执行测试脚本的时候将相关输出通过Spool命令输出到指定的日志中(具体方法参考Spool的命令)
通过记录输出内容,比对之前的输出内容,可以完成回归测试的校验
SQL> __internal__ test set IgnoreEmptyLine TRUE|FALSE
控制在Compare比对过程中是否忽略空白行,默认为忽略
SQL> __internal__ test set CompareEnableMask TRUE|FALSE
控制在Compare比对过程中是否支持在Ref文件中写入正则表达式,默认为是
SQL> __internal__ test set CompareIgnoreCase TRUE|FALSE
控制在Compare比对过程中是否忽略大小写的不同,默认为False,即不忽略
SQL> __internal__ test set CompareIgnoreTailOrHeadBlank TRUE|FALSE
控制在Compare比对过程中是否忽略行首或者行末的空格,默认为False,即不忽略
SQL> __internal__ test set CompareWorkEncoding TRUE|FALSE
控制在Compare比对过程中是对Work文件的字符集设置,默认为UTF-8
SQL> __internal__ test set CompareResultEncoding TRUE|FALSE
控制在Compare比对过程中输出的结果文件的字符集设置,默认为UTF-8
SQL> __internal__ test set CompareRefEncoding TRUE|FALSE
控制在Compare比对过程中参考Ref文件的字符集设置,默认为UTF-8
SQL> __internal__ test set CompareSkip CHAR_STRING
当工作文件中出现符合CHAR_STRING的信息后,这一行将不作为比对判断依据,即即使这一行不同,比对的结果仍然是符合
CHAR_STRING为一个合法的正则表达式,需要注意的是:这里是一个完全匹配的正则表达式。
例如,如果我们想忽略日志中所有包含”当前时间“字样的行,这里应该写作:
SQL> __internal__ test set CompareSkip .*当前时间.*
SQL> __internal__ test set CompareNotSkip CHAR_STRING
反向取消之前设置的CompareSkip对应信息
SQL> __internal__ test set CompareMask CHAR_STRING1=>CHAR_STRING2
当工作文件中出现符合CHAR_STRING1的信息后,在比对过程中,CHAR_STRING1会被首先替换成CHAR_STRING2,随后进行比对
CHAR_STRING1为一个合法的正则表达式,需要注意的是:这里是一个部分匹配的正则表达式。(和之前的CompareSkip不一样)
例如,如果我们想替换日志中所有包含”当前时间“中具体的时间信息,这里应该写作:
SQL> __internal__ test set CompareMask 当前时间.*=>当前时间*****
这样,如下的输出”当前时间: 2021-03-13“ 会在比对中被替换成”当前时间*****“
SQL> __internal__ test set CompareNotSMask CHAR_STRING1=>CHAR_STRING2
反向取消之前设置的CompareMask对应信息
SQL> __internal__ test Compare WORKFILE REFFILE
比对WORKFILE和REFFILE的文件内容,并输出比对结果
SQL> __internal__ test set CompareGenerateReport TRUE|FALSE
可以输出的报告信息报告:
dif 文件: 当前工作文件和参考Ref文件的比对结果(仅在比对失败的时候产生,比对成功的时候不存在)
dif文件中每一行的格式为:
FLAG 行号(工作文件) 行号(参考文件) 工作文件/参考文件内容
FLAG可以有:
空 : 空白,即工作文件和参考文件完成相同
- : 表示工作文件中缺失,但是参考文件中存在,此刻内容输出的是参考文件内容
+ : 表示工作文件中新增,但是参考文件中缺失,此刻内容输出的是工作文件内容
S : 表示这一行由于参数的配置,已经被比对工具忽略
suc 文件: 当前工作文件和参考Ref文件的比对结果(仅在比对成功的时候产生,比对失败的时候不存在,内容为空)
xlog文件: 比对结果的JSON格式输出信息,结构为:
{
"ScenarioResults":
[
{"ScenarioName1":"该场景处理结果。如果失败,这里记录该场景失败的摘要信息"},
{"ScenarioName2":"该场景处理结果。如果失败,这里记录该场景失败的摘要信息"},
.....
]
}
SQL> __internal__ test assert 判断表达式
根据判断表达式给出结果,如果为True,显示Assert Successful。 反之显示Assert Failed.
这里是一个典型的用比对方式来校验回归结果的例子:
SQL> connect mem
Database connected.
-- 开始将输出结果记录到aa.log中
SQL> spool aa.log
SQL> select 3+5 from dual;
+---+
| 8 |
+---+
| 8 |
+---+
1 row selected.
SQL> spool off
SQL> __internal__ test set CompareReportDetailMode True;
set successful.
-- 这里比对刚产生的SQL日志和之前备份好的比对结果文件(aa.ref),并显示比对结果
SQL> __internal__ test compare aa.log aa.ref;
Compare text files:
Workfile: [aa.log]
Reffile: [aa.ref]
+----------+------------+
| Scenario | Result |
+----------+------------+
| NONE-0 | Successful |
+----------+------------+
Compare Successful!
-- 如果比对失败,显示的结果类似如下:
Compare text files:
Workfile: [aa.log]
Reffile: [aa.ref]
+----------+--------+
| Scenario | Result |
+----------+--------+
| NONE-0 | Failed |
+----------+--------+
Compare Failed!
... >>>>>>> ...
Scenario:[NONE-0]
1 SQL> select 3+5 from dual;
2 +---+
3 | 8 |
4 +---+
- 5 | 8 |
+ 5 | 9 |
6 +---+
7 1 row selected.
你可以使用exit来退出命令行程序,或者在脚本中使用Exit来退出正在执行的脚本
SQL> exit
Disconnected.
注意: 如果当前有后台任务正在运行,EXIT并不能立刻完成。
1: 控制台应用:EXIT将不会退出,而是会提示你需要等待后台进程完成工作
2: 脚本应用: EXIT不会直接退出,而是会等待后台进程完成工作后再退出
SQLCli被设计为支持并发执行脚本,支持后台执行脚本。
为了支持后台操作,我们这里有一系列的语句,他们是:
1: Create 创建后台任务
2: set 设置JOB相关参数
3: show 显示当前已经提交的后台任务,以及他们的运行状态
4: start 开始运行后台作业
5: abort 放弃正在执行的JOB,当前正在运行的SQL将被强制中断
6: shutdown 停止当前正在执行的JOB,但等待当前SQL正常结束
7: waitJob 等待作业队列完成相关工作
8: timer 相关Worker进程等待聚合点
在很多时候,我们需要SQLCli来帮我们来运行数据库脚本,但是又不想等待脚本的运行结束。
create可以有多个参数:
参数1: JOB的名称
参数2-..: JOB的各种参数,要求成对出现 ParameterName ParameterValue
SQL> __internal__ job create jobtest;
JOB [jobtest] create successful.
SQL> __internal__ job create jobtest2 loop 4;
JOB [jobtest2] create successful.
SQL> __internal__ job create jobtest3 loop 4 parallel 2;
JOB [jobtest3] create successful.
2: 设置JOB的相关参数
通过set,我们可以JOB的具体参数。 支持的参数有:
script : 必选参数。后台作业的脚本名称。可以用绝对路径写或者当前目录的相对路径
parallel : 可选参数。后台作业并发度,即同时可以有几个作业在运行该脚本。默认为1
loop : 可选参数。一共要循环完成的次数,默认为1
timeout : 可选参数。后台作业的超时限制,单位为秒,默认为0,即不限制
若设置为非零数,则在达到指定的时间后,作业会被强行终止,不再继续下去
starter_maxprocess : 为减少首次启动的负载压力。每次启动作业时,单个批次最大启动多少个并行作业
只在作业首次启动的时候,这个参数有意义。
默认是9999,即完全不做限制
例如: parallel 设置为10,starter_maxprocess为2,
则:以starter_interval为间隔,每次2个启动作业,一直到满足parallel要求
starter_interval : 为减少首次启动的负载压力。每次启动作业时,单个批次的间隔时间,默认是0,即不等待
think_time : 每一次作业完成后,启动下一个作业中间需要的时间间隔,默认是0,即不等待
blowout_threshold_count : 完全失败阈值,若失败次数已经达到该次数,认为后续作业已经没必要运行。默认是0,即不限制
tag : 程序组标识,所有具有相同tag的Worker进程在判断聚合点的时候将保持同步
例子:
SQL> __internal__ job set jobtest parallel 2;
JOB [jobtest] set successful.
SQL> __internal__ job set jobtest loop 4;
JOB [jobtest] set successful.
SQL> __internal__ job set jobtest script bb.sql;
JOB [jobtest] set successful.
SQL>
通过show可以查看我们之前提交情况,脚本的运行情况,运行的开始时间,运行的结束时间,当前正在运行的SQL等。
SQL> -- 查看JOB整体情况
SQL> __internal__ job show all;
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
| job_name | status | active_jobs | failed_jobs | finished_jobs | submit_time | start_time | end_time |
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
| jobtest | Submitted | 0 | 0 | 0 | 2020-12-02 11:00:41 | None | None |
+----------+-----------+-------------+-------------+---------------+---------------------+------------+----------+
Total 1 Jobs.
这里可以看到目前1个脚本已经提交.
SQL> -- 查看JOB具体情况
SQL> __internal__ job show jobtest;
JOB_Name = [jobtest ]; ID = [ 3]; Status = [Submitted ]
ActiveJobs/FailedJobs/FinishedJobs: [ 0/ 0/ 0]
Submit Time: [2020-12-02 11:00:41 ]
Start Time : [None ] ; End Time: [None ]
Script : [bb.sql ]
Script Full FileName: [None ]
Parallel: [ 2]; Loop: [ 4]; Starter: [ 9999/ 0s]
Think time: [ 0]; Timeout: [ 0]; Elapsed: [ 0.00]
Blowout Threshold Count: [ 9999]
Error Message : [None ]
Detail Tasks:
+----------+----------+--------------------+--------------------+
|Task-ID |PID |Start_Time |End_Time |
+----------+----------+--------------------+--------------------+
这里可以看到具体对于JOB名称为jobtst的任务的详细情况
通过start的方式,我可以启动全部的后台任务或者只启动部分后台任务
SQL> set jobmanager on
SQL> __internal__ job start all;
1 Jobs Started.
这里会将你之前提交的所有后台脚本都一次性的启动起来
SQL> __internal__ job start jobtest;
1 Jobs Started.
这里只会启动JOB名称为jobtest的后台任务
随后,再次通过show来查看信息,可以注意到相关已经启动
在脚本运行过程中,你可以用shutdown来停止某个某个任务或者全部任务,
SQL> __internal__ job shutdown all;
Total [1] jobs shutdowned.
这里会将当前运行的所有后台脚本都停止下来
SQL> __internal__ job shutdown jobtst;
Total [1] jobs shutdowned.
注意: shutdown并不会真的终止你当前正在运行的作业,但是在这个作业之后的所有作业不再执行,要求循环执行的脚本也不再循环。
只有在子任务完成当前作业后,shutdownjob才能完成。
这个意思是说,如果你有一个比较大的长SQL作业,shutdownjob并不能很快的终止任务运行。
在脚本运行过程中,你可以用abort来强行停止某个某个任务或者全部任务,
SQL> __internal__ job abort all;
Total [1] jobs aborted.
这里会将当前运行的所有后台脚本都停止下来
SQL> __internal__ job abort jobtst;
Total [1] jobs aborted.
在脚本运行过程中,你可以用wait来等待后台脚本的运行结束
SQL> __internal__ job wait all;
All jobs [all] finished.
SQL> __internal__ job wait jobtest;
All jobs [jobtest] finished.
waitjob不会退出,而是会一直等待相关脚本结束后再退出
主调度程序脚本:
SQL> set jobmanager on
SQL> __internal__ job create mytest loop 2 parallel 2 script slave1.sql tag group1;
SQL> __internal__ job create mytest2 loop 2 parallel 2 script slave2.sql tag group1;
SQL> __internal__ job start mytest;
SQL> __internal__ job start mytest2;
SQL> __internal__ job wait all;
Worker应用程序脚本(slave1.sql, slave2.sql):
-- 两个Worker程序(slave1.sql,slave2.sql)将会同时结束all_slave_started的聚合点
SQL> __internal__ job timer all_slave_started;
SQL> do some sql
SQL> __internal__ job timer slave_point1;
SQL> do some sql
SQL> __internal__ job timer slave_finished;
如果当前有后台程序运行:
1: 控制台应用:EXIT将不会退出,而是会提示你需要等待后台进程完成工作
2: 脚本应用: EXIT不会直接退出,而是会等待后台进程完成工作后再退出
OS> sqlcli --server [Port]
此处的Port为一个合法有效的端口号,启动后,SQLCli会绑定这个端口号,并接受客户端请求
OS> SET SQLCLI_REMOTESERVER XXX.XXXX.XXXX.XXXX:PORT
OS> sqlcli
这里的IP和Port为服务器的地址, 指定后,随后执行的语句和本地的Standalone模式完全相同
---------- sqlcli
--------------- __init__.py # 包标识文件,用来记录版本信息
--------------- commandanalyze.py # 对用户或者脚本输入的命令进行判断,判断是否需要后续解析,或者执行内部命令
--------------- datawrapper.py # 程序中对测试数据文件的相关支持
--------------- testwrapper.py # 程序中对测试命令的相关支持
--------------- kafkawrapper.py # 程序中对kafka操作的相关支持
--------------- hdfswrapper.py # 程序中对HDFS文件操作的相关支持
--------------- main.py # 主程序,命令行控制界面,参数输入控制
--------------- sqlcli.py # 主程序
--------------- sqlcliexception.py # 自定义程序异常类
--------------- sqlclijdbcapi.py # 数据库操作封装,JDBC模式
--------------- sqlcliodbcapi.py # 数据库操作封装,ODBC模式,这里只是一个封装,用来完成编译器检测,具体实现逻辑在odbc目录
--------------- sqlclitransactionmanager.py # 后台作业中的业务统计管理
--------------- sqlclijobmanager.py # 后台作业管理实现
--------------- sqlexecute.py # 程序主要逻辑文件,具体执行SQL语句
--------------- sqlinternal.py # 执行internal命令
--------------- sqloption.py # 程序运行参数显示及控制实现
--------------- sqlparse.py # 用来解析SQL语句,判断注释部分,语句的分段、分行等
--------------- sqlremoteserver.py # 用来支持SQLCli作为一个远程服务器启动时的相关支持
---------- setup.py # Python打包发布程序
---------- setup.cfg # Python打包发布程序配置
---------- README.md # 应用程序说明
---------- conf # 配置文件目录
-------------- sqlcli.conf # 程序配置文件
---------- profile # 程序初始化脚本存放目录
-------------- default # 默认的程序初始化脚本
---------- jlib # 应用程序连接数据库需要的各种jar包
-------------- Dm7JdbcDriver17.jar
-------------- gbase-connector-java-8.3-bin.jar
-------------- hadoop-common-2.7.2.jar
-------------- hive-jdbc-1.2.2-standalone.jar
-------------- kingbasejdbc4.jar
-------------- linkoopdb-jdbc-3.0.0.jar
-------------- mysql-connector-java-8.0.20.jar
-------------- ojdbc8.jar
-------------- oscarJDBC.jar
-------------- postgresql-42.2.12.jar
-------------- sqljdbc42.jar
-------------- tdgssconfig.jar
-------------- terajdbc4.jar
-------------- xxxx1.jar
-------------- xxxx2.jar
---------- odbc # ODBC代码C语言封装
-------------- ceoApiTypes.c
-------------- ceoConnection.c
-------------- ceoCursor.c
-------------- ceoDbType.c
-------------- ceoError.c
-------------- ceoModule.c
-------------- ceoModule.h
-------------- ceoTransform.c
-------------- ceoUtils.c
-------------- ceoVar.c
-------------- CMakeLists.txt
---------- .gitignore # git控制文件
---------- uploadpypi.bat # windows平台下用来向pypi更新安装包的相关命令
---------- uploadpypi.sh # Linux平台下用来向pypi更新安装包的相关命令
---------- .vscode # Visual Stuio Code 工程配置目录
-------------- launch.json # Visual Stuio Code 工程启动文件
目前程序在设计上,是充分考虑到了线程安全性的。
from sqlcli.sqlcli import SQLCli
# 初始化环境句柄,标记屏幕上不打印任何输出信息
m_SQLCli = SQLCli(HeadlessMode=True)
# SQLExecuteHandler.run会用yield的方式分批返回SQL执行结果
for title, cur, headers, columnTypes, status in \
m_SQLCli.SQLExecuteHandler.run("Connect ....."):
print(title, cur, headers, columnTypes, status)
for title, cur, headers, columnTypes, status in \
m_SQLCli.SQLExecuteHandler.run("Select * FROM XXX"):
print(title, cur, headers, columnTypes, status)
# 返回结果包含5个方面的内容 (title, rows, headers, columnTypes, status).
# title 表头信息
# rows 结果数据集
# headers 结果集的header定义,列名信息
# columnTypes 列类型,字符串格式
# status 返回结果汇总消息
# 其中SQLCli初始化参数有:
logon=None, # 默认登录信息,None表示不需要
logfilename=None, # 程序输出文件名,None表示不需要
sqlscript=None, # 脚本文件名,None表示不需要
sqlmap=None, # SQL映射文件名,None表示不需要
nologo=False, # 是否不打印登陆时的Logo信息,True的时候不打印
breakwitherror=False, # 遇到SQL错误,是否立刻退出
sqlperf=None, # SQL审计文件输出名,None表示不需要
Console=sys.stdout, # 控制台输出,默认为sys.stdout,即标准输出
HeadlessMode=False, # 是否为无终端模式,无终端模式下,任何屏幕信息都不会被输出
WorkerName='MAIN', # 程序别名,可用来区分不同的应用程序
logger=None, # 程序输出日志句柄
clientcharset='UTF-8', # 客户端字符集,在读取SQL文件时,采纳这个字符集,默认为UTF-8
resultcharset='UTF-8', # 输出字符集,在打印输出文件,日志的时候均采用这个字符集
EnableJobManager=True, # 是否开启后台调度程序管理模块,否则无法使用JOB类相关命令
profile=None # 程序初始化执行脚本
from sqlcli.sqlcli import SQLCli
sqlcli = SQLCli(
logfilename=[log FileName], -- 日志文件名
logon=[Login User/Login Password|None], -- 登录用户名/密码, 可以为None,为None的时候后续的脚本中必须包含连接信息,默认为None
sqlscript=[SQL Script FileName], -- SQL脚本名称,必须填写
sqlmap=[SQL Mapping FileName | None], -- 默认为None
nologo=True|False, -- 默认为False
sqlperf=[SQL Performence Log FileName | None], -- 默认为None
clientcharset=[client charset | UTF-8], -- 客户端字符集,默认为UTF-8
resultcharset=[result charset | UTF-8], -- 结果集字符集,默认为UTF-8
profile=[init FileName|None] -- 初始化文件名称,默认为None
)
# 运行主程序
sqlcli.run_cli()
程序支持用POST以及WebSocket方式来远程调用本程序,调用的前提是:
程序支持用POST以及WebSocket方式来远程调用本程序,调用的方式是:
登录:
request_data = json.dumps({})
headers = {'Content-Type': 'application/json', 'accept': 'application/json'}
ret = requests.post("http://SQLCLI_REMOTESERVER:PORT/DoLogin",
data=request_data,
headers=headers)
返回的结果为:
{
"ret": -1,
"message": 错误消息
}
或者:
{
"ret": 0,
"clientid": 客户端ID标识
}
执行语句:
def show_result(p_result):
'''
返回的结果可能是多种类型,处理的时候需要根据type的结果来判断具体的数据格式:
SQL解析结果:
{
"type": "parse",
"rawsql": "原始SQL语句",
"formattedsql": "被排版后的SQL语句(包含注释信息)",
"rewrotedsql": "被改写后的SQL语句(已经被排版过),如果不存在改写,则不存在",
"script":"SQL当前执行的脚本名称"
}
SQL执行结果:
{
"type": "result",
"title": "表头信息",
"rows": "结果数据集",
"headers": "结果集的header定义,列名信息",
"columnTypes": "列类型,字符串格式",
"status": "返回结果汇总消息"
}
SQL错误信息:
{
"type": "error",
"message": "错误描述"
}
SQL回显信息:
{
"type": "error",
"message": "错误描述",
"script":"SQL当前执行的脚本名称"
}
'''
async def test_ws_quote():
async with websockets.connect("ws://" + os.environ["SQLCLI_REMOTESERVER"] + "/DoCommand") \
as websocket:
request_data = json.dumps(
{
'clientid': str(self.ClientID),
'op': 'execute',
'command': str(text)
})
await websocket.send(request_data)
while True:
try:
ret = await websocket.recv()
result = json.loads(ret)
show_result(result)
)
except websockets.ConnectionClosedOK:
return
asyncio.get_event_loop().run_until_complete(test_ws_quote())
result = run_remote()
退出:
request_data = json.dumps(
{
"clientid": self.ClientID
})
headers = {'Content-Type': 'application/json', 'accept': 'application/json'}
ret = requests.post("http://SQLCLI_REMOTESERVER:PORT/DoLogout",
data=request_data,
headers=headers)
返回的结果为:
{
"ret": -1,
"message": 错误消息
}
或者:
{
"ret": 0,
}
SQL> set DEBUG ON
打开DEBUG后,程序将会输出大量的调试信息,以及错误发生时的堆栈信息
在Python3.7以及以上的版本中,会出现ttypes的导入错误
这是由于Hbase的相关程序不支持Python3.7以及以上版本
需要:
下载https://github.com/data-infra/infrastructure/tree/master/hbase中内容,
替换本地site-packages/hbase/Hbase.py和ttypes.py