使用 DolphinDB 创建数据库和表时,人们通常对分区列、分区类型和排序列的选择并不十分清晰。如果不加注意,可能导致查询速度变慢、数据丢失或插入错误等问题。合理地设置分区列、排序列和分区类型,有助于加快查询速度,减少内存使用,并提高 CPU 利用率。
以下内容可以帮助大家更好地了解创建数据库和表时的细节,优化脚本质量。
分区是进行数据管理和提高分布式文件系统性能的重要手段之一。通过分区实现对大型表的有效管理。一个合理的分区策略能够仅读取查询所需的数据,以减少扫描的数据量,从而降低系统响应延迟。
DolphinDB 支持多种分区类型:范围分区、哈希分区、值分区、列表分区与复合分区。选择合适的分区类型,有助于用户根据业务特点对数据进行均匀分割。
- 范围分区对每个分区区间创建一个分区。
- 哈希分区利用哈希函数对分区列操作,方便建立指定数量的分区。
- 值分区每个值创建一个分区,例如股票交易日期、股票交易月等。
- 列表分区是根据用户枚举的列表来进行分区,比值分区更加灵活。
- 复合分区适用于数据量特别大而且 SQL where 或 group by 语句经常涉及多列。可使用 2 个或 3 个分区列,每个分区选择都可以采用区间、值、哈希或列表分区。例如按股票交易日期进行值分区,同时按股票代码进行范围分区。
DolphinDB 以分区为单位管理数据,数据写入和数据读取都是按分区为单位进行的。
对于数据写入,DolphinDB 会将数据按分区写入磁盘,并且对于同一个分区,不允许并发写入数据。对于数据读取,DolphinDB 会根据查询条件进行分区剪枝,排除不符合条件的分区,缩窄查询范围,只对符合查询条件的分区进行读取,分区字段和分区粒度的选择很大程度上影响了查询的效率。
目前 DolphinDB 有 TSDB 和 OLAP 两种储存引擎。OLAP 为列式存储引擎,将数据表中每个分区的每一列存为一个文件。数据在表中的存储顺序与数据写入的顺序一致,数据写入有非常高的效率。TSDB 是基于 LSM 树的存储引擎,其储存结构为行列混存。每一个分区的数据写在一个或多个 Level File 中。每一个 Level File 内部的数据按照指定的列进行排序且创建块索引。
排序列是 TSDB 引擎特有的结构,它在 TSDB 引擎的存储和读取流程中发挥着重要作用,包括分区内数据索引和去重的双重作用。在创建表时通过参数 sortColumns 来定义排序列,sortColumns 的最后一列必须是时间类型,而除了最后一列之外的其他列被称为排序键(Sort Key),每个排序键独特值对应的数据按列顺序存储在一起。排序键字段的组合值作为索引键,为数据查询提供了入口,能够迅速定位数据块的位置,从而降低查询时间。在写入过程中,每个事务中的数据会根据 sortColumns 进行排序和去重。
TSDB 引擎的分区内索引包括每个索引键和字段组合的入口信息以及稀疏索引(最大值,最小值,个数和)信息。当索引键个数 X 字段数很大时,索引数据会很大,这对写入性能、查询性能和内存使用都会产生重大影响,可以通过对排序键进行哈希降维来减少索引数量。
使用 TSDB 引擎建表时要指定排序列字段,但是随意设置排序列可能会导致索引键对应的数据过少,会使查询变慢。推荐索引键对应的数据量大于一万行,当每个索引键对应很少的数据量的时候,会产生以下几个问题:
- 由于数据总量不变,导致索引键非常多,索引信息占据大量内存。
- 数据碎片化存储,导致数据读写效率降低。
- 由于数据按照 block 进行压缩,而 block 是每个索引键对应数据按照数据量进行划分的,若每个 block 数据量很少,压缩率也会降低。
例子:股票数据(假设股票数量为 5000 支,每天记录 2000 万条,每天数据量为 800MB),按交易日期字段作为值分区条件。
情况 1:只使用 TradeTime 作为排序列会导致索引键数量过多,但是每个索引键对应的数据量又特别少。
单个排序列时,该列就称为排序键,一个分区的索引键数量计算公式:索引键数量 = 每个分区内的排序键独特值数量。
以下例子中,每个分区索引键数量 = TradeTime 去重后的数量。由于 TradeTime 为股票交易时间,即使按秒级别计算一天也有 4 * 3600 = 14400 个独特值,实际上 TradeTime 为毫秒级,故索引键数量远大于 14400。
db=database("dfs://testDB1",VALUE, 2020.01.01..2021.01.01,engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt1, partitionColumns=`TradeDate, sortColumns=`TradeTime, keepDuplicates=ALL)
假设交易时间为半秒级,索引键数量为 28800 个,每个索引键对应的行数为 694。
情况 2:使用 SecurityID、TradeTime 作为 sortColumns 会导致索引键数量和股票代码数量一样。
多个 sortColumns 时索引键计算公式:索引键数量 = 每个分区内的除去最后一列外其余字段独特值组合值数量。
以下例子中,每个分区索引键的数量为 SecurityID 独特值的数量,即 5000 个。
db=database("dfs://testDB1",VALUE, 2020.01.01..2021.01.01,engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt2, partitionColumns=`TradeDate, sortColumns=`SecurityID`TradeTime, keepDuplicates=ALL)
假设股票数量为 5000 只,索引键数量为 5000 个,每个索引键对应的行数为 4000。
对于上述例子中的情况可以通过以下方案解决。
情况 1:只有一个 sortColumns 字段时不选择时间相关的或者去重后数量过多的字段。比如将 TradeTime 替换为 SecurityID 作为 sortColumn。
该方案中,每个分区索引键数量 = SecurityID 去重后的数量 = 5000。每个索引键对应的行数为 4000 和上述例子中的情况 2 一样。
db=database("dfs://testDB1",VALUE, 2020.01.01..2021.01.01,engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt3, partitionColumns=`TradeDate, sortColumns=`SecurityID, keepDuplicates=ALL)
还可以对 SecurityID 排序列进行哈希降维。每个分区索引键数量 = 哈希降维后的数量(500)。每个索引键对应的行数为 40000。
db=database("dfs://testDB1",VALUE, 2020.01.01..2021.01.01,engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt4, partitionColumns=`TradeDate, sortColumns=`SecurityID keepDuplicates=ALL,sortKeyMappingFunction=[hashBucket{,500}])
情况 2:有多个 sortColumns 字段时,可以配置 sortKeyMappingFunction 参数进行哈希降维(会影响相关 sortColumns 字段的点查性能,但是会提升范围查询性能)。如果每个分区内除最后一个时间列外,其余字段组合数量超过 1000,可以配置 sortKeyMappingFunction 参数进行哈希降维。
使用 SecurityID、TradeTime 作为 sortColumn 并配置 sortKeyMappingFunction 参数进行哈希降维。
多个 sortColumn 时索引键计算公式:索引键数量 = 每个分区内的除去最后一列外其余字段去重(或者哈希降维)后数量相乘。
以下例子中,每个分区索引键数量 = 哈希降维后的数量(500)。每个索引键对应的行数为 40000。
db=database("dfs://testDB1",VALUE, 2020.01.01..2021.01.01,engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt5, partitionColumns=`TradeDate, sortColumns=`SecurityID`TradeTime, keepDuplicates=ALL,sortKeyMappingFunction=[hashBucket{,500}])
按照上述五种建表方案进行建表,然后导入 10 天的数据(每天 2000 万条记录)测试其查询性能。
范围查询:
select avg(TradePrice) from pt where TradeDate between 2020.01.04 and 2020.01.05
排序列 | 每个分区索引键数 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|---|
TradeTime | 28,800 | 167.9 | 215.1 |
SecurityID、TradeTime | 5000 | 46.3 | 68.6 |
SecurityID | 5000 | 47.7 | 66.9 |
SecurityID(哈希降维) | 500 | 6.6 | 8.5 |
SecurityID(哈希降维)、TradeTime | 500 | 6.7 | 7.9 |
点查询 1(TradeDate + SecurityID):
select avg(TradePrice) from pt where TradeDate = 2020.01.04 and SecurityID=`600
排序列 | 每个分区索引键数 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|---|
TradeTime | 28,800 | 2002.6 | 2562.8 |
SecurityID、TradeTime | 5000 | 4.0 | 4.7 |
SecurityID | 5000 | 3.4 | 4.7 |
SecurityID(哈希降维) | 500 | 6.5 | 8.5 |
SecurityID(哈希降维)、TradeTime | 500 | 7.7 | 8.3 |
点查询 2(TradeDate + SecurityID + TradeTime):
select TradePrice from pt where TradeDate = 2020.01.04 and SecurityID=`3740 and TradeTime =09:30:00.000
排序列 | 每个分区索引键数 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|---|
TradeTime | 28,800 | 1.4 | 2.1 |
SecurityID、TradeTime | 5000 | 1.5 | 2.6 |
SecurityID | 5000 | 1.4 | 2.3 |
SecurityID(哈希降维) | 500 | 5.0 | 7.3 |
SecurityID(哈希降维)、TradeTime | 500 | 6.2 | 8.0 |
通过上述性能测试实验结果,可以得出结论:排序列设置不合理,查询字段中没有排序列字段,查询性能将大幅下降。对于范围查询索引键对应的数据过少,会影响其性能,可以通过哈希降维大幅提升性能(点查询性能会略微下降)。
值(VALUE)分区字段为字符串类型时,追加的分区列数据不能包含空格、"/n"、 "/r"、"/t" 等特殊字符。如果后续插入的数据对应字段有特殊字符,会导致数据插入失败。
建表时未考虑后续将设置为值(VALUE)分区字段的列内是否包含特殊字符,导致数据插入该列时因存在特殊字符而失败。
n=1000
ID=take(["1","2","3"], n);
x=rand(1.0, n);
t=table(ID, x);
//将 ID 列作为值分区
db=database(directory="dfs://valuedb", partitionType=VALUE, partitionScheme=["1"])
pt = db.createPartitionedTable(t, `pt, `ID);
pt.append!(t);
n=1000
ID=take(["1 12","2.12","3 12"], n);
x=rand(1.0, n);
t=table(ID, x);
pt.append!(t);
上述代码会报错:A string or symbol value-partitioning column can't contain any invisible character。
对于前述例子中的错误,如果这些不可见的特殊字符无意义,可以在插入前删除。如果有意义,可以将该字段设置为哈希(HASH)分区来替代值分区方案。哈希(HASH)分区的数量需要按照具体数据量进行设置,避免分区粒度过大或者过小。或者将对应字段数据进行处理后插入。
采用范围(RANGE)分区策略时,如果插入数据的范围(RANGE)分区字段的值在预定义的分区范围外,那么这条记录将不会被插入到表中。tableInsert
会返回插入记录的条数以此判断是否有数据在范围(RANGE)分区外而没有存入分区表中。
以下例子中,第 2 行 ID 和第 6 行 partitionScheme 的设置存在范围不一致的情况。
n=1000000
ID=rand(20, n)//数据范围是 0-20
x=rand(1.0, n)
t=table(ID, x);
//设置分区时RANGE范围是 0-5,5-10
db=database(directory="dfs://rangedb", partitionType=RANGE, partitionScheme=0 5 10)
pt = db.createPartitionedTable(t, `pt, `ID);
//tableInsert之后只有在 0-10 部分的数据才被插入,其余的都被丢弃。
tableInsert(pt,t);
上述例子通过 tableInsert
插入后返回 499972 条(远小于 1000000)。
由于 partitionScheme 设置为 0 5 10,导致只有 0-10 部分数据插入成功,其余部分数据丢失。因此应该设置合适的分区范围,考虑后续数据的范围。或者可以通过 addRangePartitions
函数后续添加分区范围。
分区类型或者分区字段设置不合理会导致分区粒度过小。分区粒度过小可能会导致以下问题:
- 如果查询范围较大,会报错 "The number of partitions relevant to the query is too large."
- 使用 TSDB 引擎时,Level File 索引缓存(LevelFileIndexCache)大量被占用,可能导致所有使用 TSDB 引擎的数据库的查询变慢。
- 查询和计算作业往往会生成大量的子任务,增加数据节点和控制节点之间及控制节点之间的通讯和调度成本。
- 造成很多低效的磁盘访问(小文件读写),导致系统负荷过重。
- 所有分区的元数据都会驻留在控制节点的内存中,过多的分区可能会导致控制节点内存不足。
因此,建议每个分区未压缩前的数据量不要小于 100MB。
例子:股票行情数据(每天 5000 万条记录),先按日期分区然后将股票代码字段按值分区。选择使用 TradeDate、SecurityID 二级分区,而且 SecurityID 是值分区,假设全是国内股票,一天分区数量就达到 5000+。每天数据量为 3MB(内存中),每个分区大小约为 0.6MB。
1.默认最大查询分区数为 65536,假设每天 5000 个股票,查询 14 天的数据就会报错 The number of partitions relevant to the query is too large。
2.Level File 索引缓存容量默认是最大内存的 5%,虽然单个分区的 Level File 索引(LevelFileIndex)较小,但是如果查询分区数非常多,会导致马上占满 Level File 索引缓存。占满 Level File 索引缓存之后会导致查询效率大幅度下降。
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, VALUE, `a`b)
db = database(directory="dfs://testDB1", partitionType=COMPO, partitionScheme=[db1, db2], engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID, sortColumns=`SecurityID`TradeTime, keepDuplicates=ALL)
对于上述例子,先按日期分区,然后将股票代码字段 HASH 分区(需要根据每天的量估计 HASH 多少个分区,一般一个分区占用内存应控制在 100MB - 1GB 之间),每天只有 25 个分区,每天数据量为 3MB(内存中),每个分区大小约为 120MB。
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, HASH, [SYMBOL, 25])
db = database(directory="dfs://testDB2", partitionType=COMPO, partitionScheme=[db1, db2], engine="TSDB")
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID, sortColumns=`SecurityID`TradeTime, keepDuplicates=ALL)
按照上述两种建表方案进行建表,然后导入 10 天的数据(每天 5000 万条记录)测试其范围查询性能。
select avg(TradePrice) from pt where TradeDate=2020.01.04
建表方案 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
日期值分区 + 股票代码值分区 | 214.4 | 378.1 |
日期值分区 + 股票代码哈希分区 | 13.6 | 20.5 |
通过上述性能测试实验结果,可以得出结论:如果分区粒度过小会导致查询效率过低,建库建表时要选择合适的分区粒度。
分区类型或者分区字段设置不合理会导致分区粒度过大。若分区粒度过大,可能造成:
- 多个工作线程并行时内存不足。
- 系统频繁地在磁盘和工作内存之间切换,影响性能。
- 无法有效利用 DolphinDB 多节点多分区的优势,将本可以并行计算的任务转化成了顺序计算任务。
以下例子中的股票行情数据(每天 5000 万条记录),直接按日期分区,一天数据大约有 3MB(内存中)。
//按交易日期分区
db= database("dfs://testDB1", VALUE, 2020.01.01..2021.01.01)
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
//每天只有 1 个分区,假设每天数据量为 3GB(内存中),每个分区大小约为 3GB,分区粒度过大
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate)
对以下例子中的股票行情数据,先按日期分区然后将股票代码字段哈希分区(需要根据每天的量估计需要哈希的分区数量,一般一个分区内存中大小 100MB - 1GB 之间)。
//先按交易日期分区,然后按股票代码进行哈希分区
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, HASH, [SYMBOL, 25])
db = database(directory="dfs://testDB2", partitionType=COMPO, partitionScheme=[db1, db2])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
//每天只有 25 个分区,假设每天数据量为 3GB(内存中),每个分区大小约为120MB
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID)
按照上述两种建表方案进行建表,然后导入 10 天的数据(每天 5000 万条记录)测试其点查性能。
select avg(TradePrice) from pt where SecurityID=`600
建表方案 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
日期值分区 | 560.4 | 683.1 |
日期值分区 + 股票代码哈希分区 | 31.2 | 40.8 |
通过上述性能测试实验结果,可以得出结论:如果分区粒度过大会导致查询效率过低,建库建表时要选择合适的分区粒度。
维度表会将整个表加载入内存,并且不会自动释放(2.00.11 版本之前)。如果创建维度表时未考虑之后的大数据量,会导致查询速度随数据量增加而下降,并占用大量内存。
使用维度表存储超过 20 万条记录的数据或难以估算的数据。
例子:以每天产生 2000 万条记录的股票数据为例,如果使用仅有一个分区的维度表,不到几天该表里就会有几亿条数据。假设每天的数据量为 800MB(内存中),读取维度表数据时会将整个维度表加载入内存,不到几天,内存就会被大量占用。
db= database("dfs://testDB1", VALUE, 2020.01.01..2021.01.01)
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createTable(tbSchema,`dt)
所以在预估数据量明确或较少时,可以使用维度表;预估数据量较多时,应该使用分区表。
上述例子中每天产生 2000 万条股票数据。为了处理这些数据,可以使用分区表:
- 首先按交易日期进行分区。
- 然后按股票代码进行哈希分区,每天只会有 25 个分区。
以下代码为使用分区表方案建表:
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, HASH, [SYMBOL, 25])
db = database(directory="dfs://testDB2", partitionType=COMPO, partitionScheme=[db1, db2])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID)
按照上述两种建表方案进行建表,然后导入一天的数据(2000 万条记录)测试其点查性能。
select avg(TradePrice) from tb where SecurityID=`600
建表方案 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
维度表 | 1385.5 | 1545.2 |
日期值分区 + 股票代码哈希分区 | 36.0 | 60.3 |
通过上述性能测试实验结果,可以得出结论:预估数据量明确或较少时,可以使用维度表;预估数据量较多时,应该使用分区表。如果数据量非常多时使用维度表,其查询性能将非常差。
如果经常查询的字段没有设置为分区字段,而且查询语句中没有涉及分区字段,会导致数据库无法进行分区剪枝,并因扫描所有数据使查询缓慢。
例子:对于以下例子中的股票数据,只按股票代码进行分区,如果该数据经常按交易日期和股票代码进行查询,只设置股票代码作为分区列不但会导致按交易日期进行查询时会扫描所有分区,而且会导致分区大小因为每天有数据插入不断变大。
db = database("dfs://testDB1",HASH, [SYMBOL, 25])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`SecurityID)
对于上述例子中的股票数据,按交易日期和股票代码进行分区。如果该数据经常按交易日期和股票代码进行查询,可以设置交易日期和股票代码作为分区列。
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, HASH, [SYMBOL, 25])
db = database("dfs://testDB2", partitionType=COMPO, partitionScheme=[db1, db2])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID)
按照上述两种建表方案进行建表,然后导入 10 天的数据(每天 2000 万条记录)测试其点查性能。
select avg(TradePrice) from pt where SecurityID=`600 and TradeDate=2020.01.04
建表方案 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
股票代码哈希分区 | 174.5 | 193.1 |
日期值分区 + 股票代码哈希分区 | 38.1 | 50.4 |
通过上述性能测试实验结果,可以得出结论:选择分区字段时,应该考虑经常查询字段以提升查询效率。
为了最大程度优化数据仓库查询、分析、计算的性能,DolphinDB 对事务作了一些限制:
- 首先,一个事务只能包含写或者读,不能同时进行写和读。
- 其次,一个写事务可以跨越多个分区,但是同一个分区不能被并发写入。当一个分区被某一个事务 A 锁定之后,另一个事务 B 试图再次去锁定这个分区时,系统立刻会抛出异常导致事务 B 失败回滚。
建库建表时未考虑后续可能出现的并发写入。出现并发写入时,由于分区冲突,导致并发写入失败。
以下例子中,由于建库建表时未考虑后续出现的并发写入,未将各个并发数据不同的字段设置为分区,导致并发写入冲突。
//假设后续并发,是按照日期进行写入,只按股票代码进行分区
db = database("dfs://testDB",HASH, [SYMBOL, 25])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
//只按股票代码进行分区,而并发写入按照日期进行会导致并发写入冲突,报错“has been owned by transaction”
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`SecurityID)
以上建库建表代码按日期并发写入时会报错:xxx has been owned by transaction。
对于上述情况有以下解决方法:
- 建库建表时可以按照按日期分区的方式进行建库建表,并行写入程序也按日期划分写入数据。
- 根据分区情况调整并行写入程序,避免写入分区重合。
- 如果使用相关 api 进行写入,可以使用 api 中的并行写入函数,自动对写入数据进行划分,比如 c++ api 和 python api 中的 PartitionedTableAppender。
上述解决方法目的都是,避免同一个分区同时被多个写入事务写入的情况。
一些数据量随日期不断增加的表,没有使用日期字段作为分区字段。数据量随时间增加会导致分区过大,影响查询性能。
数据量随日期不断增加的表中,没有把日期字段设为分区列。
例子:对于以下例子中的股票数据,只按股票代码分区,导致按交易日期进行查询时会扫描所有分区,并且分区随每天的数据插入不断变大。
db = database("dfs://testDB1",HASH, [SYMBOL, 25])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`SecurityID)
对于数据量随日期不断增加的表,应将日期字段设为分区列。
对于上述例子中的股票数据,按照交易日期和股票代码进行了分区。
这样每个分区不会因为每天的数据插入而不断变大。由于按照交易日期进行了分区,新的分区会随着日期变化而生成。
db1 = database(, VALUE, 2020.01.01..2021.01.01)
db2 = database(, HASH, [SYMBOL, 25])
db = database("dfs://testDB2", partitionType=COMPO, partitionScheme=[db1, db2])
colName = `SecurityID`TradeDate`TradeTime`TradePrice`TradeQty`TradeAmount`BuyNo`SellNo
colType = `SYMBOL`DATE`TIME`DOUBLE`INT`DOUBLE`INT`INT
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`TradeDate`SecurityID)
按照上述两种建表方案进行建表,然后导入 10 天的数据(每天 2000 万条记录)测试其点查性能。
select avg(TradePrice) from pt where SecurityID=`600 and TradeDate=2020.01.04
建表方案 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
股票代码哈希分区 | 174.5 | 193.1 |
日期值分区 + 股票代码哈希分区 | 38.1 | 50.4 |
通过上述性能测试实验结果,可以得出结论:对于数据量与日俱增的表应使用日期字段作为分区字段,提升查询效率。
因为 OLAP 引擎采用列式存储,每个分区的每一列数据都存储为一个文件。列文件过多时,会出现读写时的性能瓶颈,因此 OLAP 引擎不适于存储列数过多的宽表。如果使用 OLAP 引擎存储数据,表的列数应低于 100。
由于 TSDB 引擎采用行列混存的存储策略,在存储宽表数据时,其产生的物理文件数量少于 OLAP 引擎。
例子:每个 ID 有 200 个因子,每个因子为一列,该表一共 203 列。使用 OLAP 引擎存储该表。
db= database("dfs://testDB1", VALUE, 2020.01.01..2021.01.01)
//202行的宽表,使用OLAP引擎(默认为OLAP)
colName = `ID`Date`Time
colName.append!(take("factor"+string(0..200),200))
colType = `SYMBOL`DATE
colType.append!(take(["DOUBLE"],200))
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`Date)
对于上述例子中表列数为 203,采用 TSDB 引擎存储该表能够避免读写时可能出现的性能瓶颈。
db= database("dfs://testDB2", VALUE, 2020.01.01..2021.01.01,engine="TSDB")
//203行的宽表,使用TSDB引擎
colName = `ID`Date`Time
colName.append!(take("factor"+string(0..200),200))
colType = `SYMBOL`DATE`TIME
colType.append!(take(["DOUBLE"],200))
tbSchema = table(1:0, colName, colType)
db.createPartitionedTable(table=tbSchema, tableName=`pt, partitionColumns=`Date,sortColumns=`ID`Time)
按照上述两种建表方案进行建表,然后导入 10 天的数据(每天 200 万条记录)测试其点查性能。
select avg(factor2) from pt where ID=`60 and Date=2020.01.04
引擎 | 平均耗时(ms) | 最大耗时(ms) |
---|---|---|
OLAP 引擎 | 62.6 | 95.9 |
TSDB 引擎 | 1.2 | 1.3 |
通过上述性能测试实验结果,可以得出结论:对于列数大于 100 列的表可以使用 TSDB 引擎,提升查询效率。
本文介绍了使用 DolphinDB 进行建库建表时,最容易忽略的 10 个细节。这些错误用法的产生,是因为用户对于 DolphinDB 分区机制和数据库引擎原理不了解导致的。阅读了上面的最容易忽略的 10 个细节,如果还想进一步了解 DolphinDB 原理层面细节,可以浏览以下网址:TSDB 存储引擎详解 (dolphindb.cn)、数据库分区 (dolphindb.cn)、分布式表数据更新原理和性能 (dolphindb.cn)。
最后归纳建库建表的要点:建库建表需要结合业务,首先根据业务特点选择合适的引擎(比如宽表选择 TSDB 引擎),其次根据业务特点选择分区字段和类型,然后根据分区大小在 100MB - 1GB 的原则设计分区粒度,最后根据业务特点完善对应引擎独有的参数(比如 TSDB 引擎特有的排序列)。