DataPipeline数据融合重磅功能丨一对多实时分发、批量读取模式

DataPipeline最新版本支持一个数据源实时或定时分发到多个目的地,解决了资源浪费和管理不便的问题。扩展了Hive使用场景,允许自定义分区字段并支持Hive作为数据源进行定时分发。此外,新推出的批量读取模式2.0,让用户在无BINLOG权限的情况下也能进行增量数据同步,通过WHERE条件定制化同步策略,降低了配置成本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

为能更好地服务用户,DataPipeline最新版本支持:

  1. 一个数据源数据同时分发(实时或定时)到多个目的地;

  2. 提升Hive的使用场景:

    写入Hive目的地时,支持选择任意目标表字段作为分区字段;

    可将Hive作为数据源定时分发到多个目的地。

  3. 定时同步关系型数据库数据时,可自定义读取策略来满足各个表的同步增量需求。

本篇将首先介绍一下一对多数据分发及批量读取模式2.0的功能,后续功能会在官微陆续发布。

推出「一对多数据分发」的背景

在这里插入图片描述
在历史版本中,DataPipeline每个任务只允许有一个数据源和目的地,从数据源读取的数据只允许写入到一张目标表。这会导致无法完美地支持客户的两个需求场景:

需求场景一:

客户从一个API数据源或者从KafkaTopic获取JSON数据后,通过高级清洗解析写入到目的地多个表或者多个数据库中,但历史版本无法同时写入到多个目的地,只能创建多个任务。这会导致数据源端会重复获取同一批数据(而且无法完全保证数据一致性),浪费资源,并且无法统一管理。

需求场景二:

客户希望创建一个数据任务,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值