
编程语言 软件工程
文章平均质量分 52
l1t
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
利用DeepSeek用两种方法编写go语言zstd实用程序
本文介绍了两种在Go语言中实现ZSTD压缩/解压的方法:使用github.com/valyala/gozstd包和github.com/klauspost/compress/zstd包。第一种方法通过C语言包装实现,作者克服了网络问题通过镜像克隆源码,并解决了编译时的路径和未使用模块问题。第二种方法采用纯Go实现,代码结构更清晰。测试表明两种方法均能正常工作,压缩后的文件大小明显减小(示例中从55MB减至46MB)。文章详细记录了编译过程、错误处理以及实际测试结果,为Go语言中使用ZSTD压缩提供了实用参考原创 2025-08-07 16:15:08 · 125 阅读 · 0 评论 -
利用DeepSeek编写go语言按行排序程序
Go语言性能测试显示:带缓冲的排序程序(默认4MB缓冲区)处理时间约3.5秒,缓冲区大小对性能影响较小;无缓冲版本性能显著下降(处理时间激增至1分26秒)。测试程序展示了Go标准库的字符串排序和I/O缓冲实现,编译后生成静态二进制文件(无可见符号)。结果表明,Go在系统开发中性能表现良好,但I/O缓冲对程序效率至关重要。原创 2025-08-06 20:27:45 · 359 阅读 · 0 评论 -
利用DeepSeek改写并增强测试Duckdb和sqlite的不同插入方法性能
摘要:本文测试了SQLite和DuckDB在不同插入方法下的性能表现。SQLite测试包含字符串拼接、绑定变量循环、executemany批量三种方式;DuckDB增加VALUES批量插入方法。结果显示:SQLite的单行插入性能显著优于DuckDB(约2个数量级),其executemany批量与VALUES批量效果相当;DuckDB的VALUES批量插入效率较高,range函数批量插入最快(0秒)。测试表明,SQLite的绑定变量比字符串拼接有明显提升,事务对SQLite性能影响不大,但对DuckDB有用原创 2025-08-06 16:29:36 · 375 阅读 · 0 评论 -
DuckDB不同方法插入1万行数据的性能比较
实验比较了DuckDB中四种DML操作的执行效率:字符串拼接、绑定变量循环、绑定变量批量以及SQL原生批量。结果显示,SQL原生批量(0秒)性能最优,绑定变量批量(1.23-2.42秒)次之,而字符串拼接(3.82-5.01秒)和绑定变量循环(4.59-5.79秒)效率最低。事务处理可略微提升性能,但总体来看,涉及变量的方法效率远低于SQL原生批量操作,建议优先采用批量方式执行DML。原创 2025-08-06 15:28:20 · 76 阅读 · 0 评论 -
利用DeepSeek编写带缓冲输出的V语言程序
本文展示了V语言中文本行排序程序的两次优化:1)引入缓冲输出机制,通过创建64KB缓冲写入器减少I/O操作次数,使执行时间从4.034秒降至1.904秒;2)优化比较函数,用指针遍历代替字符串比较,直接操作字符指针并逐个比较字符,最终执行时间进一步缩短至1.497秒。优化后的程序采用行指针数组排序策略,通过替换换行符为终止符并记录行起始地址,结合自定义比较函数实现高效排序。测试结果表明,缓冲I/O和底层指针操作能显著提升V语言程序的性能。原创 2025-08-05 21:39:25 · 242 阅读 · 0 评论 -
利用DeepSeek辅助编写带输出缓冲的Zig程序
本文记录了将Rust程序的输出缓冲优化思路应用到Zig语言的尝试过程。作者首先发现DeepSeek提供的初始方案使用了虚构的bufferedWriterSize函数,经查阅文档更正为正确的bufferedWriter函数(固定4096缓冲区)。随后通过DeepSeek指导,学会正确使用BufferedWriter类型,并设置64KB缓冲区。性能测试显示:在WSL环境下,大缓冲区使输出时间从3秒降至1.16秒,提升显著;而在原生Linux系统上,不同缓冲方案的性能差异较小。原创 2025-08-04 19:55:03 · 313 阅读 · 0 评论 -
多种单文件版分析型数据库调用底层函数对比
本文分析了五种数据库系统(duckdb、glaredb、cedardb、clickhouse、datafusion-cli)的导入函数情况。通过提取各系统的未定义符号(U)并统计发现:clickhouse导入函数最多(533个),glaredb最少(159个)。52个函数被所有系统共享。所有系统都使用了内存映射函数(munmap),而setvbuf仅被duckdb、cedardb和clickhouse使用。比较结果显示,cedardb与clickhouse共享函数最多(291个)原创 2025-08-03 11:00:18 · 537 阅读 · 0 评论 -
结合Linux nm命令和duckdb分析不同语言的底层调用函数
本文通过提取和分析不同编程语言(V、Rust、C、Zig)二进制文件的符号表,对比了它们的系统调用情况。使用nm工具提取符号后,通过DuckDB进行统计和交集分析,发现: V语言二进制文件包含78个符号,Rust有57个,普通C程序16个 V和Rust有22个共同符号,包括内存操作、线程和系统调用相关函数 使用内存映射的C程序与传统C程序有8个共同符号,都调用了qsort Rust与内存映射C程序有6个共同符号,包括munmap等内存管理函数 V与C程序的交集显示两者都调用了qsort函数原创 2025-08-03 09:44:35 · 218 阅读 · 0 评论 -
利用DeepSeek将Rust程序的缓冲输出改写为C语言实现提高输出效率
本文对比了Rust和C语言在文件输出性能上的差异。测试发现Rust通过BufWriter(64KB缓冲)比C语言直接输出快3倍,原因是C语言默认不带缓冲。作者在C代码中加入了64KB缓冲区(setvbuf)后,输出到文件的时间从3.568秒降至1.367秒,证明缓冲机制能显著提升I/O性能。但缓冲区大小并非越大越好,过大会因栈限制或堆分配开销反而降低性能。文中提供了完整的C语言带缓冲输出实现代码,通过qsort排序后使用缓冲输出,并强调了正确刷新缓冲区(fflush)的重要性。原创 2025-08-02 22:02:38 · 427 阅读 · 0 评论 -
DeepSeek总结的不同语言输出效率的差异比较
测试了不同语言在WSL Ubuntu 22.04环境下对百万行文件的排序性能,关键发现:系统sort工具最快(0.597s),C和Zig接近原生性能Rust(1.648s)表现优于脚本语言I/O输出使耗时普遍增加3-4倍C/Zig系统资源占用最低建议优先使用系统sort工具,需要定制时考虑C/Zig实现。原创 2025-08-02 09:03:30 · 567 阅读 · 0 评论 -
使用gcc代替v语言的tcc编译器提高编译后二进制文件执行速度
摘要:使用V语言的-prod选项编译时,原本的警告会变成错误。在解决未使用变量问题后,使用默认的TCC编译器未观察到性能提升。根据文档建议,通过设置环境变量VFLAGS=-cc gcc改用GCC编译器后,程序运行速度提升了1秒,验证了更换编译器对性能优化的效果。原创 2025-08-01 22:58:38 · 216 阅读 · 0 评论 -
修改DeepSeek翻译得不对的V语言字符串文本排序程序
V语言初体验:从C程序翻译遇到的坑 摘要:作者尝试将C程序翻译为V语言时遇到多个问题:1)字符串比较方法错误,需改用compare_strings函数;2)字符赋值类型不匹配,最终用u8(0)解决;3)排序函数参数类型不符。体验后发现:编译快但运行慢(百万行排序需6秒);工具链依赖多(如c2v需clang);REPL交互不错但学习曲线陡峭。认为V语言作为通用语言实用性有限,修改C语法反而增加学习成本。原创 2025-08-01 21:14:08 · 343 阅读 · 0 评论 -
另外几种语言挑战100万行字符串文本排序
文章摘要:张泽鹏先生实现了三种语言的文本行排序程序:JavaScript(4.455s)、Rust(2.333s)和Zig(3.748s)。其中Rust版本性能最优,使用了缓冲读写和快速排序。Deepseek还提供了C语言实现思路,通过预分配内存、记录行偏移并使用qsort优化性能。测试显示Rust比Node.js快约47%,体现了不同语言在文件处理性能上的差异。(149字)原创 2025-07-31 20:30:15 · 372 阅读 · 0 评论 -
100万行随机字符串文本文件采用不同语言排序比较
本文比较了三种编程语言(C、Python、Zig)对文本文件进行排序的性能。张泽鹏先生提供了C和Python的实现,DeepSeek编写了Zig版本。测试使用一个100万行随机生成的文本文件,结果显示C语言版本最快(0.944s),Python次之(1.769s)。C语言通过内存映射和qsort实现高效处理,Python则使用内置sorted函数。文章展示了不同语言处理文本排序的技术实现和性能差异。原创 2025-07-31 15:11:25 · 229 阅读 · 0 评论 -
在Linux上使用DuckCP实现从csv文件汇总数据到SQLite数据库的表
本文记录了在Python环境中安装和使用DuckCP ETL工具的过程。首先通过修改wheel文件使其支持Python 3.11.2,使用Python脚本重新压缩安装包并成功安装。创建元数据库时遇到Python版本兼容问题,改用3.13.1后解决。在配置数据源和目标存储库时:1)创建文件仓库作为TSV数据源;2)正确配置SQLite目标数据库路径需要明确指定完整文件路径而非目录。最后强调需预先手工创建SQLite数据库和表结构,并创建必要的存储单元。整个过程展示了版本兼容性和配置细节对ETL工具使用的重要性原创 2025-07-28 19:25:00 · 446 阅读 · 0 评论 -
开源嵌入式数组引擎TileDB的简单使用
TileDB是一个C++编写的多维数组存储引擎,支持多种后端存储。安装时可从GitHub下载预编译库(2.28.1版本)或源码编译。编译示例程序(as_built.c、query_condition_dense.c)需指定头文件和库路径,并注意GCC版本兼容性。示例展示了数组条件查询功能,类似数据库操作,支持空值、字符串比较、数值范围等条件过滤。使用时需设置LD_LIBRARY_PATH环境变量指向TileDB库路径。原创 2025-07-28 08:52:23 · 270 阅读 · 0 评论 -
修改一个字节使python 3.13.2也能安装duckcp
摘要:作者在尝试安装开源数据同步工具DuckCP时遇到Python版本不兼容问题(要求≥3.13.5但系统为3.13.2)。通过修改安装包中METADATA文件的版本要求(改为≥3.13.1),成功完成安装。具体步骤包括解压whl文件、修改版本约束、重新打包安装。该方法适用于类似版本限制不严格的软件安装场景,展示了灵活解决问题的思路。(149字)原创 2025-07-26 21:09:39 · 312 阅读 · 0 评论 -
利用DeepSeek解决kdb+x进行tpch测试的几个问题及使用感受
摘要:本文解决了在kdb+中导入TPCH数据库时遇到的三个关键问题:1)数据类型匹配问题,详细说明了基本数据类型及正确的导入语法;2)数据库嵌套目录问题,指出正确保存路径应为当前数据库目录;3)分区表存储优化,提供并行处理(peach)和按月批量写入的方案以提升性能。原创 2025-07-26 19:24:47 · 1236 阅读 · 0 评论 -
利用DeepSeek测试kdb+x的tpch sf=10数据
本文详细介绍了如何在kdb+/q数据库中进行TPC-H基准测试。内容涵盖:1)准备工作,包括下载TPC-H工具包并生成测试数据;2)两种建表方案:非分区表和按日期分区的优化表结构;3)数据导入方法,包括批量加载和分区加载;4)查询性能对比测试,提供了SQL和q语言两种实现方式(如Q1和Q3查询),并展示了查询计时方法。重点强调了分区策略、索引优化等性能提升手段,以及两种查询语言的语法差异和执行效率比较。原创 2025-07-25 20:02:40 · 1112 阅读 · 0 评论 -
在kdb+x中使用SQL
本文介绍了Kx Systems新发布的kdb+x产品的安装与SQL使用方式。安装需登录官网获取动态下载链接,离线安装时需修改脚本跳过验证步骤。SQL支持两种执行方式:1)在q命令行中通过s)前缀执行SQL语句;2)通过Python的pykx包执行,支持变量占位符语法。文中详细演示了两种环境下的建表、插入和查询操作,并提供了2000万行时间序列数据的处理示例。Python环境下需安装pykx包,建议使用清华源加速安装。原创 2025-07-25 14:45:02 · 480 阅读 · 0 评论 -
将一个Windows上的lzma压缩解压程序移植到Linux的方法
本文记录了在Linux系统下编译使用LZMA压缩解压程序的过程及遇到的问题。作者替换了失效的LZMA SDK下载链接,解决了头文件大小写不匹配、Windows特有函数在Linux下的替代问题,并通过修改编译命令包含所有C文件解决了函数未定义引用问题。最终成功编译并测试了程序,压缩率与xz工具相当,但速度更慢。修复后的源代码已附文末。整个过程中,作者详细记录了从环境搭建到问题解决的完整步骤,为Linux环境下使用LZMA算法提供了实用参考。原创 2025-07-24 16:28:52 · 418 阅读 · 0 评论 -
利用DeepSeek部分解决从源码升级xz找不到正确版本liblzma.so动态库问题
本文记录了从源码安装xz工具时遇到的动态链接库版本冲突问题及解决方案。作者先后安装了liblzma-5.0.4和xz-5.4.7版本,发现新版本安装后因系统优先链接到旧版库(/lib/aarch64-linux-gnu/liblzma.so.5.0.0)而报错。通过设置LD_LIBRARY_PATH环境变量临时解决了问题,使程序正确链接到新版库(/usr/local/lib/liblzma.so.5.4.7)。创建/etc/ld.so.conf.d/lzma.conf并运行ldconfig的永久解决方案未成原创 2025-07-24 08:51:25 · 299 阅读 · 0 评论 -
利用DeepSeek编写一个使用lzav算法的文件压缩工具
本文介绍了一个基于LZAV压缩算法的命令行工具实现。该工具通过文件头存储源文件大小解决了LZAV解压缩时需要预知原始尺寸的问题,并提供两种压缩级别(-l参数控制)。压缩过程包含读取源文件、分配缓冲区、执行压缩(根据级别调用不同函数)、写入4字节小端格式文件头和压缩数据等步骤。解压时则先读取文件头获取原始大小,再执行解压缩操作。工具还提供压缩率统计和处理时间测量功能,代码展示了完整的文件I/O、内存管理和错误处理逻辑。原创 2025-07-23 21:07:15 · 360 阅读 · 0 评论 -
利用DeepSeek编写支持lz4和zstd格式的压缩工具
本文介绍了Facebook开发的LZ4和Zstd两种压缩工具的特点、安装方法及实际应用。LZ4压缩速度快但压缩率低,适用于实时数据;Zstd压缩率高但速度稍慢,适合文件压缩。文章详细提供了从源码安装两种工具的方法,并解释了编译时的依赖支持情况。针对LZ4压缩时出现的"ERROR_dstMaxSize_tooSmall"错误,分析了LZ4F_compressFrameBound函数的计算原理及解决方案。最后展示了一个支持两种算法的CLI程序实现,包含流式压缩、压缩级别调整、性能计时等功能,原创 2025-07-23 15:48:15 · 300 阅读 · 0 评论 -
借助DeepSeek调用libchdb中的lz4和sm4函数实现对文件压缩加密
本文实现了一个结合LZ4压缩和SM4加密的文件处理程序。通过ext3.h头文件声明了libchdb.so库中的函数原型,包括LZ4压缩/解压和SM4加密/解密相关函数。程序分为四个独立模块:compress_data()实现LZ4_HC压缩,encrypt_data()使用SM4_CBC加密,decrypt_data()执行解密,以及解压函数。采用16KB缓冲区处理大文件,并包含完善的错误检查机制。将压缩/加密流程分离,便于调试和验证各阶段处理效果,同时通过extern "C"确保与C++的兼容性。原创 2025-07-21 20:29:14 · 507 阅读 · 0 评论 -
利用DeepSeek编写批量输出多个主机的磁盘状况的脚本
本文介绍了一种批量检查多台主机磁盘空间的自动化方法。原有的人工方式需要逐台登录主机执行命令,效率低下。作者通过ssh远程执行命令的特性,编写了一个bash脚本来自动化这个过程:首先将主机IP列表保存在iplist文件中,然后使用循环读取IP并执行远程命令。为解决循环中ssh执行异常的问题,作者改进脚本将其输出为另一个可执行脚本chsh.sh,再批量执行该脚本即可成功获取所有主机的磁盘信息。这种方法有效提高了批量管理多台主机的效率,避免了重复劳动,同时支持将检查结果重定向到文件保存。原创 2025-07-21 16:33:45 · 137 阅读 · 0 评论 -
利用DeepSeek实现调用libchdb.so动态连接库中的未公开导出函数
本文介绍了两种调用动态链接库中导出函数的方法。方法一使用dlopen/dlsym动态加载符号,通过显式加载库文件并逐个检查函数指针,适用于运行时动态调用;方法二采用静态链接方式,直接声明外部函数,需确保函数已在库中导出。示例代码演示了这两种方法调用BIGNUM数学运算函数的过程,包括数值转换、加法乘法运算等操作。动态加载方式需要进行错误检查,而静态链接方式更简洁但需保证函数可用性。两种方法各有利弊,可根据实际需求选择适合的调用方式。原创 2025-07-19 19:05:01 · 427 阅读 · 0 评论 -
借助DeepSeek查看动态链接库的导出函数
这篇文章探讨了如何挖掘动态链接库中未公开的函数接口。作者首先通过头文件发现仅公开了28个函数,而500MB的libchdb.so可能包含更多功能。随后尝试使用nm、objdump等工具分析动态库导出的函数符号,发现大量Rust编译器生成的带哈希后缀的函数名(如num_bigint::biguint::shift::biguint_shl2::h79dc2a6c64f30890)。通过rustfilt工具可以解析这些符号的可读路径,但直接调用仍需依赖extern "C"接口或官方文档。原创 2025-07-19 09:39:08 · 1034 阅读 · 0 评论 -
利用DeepSeek为chdb命令行客户端添加输出重定向和执行SQL脚本功能
摘要:该代码实现了一个ChDB客户端类,支持CSV数据格式处理和输出重定向功能。主要特点包括:1) 禁用重定向时的CSV表格输出和统计/计时信息;2) 提供多种格式别名映射(CSV/JSON/Markdown等);3) 实现表格数据的智能显示(自动截断长数据并显示首尾行);4) 支持CSV数据解析和表头提取;5) 包含文件输出流管理功能。代码通过格式化输出和行列计算实现了优雅的数据展示,同时处理了引号转义等CSV解析细节。原创 2025-07-15 22:03:39 · 156 阅读 · 0 评论 -
借助DeepSeek编写输出漂亮表格的chdb客户端
chdb是ClickHouse的嵌入式引擎,支持Python、Rust和C/C++调用。本文介绍了如何用C++实现一个支持表格输出和交互式查询的客户端。关键功能包括:1) 表格格式化输出(自动处理超长结果);2) 计时开关(.timer);3) 多种输出格式支持(通过别名映射);4) 错误处理。实现要点包括:使用chdb_query执行查询,通过CSVWithNames格式获取表头,动态计算列宽,以及结果分页显示。程序结构采用ChDBClient类封装核心功能,包括查询执行、结果处理和用户交互。原创 2025-07-14 21:38:20 · 357 阅读 · 0 评论 -
duckdb和pyarrow读写arrow格式的方法
Arrow格式被广泛用于数据分析工具中。DuckDB从1.3版本后将Arrow插件从核心插件改为社区插件(现名nanoarrow)。实验表明:1) DuckDB生成的Arrow文件需先加载插件才能正确写入;2) PyArrow无法读取DuckDB生成的Arrow文件,但生成的Arrow文件能被DuckDB读取;3) PyArrow读写Arrow文件时数据结构会发生变化(Int64Array变为ChunkedArray),而Feather格式则保持结构一致。这揭示了不同工具对Arrow格式的实现存在兼容性问题原创 2025-07-13 19:44:16 · 427 阅读 · 0 评论 -
使用 duckdb::arrow 实现表格输出的 DuckDB CLI 代码
摘要:通过在duckdb-rs主页发现支持Arrow表格的示例代码,将其提交给DeepSeek并删除语法高亮后,成功实现了能正确处理各种查询的DuckDB CLI工具。该工具支持两种模式:管道输入模式和交互模式,使用Arrow格式输出查询结果并显示执行时间。测试表明它能够正常处理数值查询、范围查询以及表创建/插入等操作,执行时间在毫秒级别。原创 2025-07-08 22:06:19 · 330 阅读 · 0 评论 -
利用DeepSeek实现rust调用duckdb动态链接库的duckdb CLI
这是一个使用Rust实现的DuckDB命令行工具,主要特点包括: 支持两种模式: 管道模式:从stdin读取SQL并执行 交互模式:带语法高亮的REPL环境 核心功能: 使用duckdb-rs库连接DuckDB内存数据库 通过syntect实现SQL语法高亮 提供查询执行时间统计 支持命令行历史记录 当前限制: 结果输出仅支持String类型,其他类型需要转换 SQLHelper的高亮功能尚未完全集成到REPL中 项目依赖duckdb、syntect、atty和rustyline等库,实现了基本的数据库查询原创 2025-07-08 16:09:44 · 293 阅读 · 0 评论 -
12行脚本实现duckdb自动完成tpch测试
摘要:本文介绍通过DuckDB的TPCH插件自动生成和执行TPCH查询的方法。首先使用tpch_queries()函数将前3条查询SQL输出到qs.txt文件,然后读取该文件执行查询并将结果保存到res.txt。脚本包含数据生成(0.3比例)、查询输出和计时功能。可通过命令行管道或DuckDB交互模式执行脚本,输出结果显示各查询的执行时间(约0.01-0.014秒)。该方法实现了TPCH基准测试的自动化执行和性能测量。原创 2025-07-06 10:19:11 · 238 阅读 · 0 评论 -
在sf=0.1时测试fireducks、duckdb、polars的tpch
文章摘要:本文介绍了使用fireducks工具运行TPC-H基准测试的完整流程。首先从GitHub下载源代码并解压,通过设置SCALE_FACTOR=0.1运行脚本,该脚本会自动安装依赖包、编译数据生成器、生成测试数据并转换为parquet格式。测试结果显示fireducks完成22个查询总耗时130.8秒,各查询响应时间在0.11-0.52秒之间。与DuckDB(88.98秒)和Polars(61.85秒)的对比测试表明性能差异显著,其中单个查询速度差异达10倍,但直接使用DuckDB测试却显示更快结果,原创 2025-07-05 20:45:54 · 297 阅读 · 0 评论 -
在databend python模块中测试tpch
本文介绍了在databend python模块中测试tpch的步骤和脚本,供参考。原创 2025-07-05 13:06:49 · 338 阅读 · 0 评论 -
使用datafusion和tpchgen-rs进行完整的TPCH 22个查询的基准测试
摘要:本文介绍了DataFusion基准测试的完整流程。首先从源码编译bench二进制文件,遇到资源不足时可使用单任务编译模式。然后使用高效工具tpchgen-rs生成parquet格式的TPCH测试数据(SF3规模仅需6.5秒),并按要求组织文件目录结构。最后执行TPCH测试,给出各查询的平均执行时间(如Q1平均1359.65ms,Q22平均175.32ms)。测试需注意工作目录和参数设置,详细步骤可参考相关文档。原创 2025-06-28 19:34:36 · 178 阅读 · 0 评论 -
DeepSeek改写glaredb的示例实现自定义CLI界面程序
本文记录了在Rust项目中集成GlareDB过程中遇到的问题及解决方案。首先尝试编译时因缺少protoc工具失败,下载正确的protoc版本并设置PATH后解决。随后在添加CLI界面时遇到tokio模块未解析和SingleUserEngine泛型参数缺失的错误,通过将代码直接放入main函数规避了这些问题。最终成功构建了一个包含基本CLI功能的数据库引擎,支持SQL查询执行和结果展示。整个过程展示了Rust项目依赖管理和编译问题的典型解决思路。原创 2025-06-28 13:23:01 · 413 阅读 · 0 评论 -
利用DeepSeek编写的Datafusion自定义表函数read_csv和read_xls
本文介绍了如何在Rust的Datafusion中实现自定义函数。作者通过Docker搭建Rust环境,参考官方指南和DeepSeek辅助,添加了支持多种字符集的read_csv和read_xls表函数。重点描述了版本依赖问题的解决过程:初始编译因版本不匹配失败,通过调整Cargo.toml中datafusion(48.0)、arrow(55.1)等依赖版本后成功。文中提供了最终可用的Cargo配置和read_csv、read_xls函数实现代码,展示了如何读取不同编码的CSV文件、xlsx文件并以表格输出原创 2025-06-25 13:45:24 · 442 阅读 · 0 评论 -
几种单机版数据库CLI界面的对比
标题:五大数据分析引擎对比 摘要:本文直观展示了五种主流数据分析引擎的命令行界面,包括GlareDB、ClickHouse、Polars、DuckDB和DataFusion。原创 2025-06-24 21:12:55 · 134 阅读 · 0 评论