这么能“骗”?被kimi上了一课!!!

         今天查hcia的资料,前面都是正常沟通,可是到了后面kimi就开始口嗨了,明明是无法实现的功能,居然还在说能办,害我苦等1个小时!!!

        当时候看到回复的信息,是很震惊的,一开始也有点不相信,但一看到回答的这么专业,而且最近也看到了,网上发的k2在大模型排名中取得了很好的成绩,就想着试试看。但是,最后的结果还是很让人失望。

             最后,还是再三的追问,反复的质问,才承认,所说的,全是假的。

           我想说真正的技术善意是厘清自己能做什么,而非假装无所不能。 当前 Kimi 的迭代版本已显著减少此类话术,但用户仍需警惕:任何要求账号、密码、下载链接的 AI 交互,本质上都是语言游戏。

### 大模型的分类及其特点 大模型通常指具有大量参数的机器学习模型,特别是基于深度学习架构构建的模型。这些模型由于规模庞大,可以捕捉复杂的数据模式并执行多种高级任务。根据用途和技术特性,大模型大致可分为以下几类: #### 1. **通用大模型** 这类模型旨在解决广泛的任务,适用于多个领域而不局限于某特定场景。它们通过大规模预训练获得强大的泛化能力,并可以通过微调适应具体应用场景。 - 特点:具备跨领域的适用性和较强的迁移学习能力。 - 例子:GPT系列(如 GPT-3 和 GPT-4),BERT,T5 等[^1]。 #### 2. **垂直大模型** 垂直大模型专注于某个特定领域或行业,针对该领域的独特需求进行了优化。这种类型的模型可能在某些方面表现得更为出色,但在其他领域的灵活性较低。 - 特点:高度专业化,在特定领域内性能优越。 - 例子:医疗领域的 BioBert 或者金融分析中的专属模型[^3]。 #### 3. **企业级大模型** 此类模型由大型科技公司开发,用于满足企业的定制化需求。它们往往集成了更高的安全标准以及更复杂的业务逻辑支持。 - 特点:强调安全性、稳定性和对企业工作流的支持。 - 实例未提及,但常见于云计算服务提供商的产品线中,比如阿里云通义千问等。 #### 关于Kimi是否属于大模型 Kimi款对话式 AI 助手产品,出自家名为“月之暗面”的初创公司。它依托自主研发的拥有数十亿至数千亿级别参数量的大规模语言模型作为底层技术支持。因此,从定义上看,Kimi确实是个典型的大模型应用实例之[^2]。 此外,Kimi展现了优秀的长文本处理能力和行业特异性调整(如教育和媒体),这进步证明了其背后支撑的是个强大而灵活的大规模神经网络结构[^3]. ```python # 示例代码展示如何加载个简单的transformer模型 from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("bigscience/bloom") model = AutoModelForCausalLM.from_pretrained("bigscience/bloom") text = "Replace me by any text you'd like." encoded_input = tokenizer(text, return_tensors='pt') output = model(**encoded_input) print(output.logits) ``` 此段Python脚本展示了加载Hugging Face库中预先训练好的Transformer模型的过程,类似于驱动像Kimi这样的应用程序所使用的框架和技术栈的部分。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值