
AI
文章平均质量分 78
手把手教你学AI
sss
展开
-
AI绘画软件Stable Diffusion模型/Lora/VAE文件存放位置
显存要求6GB(4GB应该也可以),只需要(也只能)使用一张图完成训练,一般用于训练人物(画风没法抓住主次),优点是训练要求极低,成功率高,缺点是容易过拟合,并且不像Embedding可以跨模型应用,这个训练时使用什么模型应用时就要用什么,哪怕调一下CLIP参数生成结果都会完全跑飞。因此,如果你想训练这个模型,你应该加载完整的模型,并使用use_ema=False。小模型一般都是截取大模型的某一特定部分,虽然不如大模型能力那样完整,但是小而精,因为训练的方向各为明确,所以在生成特定内容的情况下,效果更佳。原创 2024-01-12 22:48:25 · 6344 阅读 · 1 评论 -
太实用了!关于ControlNet,这篇你一定要看
这里是行者AI,我们专注于人工智能在游戏领域的研究和应用,凭借自研算法,推出游戏AI、智能内容审核、数据平台等产品服务。controlNet控制生成anypaint看到这篇文章的你,一定也是AI绘画的爱好者吧。我们有一款可以上手入门,也可以满足的AI美术在线学习工具。在线生图,无需硬件和部署。anypaint功能包括。不论你是初学者还是专业人士,都能在图刷刷中找到适合自己的绘图方式和独特风格,为你的创意提供无限可能。入股绝对不亏。的出现代表着 AI 生成开始进入真正。原创 2024-01-10 15:11:35 · 2109 阅读 · 0 评论 -
国内最大Llama开源社区发布首个预训练中文版Llama2
7月31日,Llama中文社区率先完成了国内,从模型底层实现了Llama2中文能力的大幅优化和提升。毋庸置疑,中文版Llama2一经发布将开启国内大模型新时代!全球最强,但中文短板Meta不负众望,于7月19日凌晨开源了第一代LLaMA的升级版:Llama2,7B、13B和70B三种大小的模型全开放并且可免费商用。作为AI领域最强大的开源大模型,Llama2基于2万亿token数据预训练,并在100万人类标记数据上微调得到对话模型。原创 2023-08-02 17:43:34 · 967 阅读 · 0 评论 -
GPT-4内幕大泄露1.8万亿巨量参数13万亿token训练斥资6300万美元
图中的线是谷歌DeepMind的Chinchilla缩放观测值(平滑了较大的误差条),线上的每一点都显示了使用该参数和token数训练模型所需的理论FLOPS。LLM理论带宽要求:经假设可得出,在iPhone 14上可跑的最大模型大小为~10亿个FP16参数,或~40亿个int4参数,这是基于智能手机的LLM的基本限制,任何更大的模型会无法被采用。模型的层数为120,所以可以简单地将它们分配给15个不同的节点,但是因为第一个节点需要进行数据加载和嵌入,所以在推理集群的主节点上放置较少的层是有意义的。原创 2023-07-11 16:07:46 · 403 阅读 · 1 评论 -
图灵奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心法
高中时,白天上完课后,我回家就会做一些木工活,那是我最开心的时刻。在第一个项目中,我发现,如果你想让神经网络绘制图形,将图形分割成多个部分,并且这些图形的部分都能被类似的神经硬件绘制出来,那么储存整个图形的神经中枢就需要记住整体图形的位置、方向和大小。前往美国,并在卡耐基梅隆大学获得教职,不过,由于对里根政府存有不满,以及在人工智能研究基本由美国国防部支持的情况下,他们于1987年前往加拿大,Hinton开始在多伦多大学计算机科学学院任教,并在加拿大高级研究所CIFAR开展机器和大脑学习项目的研究。原创 2023-07-11 16:04:44 · 601 阅读 · 0 评论 -
设置和使用DragGAN:搭建非官方的演示版
ragGAN的官方版还没有发布,但是已经有非官方版的实现了,我们看看如何使用。DragGAN不仅让GAN重新回到竞争轨道上,而且为GAN图像处理开辟了新的可能性。正式版本将于本月发布。但是现在已经可以在一个非官方的演示中试用这个新工具了。原创 2023-07-11 15:25:30 · 288 阅读 · 0 评论 -
智能教育卷入GPT混战,三路玩家火拼,“AI老师”成标配
他认为,一个通用大模型作为交互接口,然后用Toolformer(可以自学使用工具的语言模型)的思路,根据具体的任务,自动调用对应的领域模型获得结果,这种模型组合的方式性价比更高。针对大模型可能给教育行业带来的影响,同济大学大学校长在接受媒体采访时称,以ChatGPT为代表的大模型将改变人类获取知识的方法,过去是老师和学生的二元结构,而今天,机器在很多领域都干得比老师还好,因此,未来的教学方式,可能会拓展为老师、机器、学生三元结构。国内最先宣布推出自研大模型,并在教育领域落地的互联网科技企业是网易有道。原创 2023-07-08 17:08:19 · 368 阅读 · 0 评论 -
0代码训练GPT-5?MIT微软证实GPT-4涌现自我纠错能力迭代
2. 即使对于GPT-4模型,性能提升也最多只能算是适度的(在预算为7000个token的情况下,通过率从66%提高到71%,约等于45个独立同分布的GPT-4样本的成本),并且取决于初始程序的多样性足够丰富。3. 使用GPT-4生成的反馈替换GPT-3.5对错误的解释,可以获得更好的自修复性能,甚至超过基准的无修复GPT-3.5方法(在7000个token下,从50%提高到54%)。近日,MIT和微软的学者发现,在GPT-4和GPT-3.5之中,只有GPT-4表现出了有效的自修复。原创 2023-07-08 16:47:34 · 204 阅读 · 0 评论 -
ChatGPT,你的智能助手,社交办公利器
无论是工作中的问题求解、日常生活的疑惑迷茫,还是灵感创作的启示不断,ChatGPT都将成为你最可靠、最智慧的伙伴!其次,ChatGPT拥有极高的语言处理能力:它能够理解你的问题,并以通俗易懂的语言回答你,就像与一个智慧的朋友对话一样。无论你是需要工作上的帮助,还是寻找创意灵感,ChatGPT都能及时提供有价值的信息和建议。首先,ChatGPT具备强大的多领域知识:从科学技术到人文艺术,从旅行攻略到美妆时尚,它涵盖了各个领域的丰富知识库,无论你遇到什么问题,它都能给出精准、可靠的答案。原创 2023-07-05 21:36:48 · 232 阅读 · 0 评论 -
大型语言模型与知识图谱协同研究综述:两大技术优势互补
而在用 LLM 来增强知识图谱方面,LLM 已被用于多种与知识图谱相关的应用,比如知识图谱嵌入、知识图谱补全、知识图谱构建、知识图谱到文本的生成、知识图谱问答。然而,知识图谱很难构建,并且由于真实世界知识图谱往往是不完备的,还会动态变化,因此当前的知识图谱方法难以应对。在将知识图谱整合进 LLM 方面,之前的研究可以分为三类:将知识图谱整合进训练目标、将知识图谱整合进 LLM 的输入、将知识图谱整合进附加的融合模块。但是,文本语料库中的知识通常是隐式的和非结构化的,而知识图谱中的知识是显式的和结构化的。原创 2023-07-03 19:38:30 · 1973 阅读 · 0 评论 -
OpenAI 又赢麻了谷歌 DeepMind 创始人刚称 Gemini 能碾压 GPT-4
根据此前的介绍,Gemini 一开始就以多模式、高效的工具和 API 集成为目标而创建,旨在支持未来的创新,例如内存和规划。Hassabis 的任务就是加快谷歌的 AI 开发进度,同时管理种种未知的潜在风险。要进一步开发 ChatGPT 及类似功能的语言模型,DeepMind 认为还有另一个重要的附加步骤,就是使用基于人类对 AI 模型答案做出的反馈,进而借助强化学习提高其性能。现在,Hassabis 表示,他的团队将 GPT 技术与 AlphaGo 的特性加以结合,希望赋予系统规划和解决问题的新能力。原创 2023-06-29 15:29:06 · 325 阅读 · 0 评论 -
月薪2万,被新同事15秒气走。
用AI辅助工作后,再紧急,小彭也能秒产几个方案给甲方挑选,已连续两月拿到A绩效,新季度涨薪也有他一份。借助AI,在10分钟内根据活动拨款预算,匹配活动主题定位,提供不同礼盒方案,让老板自由挑选。任何上班族,无论你的工作涉及文字、图片、数字,或是办公软件全家桶,它都能成为你的高效助理。教你跟AI高效沟通的模板,简单的提问公式,或者几个提示词,就能让AI秒出成果。做画册宣传时,甲方偶尔要求实物图,但摄影图版权贵,又难以找到符合主题的。特殊节点,需要的宣传物料很多,又要格调,又追求数量,两只手做不过来。原创 2023-06-25 19:39:12 · 487 阅读 · 0 评论 -
【发布】ChatGLM2-6B:性能大幅提升,8-32k上下文,推理提速42%
Multi-Query Attention 同时也降低了生成过程中 KV Cache 的显存占用,此外,ChatGLM2-6B 采用 Causal Mask 进行对话训练,连续对话时可复用前面轮次的 KV Cache,进一步优化了显存占用。因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,初代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够生成至少 8192 个字符。,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。原创 2023-06-25 19:04:33 · 1322 阅读 · 0 评论 -
Prompt不等于编程,“提示词工程师”淘汰程序员也是伪命题
这个观点,虽然惊世骇俗,我觉得也足够深刻,但它的影响不是短时间能显现的,需要整个AGI产业相当的成熟和繁荣,同时需要解决巨大的能源和算力需求。它改变的是,以“语言”为载体,由人参与的“经验性活动”,大量需要“各种语言载体”进行沟通、协调、对接、传授的部分。,大家都知道自然语言表述有巨大的随意性,虽然当前各种 prompt技巧甚至prompt patterns发展的如火如荼,但它本质上还是自然语言,不可能再走回到结构化编程语言的老路上,所以只要是自然语言prompt,它的随机属性就永远存在。原创 2023-06-25 18:02:06 · 454 阅读 · 0 评论 -
我把GPT 的学习轨迹可视化了竟和人类十分类似 |ACL2023
以 Softmax 层的输出比较符合语法与不合语法的句子的总体占比,以评估模型是否掌握了当前语言探针代表的语言能力。同时,为了不失测试的一般性,作者在 48 个 GPT-2 模型得到的语言习得率数据中进行了不同的检验,以验证习得这些语言技能的顺序在所有 GPT-2 类模型间都是共享的。透过对目前似乎已经可以算作掌握了一般意义上的语言技能的 GPT 模型语言习得过程的研究,或许会有助于我们发现什么使得人类可以极其快速低成本的学会语言而模型却需要建立在巨量参数上才可以实现的原因。基于上述分类的三个阶段,原创 2023-06-23 14:45:55 · 194 阅读 · 0 评论 -
大模型没有壁垒吗?开源模型和chatgpt已经没有差距了吗?
近期有很多工作比如Alpaca、Vicuna、Koala等论文宣称通过收集到的大量chatgpt output,在基于开源大模型如LLaMA上进行微调后的模型就接近甚至超过chatgpt效果。有些看热闹不嫌事大的媒体渲染诸如“复制chatgpt,仅需100美元“,”开源大模型超过chatgpt“啦。但事实真的如此吗?来自UC Berkeley的研究团队在The False Promise of Imitating Proprietary LLMs这篇论文中分析的这些模型的效果,并给出结论”还差的远呢“。原创 2023-06-23 14:40:09 · 274 阅读 · 0 评论 -
Prompt Engineering 面面观
提示工程(Prompt Engineering),也称为 In-Context Prompting,是指在不更新模型权重的情况下如何与 LLM 交互以引导其行为以获得所需结果的方法。在提示工程中,任务的描述会被嵌入到输入中。例如,不是隐含地给予模型一定的参数,而是以问题的形式直接输入。提示工程的典型工作方式是将一个或多个任务转换为基于提示的数据集,并通过所谓的“基于提示的学习(prompt-based learning)”来训练语言模型。提示工程不仅仅是关于设计和研发提示词。原创 2023-06-22 16:57:45 · 2597 阅读 · 0 评论 -
GPT-4参数最新爆料1.76万亿参数,8个2200亿MoE模型,深信不疑
GPT-4每个head都有2200亿参数,是一个8路的混合模型。我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。在GPT-4还未放出之前,GPT-3有1750亿个参数,一众网友猜测GPT-4岂不是要逆天,最起码1万亿。就像George所说,这是8个较小的模型,如果有足够资金训练8个混合模型,这是一个微不足道的解决方案。所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是......真的?原创 2023-06-21 14:29:57 · 1281 阅读 · 0 评论 -
史上最大图灵测试实验完成150万人类参与1000万次对话,判断对面是人还是AI
他们希望,能让公众、研究人员和政策制定者真正了解AI机器人的状态,不仅仅是作为生产力工具,而是作为我们网络世界的未来成员,尤其是当人们质疑如何在技术未来中运用它们的时候。但其实,AI并不像人类想象的这样,大多数AI都能很好地回答这类问题,还具备自己的个性,因为他们在训练数据中看到了许多人的故事。一般人的判断依据,是使用ChatGPT以及类似界面的语言模型时感知的受限程度,以及自己对于人类在线行为的看法。然而,随着参与者继续玩,他们能够将「Bot-y」行为与充当机器人的人类联系起来,而不是真正的机器人。原创 2023-06-21 14:05:58 · 330 阅读 · 0 评论 -
upyter Notebook:内核似乎挂掉
例如:Handler 发送消息有两种方式,分别是 Handler.obtainMessage()和 Handler.sendMessage(),其中 obtainMessage 方式当数据量过大时,由于 MessageQuene 大小也有限,所以当 message 处理不及时时,会造成先传的数据被覆盖,进而导致数据丢失。项目场景:深度强化学习在中国股票量化交易上的应用,要求跑赢大盘。昨天好容易装好GPU,使用CUDA 9.2时出现的。突然蹦出:内核似乎挂掉了,它很快将自动重启。话说,KMP 是什么?原创 2023-06-16 20:14:43 · 822 阅读 · 0 评论 -
75岁Hinton中国大会最新演,最后感慨:我已经老了,未来交给年轻人
Hinton 本次的演讲题目为「通往智能的两种道路」(Two Paths to Intelligence),即以数字形式执行的不朽计算和依赖于硬件的可朽计算,它们的代表分别是数字计算机和人类大脑。演讲最后,他重点谈到了大型语言模型(LLM)为他带来的对超级智能威胁的担忧,对于这个涉及人类文明未来的主题,他非常直白地展现了自己的悲观态度。LLM 的做法是预测文档的下一个词,但是并没有教师对于下一个词的概率分布,它有的只是一个随机选择,即该文档作者在下一个词位置选用的词。首先,让我们来看看传统的计算方式。原创 2023-06-12 21:08:58 · 149 阅读 · 0 评论 -
6月5日,香港科技大学(广州)面向全校上线GPT服务
模型之一,可以生成人类可理解的自然语言文本,应用于自然语言处理、对话系统、文本摘要、机器翻译等各种场景,在多项专业和学术基准测试中表现出人类水平的性能。,服务对象包括香港科技大学(广州)的全体教职工、学生。服务的区域为香港科技大学(广州)校园内,仅限校园内网络接入。面对前沿科技发展趋势,香港科技大学(广州)和香港科技大学两校均选择主动拥抱,积极探索。服务由港科大(广州)校长办公室主导,信息枢纽和资讯科技处共同承建。服务使用管理规定(试运行)》,要求全体师生共同遵守,真正用好。香港科技大学(广州)宣布,原创 2023-06-07 19:40:47 · 131 阅读 · 0 评论 -
ChatGPT发展计划曝光:正在考虑开源GPT-3
ChatGPT的愿景是成为工作的超级智能助手,但 OpenAI 不会涉及其他许多 GPT 用例不少开发人员表示,他们担心未来 OpenAI 针s对他们的产品会开发出强大的竞品,因此他们对使用 OpenAI API 持着谨慎的态度。扩大规模的理念是,我们可能已经有构建 AGI 所需的大部分工作,剩下的大部分工作将采用现有的方法,并将它们扩展到更大的模型和更大的数据集。Sam指出,很多人认为他们希望自己的应用程序位于ChatGPT 之内,但他们真正想要的是应用程序中的 ChatGPT。未来会有更好的微调方式。原创 2023-06-03 12:02:56 · 191 阅读 · 0 评论 -
最先被AI淘汰的工作这家知名公司率先宣布停用真人模特...
AI模特的灵感来自真人,所有内容都可以自定义,发型、体型、肤色、姿势、情绪等等,5分钟就能搞定,最重要的是,可以让销售企业根据不同地区来定义更符合当地审美的模特。甚至有的AI企业对此收费一个月只要15美元,100块人民币,就算是淘宝“野模”也不止这个价格吧?从生成效果来看,AI模特已非常接近真人。对比AI模特与石膏模特、真人模特的区别。从生成效果来看,AI模特已非常接近真人。乍一看,你能看出来这位模特是AI吗?不过,对于AI模特的出现,比如这组AI生成的模特图,还有这八块腹肌······原创 2023-06-02 13:32:54 · 140 阅读 · 0 评论 -
推荐:ChatGPT指令大全(37个)
你需要遵守以下规则:1. 你只能问我有关 [职位] 的面试问题。15. 写测试:你现在是一个 [程序语言] 专家,我有一段程序 [附上程序],请帮我写一个测试,请至少提供五个测试案例,同时要包含到极端的状况,让我能够确定这段程序的输出是正确的。8. 为不同的公司修改不同的简历:我今天要申请 [公司] 的 [职位],改写以下经历,让我能更符合 [公司] 的企业文化。25. 起标题:写出 [数字] 个有关 [主题] 的 [社群平台] 风格标题,要遵守以下规则:[规则 1]、[规则 2]、[其他规则]。原创 2023-06-02 12:49:41 · 1587 阅读 · 0 评论 -
OpenAI 创始人再签联名信,一句话声明简短有力AI或引发灭绝风险
但在另一份新闻稿中,CAIS 进一步强调希望“设置护栏并建立相关机构,确保 AI 风险不会让人类措手不及。2 个月前,马斯克等人呼吁叫停 AI 研发2 个月前,AI 领域数十人共同署名、科技富豪马斯克高调参与的一封公开信震惊世界。今年 3 月 22 日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比 GPT-4 更强大的人工智能系统的训练,暂停时间至少为 6 个月。原创 2023-05-31 16:25:26 · 261 阅读 · 0 评论 -
搜索引擎变天谷歌宣布开放 生成式搜索平台AI 大模型颠覆搜索
从蓝色链接到现在的私人助手式的回答,这些大公司大模型的军备竞赛也是催生了这 25 年以来 AI 应用的一个巨大高潮,可以看到旧的问题还没有被完全解决,新的问题还在不断提出,SGE 能否在搜索真实性、隐私保护、模型更新等等方面适应那些被 1998 年 Google 搜索的蓝色链接培养出来的挑剔用户的需求,SGE 又能否真正完美的代替传统搜索引擎成为真正理想中的私人智能助手,且让我们拭目以待,未来马上就来!,在 SGE 中,可以看到一组卡片在大模型提供的回答的右侧,这些卡片对应链接作为大模型答案的证据。原创 2023-05-30 18:05:02 · 260 阅读 · 0 评论 -
老黄携「超级GPU」炸场E级AI超算性能飞升,买越多越划算,
这包括NVIDIA AI Enterprise,NVIDIA AI平台的软件层,其特点是有100多个框架、预训练的模型和开发工具,以加速人工智能和数据科学,为企业人工智能开发和部署提供充分支持。而DGX H200的设计目的是,通过使用英伟达定制的NVLink Switch芯片,绕开InfiniBand和以太网等标准集群连接的局限性,为最大工作负载的大规模可扩展性提供最大的吞吐量。但一样的钱,你可以建置一个配备有48个GPU的数据中心,但只要3.2GWh的功耗,而且可以处理44X LLM的数据量。原创 2023-05-30 17:36:30 · 172 阅读 · 0 评论 -
AIGC应用层项目到底要不要现在出来融资?
同时,我们也要保持冷静,毕竟一级市场估值没有修复,大部分机构出手依然谨慎,但跟元宇宙不同的是,这一波的趋势改变了身边大部分人的行为,谈AI的、学AI的、拥抱AI的、恐惧AI的、AI方向创业的、因为AI失业的、欺骗AI的、被人用AI欺骗的,AI还将持续影响我们每个人的工作方式和每个企业的组织形式。看到本文的读者相信已经不需要再去普及AIGC的概念和定义了,科技媒体和公众号里充斥着大量有关AIGC的文章,跟元宇宙开始火的时候如出一辙,知识付费的镰刀眼见着砍下来了,卖课、卖账号、办会、搞付费社群的纷至沓来,原创 2023-05-30 17:27:23 · 200 阅读 · 0 评论 -
詹姆斯·卡梅隆自曝:新终结者电影剧本ChatGPT写 结局,AI自己定
毕竟,过去的科幻小说都是从想象出发,反哺现实。著名导演詹姆斯·卡梅隆透露,他正在创作下一部「终结者」的剧本,而这次的灵感来自现实世界中AI的崛起,比如OpenAI的ChatGPT。1984年的第一部「终结者」电影中描绘了一个属于未来的AI防御系统「天网」,当时专家就表示,要警惕未来可能的「天网结局」。现实的情况是,今天的AI系统是高度专业化的,程序员经常设计一个AI,使其只擅长一项任务,如玩一个棋盘游戏。然而,时间转到2023年,当AI真正的大规模出现在我们的眼前时,真实的情况好像和1984年截然不同。原创 2023-05-27 14:11:48 · 209 阅读 · 0 评论 -
reduce_sum()函数 Tensorflow
想要了解reduce_sum()函数,我们首先要了解数组的纬度坐标,对于数组a来说[[1,2],[[5,6]], [[3,4], [7,8]]的纬度坐标是0,[1,2],[3,4],[5,6],[7,8]这4个数组的纬度坐标是1,而1,2,3,4,5,6,7,8这8个数的纬度坐标是2。在维数1的层面上进行求和,也就是[1,2],[3,4],[5,6],[7,8]这四个数组上进行求和,(两两一组,因为前两个和后两个的地位相同)降一个维度,也就是说“掉一层方括号”,得出[[ 4, 6], [12, 14]]原创 2023-05-27 07:01:14 · 183 阅读 · 0 评论 -
Tensorflow2.0语法 - 张量&基本函数(一)
和tf.unstack的区别就是,tf.unstack是均分降维, tf.stack是怎么分都不会降维,且能指定分隔份数。注:Numpy轴也是这样的,我最初用x,y轴方式 抽象 去记忆, 基本上是记不住的。灵魂说明:无论索引还是切片, (行列 是使用 逗号 分隔的), 并且无论行列,索引都是从0开始的。和tf.stack正好是互逆过程,指定axis维度是几,它就会拆分成几个数据,同时降维。TF2.0不需要做这些。同样是上面的例子,我想把形状 [2,20,1] ,变成 [5,2,20,30]原创 2023-05-25 20:04:38 · 251 阅读 · 0 评论 -
ChatGLM相关内容链接,供参考
【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter,https://www.bilibili.com/video/BV1fd4y1Z7Y5。- ChatGLM-6B 优秀开发项目列表 https://lslfd0slxc.feishu.cn/docx/JAgsd5WVgoZ1bKxYzq0c8gh5neh。ChatGLM-130B 内测申请网站:https://chatglm.cn/ChatGLM 博客:https://chatglm.cn/blog。原创 2023-05-25 19:14:12 · 2927 阅读 · 0 评论 -
1.2 k近邻算法api初步使用
Python语言的机器学习工具Scikit-learn包括许多知名的机器学习算法的实现Scikit-learn文档完善,容易上手,丰富的API目前稳定版本0.19.1。原创 2023-05-06 23:30:25 · 84 阅读 · 0 评论