
人工智障
文章平均质量分 70
九日王朝
技术是谋生的手段,而不是生命的全部。过分沉迷技术只会让人坠入深渊和绝望,人生应该追求的是智慧与认知。
与其劳碌拼搏匆匆过完一生,应该把更多的精力用于了解这个世界,锻造通透豁达的内心。才能得以善终。
展开
-
trae中文版AI搭建完整可用的项目框架
正式版的trae不支持大陆使用,不过目前已经推出了trae CN版可以直接使用,并且免费支持deepseek-V3和deepseek-R1模型调用。Trae 是由字节跳动推出的 AI 原生集成开发环境(AI IDE),号称可以搭建完整项目,个人试用后体验确实比Cursor或cline更便捷,因为他多个文件关联准确率更高。注意guidance_scale 这个参数,api说这个是与描述的贴近程度,但是这个参数越高,就越偏向艺术风格而脱离真实感。可以自定义描述,也可以用ai生成,这个很简单。原创 2025-03-12 20:46:10 · 707 阅读 · 0 评论 -
deepseek+cline自动编写代码教程
deepseek相关的就不多说了,网上有都是营销号在吹。当前deepseek经常被国外恶意攻击,api不稳定。注意这两个选项,plan只会列出计划,而不会真的改代码,act会行动。roo code也可以用,属于轻便型的,功能没cline多。目前我使用的是硅基流动,也是满血deepseek-R1。之后ai会输出分析,并开始工作,具体生产过程见下面视频。配置api用deepseek可能会调用失败。输入需求,请求会将本地文件信息也一起传入。AI模型:deepseek- R1。下面这些配置根据自己需要配置。原创 2025-02-07 15:14:17 · 1231 阅读 · 0 评论 -
openAi ChatGPT调用性能优化的一些小妙招
说明一下/v1/completions和v1/chat/completions的区别,/v1/chat/completions是传一个数组messages来完成上下文关联,而/v1/completions传的是一个字符串prompt参数,不过依然可以通过追加的方式,使其回答具有上下文关联性。这个会影响最大,亲测最有效,在问题前面追加回答设置,例如,回答不要超过100字,请简洁的回答下列问题等。注意,参数里的max_tokens没必要设置,因为他只会无脑切割, 如果设置低了超过原本的输出答案,回答会不完整。原创 2023-03-27 17:50:19 · 7484 阅读 · 0 评论 -
人工智障学习笔记——梯度下降(2)优化算法
四、优化4-1 Momentum如果我们把梯度下降法当作小球从山坡到山谷的一个过程,那么在小球滚动时是带有一定的初速度,在下落过程,小球积累的动能越来越大,小球的速度也会越滚越大,更快的奔向谷底,受此启发就有了动量法 Momentum。动量的引入是为了加速SGD的优化过程。分析上式就会明白动量的作用原理:利用惯性,即当前梯度与上次梯度进行加权,如果方向一致,则累加导致更新步长变大;...原创 2018-08-21 14:01:27 · 1043 阅读 · 0 评论 -
人工智障学习笔记——梯度下降(1)基础变种
一、概念梯度下降法(gradient descent)是一个最优化算法,常用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一。二、原理平时我们说的训练神经网络就是最小化损失函数的过程,损失函数的值...原创 2018-08-21 12:18:03 · 866 阅读 · 0 评论 -
keras——基于神经网络的风格迁移生成艺术字
Keras是一个高层神经网络API,由纯Python编写而成,至少依赖Tensorflow、Theano、CNTK一种神经网络框架,这里建议用Tensorflow。Keras的特性:1.简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性)2.支持CNN和RNN,或二者的结合3.无缝CPU和GPU切换Keras的设计原则是1、用户友好:说白了就是傻瓜式开发,狗上狗也行。2、模块性:模...原创 2018-06-15 18:52:08 · 2561 阅读 · 3 评论 -
人工智障学习笔记——强化学习(5)DRL与DQN
在普通的Q-learning中,当状态和动作空间是离散且维数不高时可使用Q-Table储存每个状态动作对的Q值,而当状态和动作空间是高维连续时,Q-Table则不再适用。通常做法是把Q-Table的更新问题变成一个函数拟合问题,相近的状态得到相近的输出动作。通过更新参数θ使Q函数逼近最优Q值:Q(s,a;θ)≈Q′(s,a)而深度神经网络可以自动提取复杂特征,因此,面对高维且连续的状态使用深度神经...原创 2018-03-19 15:12:52 · 3189 阅读 · 0 评论 -
人工智障学习笔记——强化学习(4)时间差分方法
前两章我们学习了动态规划DP方法和蒙特卡洛MC方法,DP方法的特性是状态转移,状态值函数的估计是自举的(bootstrapping),即当前状态值函数的更新依赖于已知的其他状态值函数。MC方法的特性是不需要环境模型,状态值函数的估计是相互独立的,但同时又依赖episode tasks。为了解决即不需要环境模型,又局限于episode task,还可以用于连续任务的问题,我们衍生出了时间差分学习方法...原创 2018-03-13 15:13:54 · 1793 阅读 · 0 评论 -
人工智障学习笔记——强化学习(3)蒙特卡洛方法
上一章我们了解了马尔可夫决策过程的动态规划方法,但是动态要求一个完全已知的环境模型,这在现实中是很难做到的。另外,当状态数量较大的时候,动态规划法的效率也将是一个问题。所以本章我们引用一种不需要完整的环境模型的方法概念——蒙特卡罗方法。蒙特卡洛是一个赌城的名字。又叫统计模拟方法,它使用随机数(或伪随机数)来解决计算的问题,是一类重要的数值计算方法。相对于确定性的算法,蒙特卡洛方法是基于抽样数据来计...原创 2018-03-07 13:31:54 · 3508 阅读 · 0 评论 -
人工智障学习笔记——强化学习(2)基于模型的DP方法
上一章我们引入了马尔科夫决策过程的概念:马尔可夫决策过程是一个五元组(S,A,P(),R(),γ) 其中:1)S是一组有限的状态,即状态集 (states)2)A是一组有限的行为(或者,As 是从状态可用的有限的一组行动s),即动作集 (Action)3)Pa(s,s')=Pr(st+1=s'midst=s,at=a)表示状态 s 下采取动作 a 之后转移到 s' 状态的概率4)Ra(s,s')是...原创 2018-03-05 15:36:39 · 1606 阅读 · 0 评论 -
人工智障学习笔记——强化学习(1)马尔科夫决策过程
概念马尔可夫决策过程(MDP)是基于马尔可夫过程理论的随机动态系统的最优决策过程。指决策者周期地或连续地观察具有马尔可夫性的随机动态系统,序贯地作出决策。即根据每个时刻观察到的状态,从可用的行动集合中选用一个行动作出决策,系统下一步(未来)的状态是随机的,并且其状态转移概率具有马尔可夫性。决策者根据新观察到的状态,再作新的决策,依此反复地进行。马尔可夫性是指一个随机过程未来发展的概率规律与观察之前...原创 2018-02-27 15:04:36 · 2872 阅读 · 0 评论 -
人工智障学习笔记——深度学习(4)生成对抗网络
概念生成对抗网络(GAN)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。判别模型比较好理解,就像分类一样,有一个判别界限,通过这个判别界限去区分样本。从概率角度分析就是获得样本x属于类别y的概率,是一个条件概率P原创 2018-01-18 14:38:54 · 1626 阅读 · 0 评论 -
人工智障学习笔记——深度学习(3)递归神经网络
传统的神经网络模型中,输入层到隐含层再到输出层他们的层与层之间是全连接的,但是每层之间的节点是无连接的。这样就会造成一个问题,有些情况,每层之间的节点可能是存在某些影响因素的。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。而递归神经网络就能很好的解决这类问题。原创 2018-01-03 18:37:30 · 2692 阅读 · 0 评论 -
人工智障学习笔记——深度学习(2)卷积神经网络
上一章最后提到了多层神经网络(deep neural network,DNN),也叫多层感知机(Multi-Layer perceptron,MLP)。当下流行的DNN主要分为应对具有空间性分布数据的CNN(卷积神经网络)和应对具有时间性分布数据的RNN(递归神经网络,又称循环神经网络)。概念CNN是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。与原创 2018-01-02 16:01:43 · 4029 阅读 · 0 评论 -
人工智障学习笔记——深度学习(1)神经网络
一.神经网络我们所说的深度学习,其最基础最底层的模型称之为"神经网络"(neural network),因为我们希望机器能够像我们人类大脑的神经网络处理事件一样去解决问题,最终达到"人工智能"的效果。二.神经元神经网络的基本单位叫做神经元,是我们人类思考的基础。机器模拟的神经元模型是一个包含输入,输出与计算功能的模型。输入可以类比为神经元的树突,而输出可以类比为神经元的轴突,计原创 2017-12-26 15:11:33 · 1958 阅读 · 0 评论 -
人工智障学习笔记——机器学习(16)降维小结
机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据原创 2017-12-19 14:51:01 · 1600 阅读 · 1 评论 -
人工智障学习笔记——机器学习(15)t-SNE降维
一.概念t-SNE(t分布随机邻域嵌入)是一种用于探索高维数据的非线性降维算法。它将多维数据映射到适合于人类观察的两个或多个维度。t-SNE主要包括两个步骤:第一、t-SNE构建一个高维对象之间的概率分布,使得相似的对象有更高的概率被选择,而不相似的对象有较低的概率被选择。第二,t-SNE在低维空间里在构建这些点的概率分布,使得这两个概率分布之间尽可能的相似(这里使用KL散度(Kullba原创 2017-12-19 14:26:42 · 3573 阅读 · 0 评论 -
人工智障学习笔记——机器学习(14)mds&isomap降维
一.概念MDS(多维缩放)降维是一组对象之间的距离的可视化表示,也可以当做一种无监督降维算法使用。而Isomap(等度量映射)是在MDS算法的基础上衍生出的一种非迭代的全局优化算法,它是一种等距映射算法,也就是说降维后的点,两两之间距离不变,这个距离是测地距离。二.算法MDS算法的思想其实是巧妙的,即通过利用对点(数据)做平移,旋转,翻转等操作,点的距离是不变的这一特性来对原创 2017-12-18 19:09:49 · 4319 阅读 · 1 评论 -
人工智障学习笔记——机器学习(13)LLE降维
一.概念LLE:Locally linear embedding(局部线性嵌入算法)是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的局部特征。二.算法LLE算法认为每一个数据点都可以由其近邻点的原创 2017-12-15 19:20:58 · 10911 阅读 · 3 评论 -
人工智障学习笔记——机器学习(12)LDA降维
一.概念LDA:Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)。与PCA一样,是一种线性降维算法。不同于PCA只 会选择数据变化最大的方向,由于LDA是有监督的(分类标签),所以LDA会主要以类别为思考因素,使得投影后的样本尽可能可分。它通过在k维空间选择一个投影超平面,使得不同类别在该超平面上的投影之间的距离尽可能近原创 2017-12-13 15:54:19 · 15441 阅读 · 1 评论 -
人工智障学习笔记——机器学习(11)PCA降维
一.概念Principal Component Analysis(PCA):主成分分析法,是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,即把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合。并期望在所投影的维度上数据的方差最大,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。以此使用较少的数据维度,同时保留住较原创 2017-12-09 13:54:26 · 6627 阅读 · 1 评论 -
人工智障学习笔记——机器学习(10)AP聚类
一.概念 Affinity Propagation (AP) 聚类是2007年在Science杂志上提出的一种新的基于数据点间的"信息传递"的一种聚类算法。与k-均值算法或k中心点算法不同,AP算法不需要在运行算法之前确定聚类的个数。AP算法寻找的"examplars"即聚类中心点是数据集合中实际存在的点,作为每类的代表。它根据N个数据点之间的相似度进行聚类,这些相似度可以是对称的,即两个数据原创 2017-12-08 19:48:23 · 2829 阅读 · 0 评论 -
人工智障学习笔记——机器学习(9)最大期望算法
一.概念最大期望算法,也就是著名的em算法,他起源于一条dog……原创 2017-12-07 20:16:13 · 1870 阅读 · 0 评论 -
人工智障学习笔记——机器学习(8)K均值聚类
一.概念K均值聚类(K-means)是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means算法以欧式距离作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小。算法采用误差平方和准则函数作为聚类准则函数。二.算法1)从数据中随机选取K组数据作为质心原创 2017-12-04 17:29:59 · 1758 阅读 · 0 评论 -
人工智障学习笔记——机器学习(7)FM/FFM
一.概念FM(分解机模型)和FFM(基于域的分解机模型)是最近几年提出的模型,主要用于预估CTR/CVR,凭借其在数据量比较大并且特征稀疏的情况下,仍然能够得到优秀的性能和效果的特性,屡次在各大公司举办的CTR预估比赛中获得不错的战绩。二.原理FM(Factorization Machine)是由Konstanz大学Steffen Rendle(现任职于Google)于20原创 2017-11-22 14:17:47 · 5533 阅读 · 1 评论 -
人工智障学习笔记——机器学习(6)协同过滤
一.概念有句成语可以将协同过滤这个思想表现的淋漓尽致,那就是物以类聚,人以群分 ——出处:《易经·系辞上》:天尊地卑,乾坤定矣。卑高以陈,贵贱位矣。动静有常,刚柔断矣。方以类聚,物以群分,吉凶生矣。在天成象,在地成形,变化见矣。是故刚柔相摩,八卦相荡,鼓之以雷霆,润之以风雨,日月运行,一寒一暑。乾道成男,坤道成女。乾知大始,坤作成物。乾以易知,坤以简能。易则易知,简则易从。易知则有亲,原创 2017-11-14 15:14:09 · 1582 阅读 · 0 评论 -
人工智障学习笔记——机器学习(5)朴素贝叶斯
一.概念1.1贝叶斯定理:假设H[1],H[2]…,H[n]互斥且构成一个完全事件,已知它们的概率P(H[i]),i=1,2,…,n,现观察到某事件A与H[1],H[2]…,H[n]相伴随机出现,且已知条件概率P(A/H[i]),求P(H[i]/A)。即:已知某条件概率P(A|B),其交换事件P(B|A) = P(A|B)P(B)/P(A)【注:P(A|B)表示事件B已经发生的前提下,事件A发原创 2017-11-10 14:33:47 · 2104 阅读 · 0 评论 -
人工智障学习笔记——机器学习(4)支持向量机
一.概念支持向量机(Support Vector Machine),简称SVM。是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。SVM的主要思想可以概括为两点:1.它是针对线性可分情况进行分析,对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分,从而使得高维特征空间采用线性算原创 2017-11-07 12:04:07 · 2590 阅读 · 0 评论 -
人工智障学习笔记——机器学习(3)决策树
一.概念决策树(Decision Tree)是一种十分常用的分类方法。也是监督学习的一种,是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测原创 2017-11-03 14:24:37 · 2587 阅读 · 0 评论 -
人工智障学习笔记——机器学习(2)线性模型
一.概念线性模型:就是线性的模型。其实我在网上搜了很久,想用一句话能够简单易懂的表达出这个概念,但是确实不知道该怎么组织语言。不过相信有一些数学基础的同学应该是能明白的。我们可以这样认为,世界上所有的问题都可以用公式表达,如果任何问题都是可以用线性模型来描述的,那么我们人人都可以预测未来,因为其模型非常的简单。但是很遗憾,大多数问题都是非线性的。二.线性回归线性原创 2017-11-02 15:48:54 · 1852 阅读 · 1 评论 -
人工智障学习笔记——机器学习(1)特征工程
一.概念学习过Machine Learning的一定听过这句话:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。所谓特征工程,做的就是【最大限度地从原始数据中提取特征点以供算法和模型使用】这么一件事。二.模块特征工程大体可以分为以下几大模块1.特征采集:主要基于业务理解,找出满足需求的数据,设计如何获取及存储特征点,并且评估其准确率、覆盖率、采集难度等原创 2017-10-31 19:34:07 · 1926 阅读 · 0 评论