Machine Learning - Gradient Descent

博客围绕机器学习和梯度下降算法展开,虽无具体内容,但可知涉及相关信息技术知识,梯度下降算法是机器学习中重要的优化算法,可用于求解目标函数的最优解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Machine Learning - Gradient Descent


Gradient Descent (Octave)

function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters)
	% Linear Regression
	%  Parameters:
	%		- 	X: Training Set of d(m*n)
	%		-	y: Target Set of d(m*1) 
	%		-	theta: para, d(n*1)
	%		-	alpha: learning ratio
	%		-	num_iters: numer of iterations
	
	m = length(y); 
	J_history = zeros(num_iters, 1);
	fitures = size(X, 2);
	
	for iter = 1:num_iters
	    theta=theta-alpha/m*(X'*(X*theta-y))
	    J_history(iter) = computeCost(X, y, theta);
	end
end

------------------------------------------------------------------------------

function J = computeCost(X, y, theta)
% Compute cost for linear regression
	m = length(y); 
	J = 0;
	delta_y=X*theta-y;
	J=sum((X*theta-y).^2)/2/m
	return;
end
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值