TensorFlow笔记--求解二次函数最小值对应的值

这篇博客展示了如何使用TensorFlow求解二次方程的最小值。通过逐步迭代,找到方程y=(x+1)^2的最小值点,最终得出x=-1,y=0,展示了TensorFlow在解决这类问题上的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

TensorFlow笔记--求解二次函数最小值对应的值

最近学习在 TensorFlow,看了两行代码后觉得TensorFlow真是一个不错的工具。然后,作为工科男我就想着解决一些有趣的问题;解决什么好呢?想来想去还是决定对我们熟悉的二次方程求解。我想大家对如何解二次方程早就成竹在胸,下面看一下TensorFlow如何做的吧。

问题:

我们先来看一下需要求解的方程:y = (x+1)^2
然后给出我们的要求:求解在 y 最小时 x 的值。
那么如何求解呢?OK,不卖关子啦,直接上代码喽!

代码段:

# coding:utf-8
# 设函数 y = (x+1)^2, 令 x 初始值为5
# 反向传播就是求最优 x,即求最小y值对应的x值
import tensorflow as tf

# 定义待优化参数 x 初值为 5
x = tf.Variable(tf.constant(5, dtype=tf.float32))
# y = (x+1)^2
y = tf.square(x+1)
# 定义反向传播方法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(y)

# 生成会话,训练40轮
with tf.Session() as sess:
    init_op = tf.global_variables_initializer()
    sess.run(init_op)
    for i in range(40):
        sess.run(train_step)
        x_val = sess.run(x)
        y_val = sess.run(y)
        print("After %s steps: x is %f,  y is %f."%(i, x_val, y_val))

运行结果如下:

After 0 steps: x is 2.600000, y is 12.959999.
After 1 steps: x is 1.160000, y is 4.665599.
After 2 steps: x is 0.296000, y is 1.679616.
After 3 steps: x is -0.222400, y is 0.604662.
After 4 steps: x is -0.533440, y is 0.217678.
After 5 steps: x is -0.720064, y is 0.078364.
After 6 steps: x is -0.832038, y is 0.028211.
After 7 steps: x is -0.899223, y is 0.010156.
After 8 steps: x is -0.939534, y is 0.003656.
After 9 steps: x is -0.963720, y is 0.001316.
After 10 steps: x is -0.978232, y is 0.000474.
After 11 steps: x is -0.986939, y is 0.000171.
After 12 steps: x is -0.992164, y is 0.000061.
After 13 steps: x is -0.995298, y is 0.000022.
After 14 steps: x is -0.997179, y is 0.000008.
After 15 steps: x is -0.998307, y is 0.000003.
After 16 steps: x is -0.998984, y is 0.000001.
After 17 steps: x is -0.999391, y is 0.000000.
After 18 steps: x is -0.999634, y is 0.000000.
After 19 steps: x is -0.999781, y is 0.000000.
After 20 steps: x is -0.999868, y is 0.000000.
After 21 steps: x is -0.999921, y is 0.000000.
After 22 steps: x is -0.999953, y is 0.000000.
After 23 steps: x is -0.999972, y is 0.000000.
After 24 steps: x is -0.999983, y is 0.000000.
After 25 steps: x is -0.999990, y is 0.000000.
After 26 steps: x is -0.999994, y is 0.000000.
After 27 steps: x is -0.999996, y is 0.000000.
After 28 steps: x is -0.999998, y is 0.000000.
After 29 steps: x is -0.999999, y is 0.000000.
After 30 steps: x is -0.999999, y is 0.000000.
After 31 steps: x is -1.000000, y is 0.000000.
After 32 steps: x is -1.000000, y is 0.000000.
After 33 steps: x is -1.000000, y is 0.000000.
After 34 steps: x is -1.000000, y is 0.000000.
After 35 steps: x is -1.000000, y is 0.000000.
After 36 steps: x is -1.000000, y is 0.000000.
After 37 steps: x is -1.000000, y is 0.000000.
After 38 steps: x is -1.000000, y is 0.000000.
After 39 steps: x is -1.000000, y is 0.000000.

就这样利用 TensorFlow 刷了一题二次函数,是不是很开心呢?
或许看了这些你觉得TensorFlow被大材小用了,但是作为TensorFlow的入门例子已经不简单喽。后面将会持续更新TensorFlow的使用,若你喜欢请添加关注哦!同时也欢迎您的留言,让我们一起交流TensorFlow学习心得!

### 回答1: 牛顿法是一种二次收敛的优化算法,可用于求解非线性函数的最小值。其基本思想是在当前点处,通过泰勒展开式来近似目标函数,然后求解近似函数的最小值,得到下一个点的位置。该过程一直迭代下去,直到达到收敛条件。 下面是用Python实现牛顿法求解最小值的示例代码: ```python import numpy as np # 目标函数:f(x) = x^2 + 2x + 5 def func(x): return x**2 + 2*x + 5 # 目标函数的一阶导数 def grad_func(x): return 2*x + 2 # 目标函数的二阶导数 def hessian_func(x): return 2 # 牛顿法求解最小值 def newton_method(x0, eps=1e-6, max_iter=100): x = x0 iter_num = 0 while iter_num < max_iter: iter_num += 1 grad = grad_func(x) hessian = hessian_func(x) if abs(grad) < eps: break x = x - grad/hessian return x, iter_num # 测试 x0 = -5 x, iter_num = newton_method(x0) print("初始点:x0 = {}".format(x0)) print("最小值点:x* = {}".format(x)) print("迭代次数:k = {}".format(iter_num)) print("最小值:f(x*) = {}".format(func(x))) ``` 其中,`func`、`grad_func`和`hessian_func`分别表示目标函数、一阶导数和二阶导数。`newton_method`实现了牛顿法求解最小值的迭代过程。在测试中,初始点为`x0=-5`,精度为`eps=1e-6`,最大迭代次数为`max_iter=100`。运行结果如下: ``` 初始点:x0 = -5 最小值点:x* = -0.9999999999999997 迭代次数:k = 6 最小值:f(x*) = 4.999999999999998 ``` 除了牛顿法,还有其他的拟牛顿法可用于求解非线性函数的最小值,如DFP算法和BFGS算法。这些算法的实现方式与牛顿法类似,不同之处在于近似Hessian矩阵的更新方式。 ### 回答2: 牛顿法是一种用于求解函数最小值的迭代算法。它基于泰勒级数展开,通过迭代逼近真实的最小值。 首先,我们需要计算函数的一阶和二阶导数。在Python中,可以使用Scipy库的Optimize模块来实现。 接下来,我们需要选择一个初始作为迭代的起点。选择一个合适的初始对于收敛性至关重要。 然后,我们可以使用牛顿法的迭代公式进行迭代。对于一元函数,迭代公式为:x = x - f(x)/f'(x)。对于多元函数,迭代公式为:x = x - H^(-1)*∇f(x),其中H为函数的海森矩阵,∇f(x)为函数的梯度。 在迭代过程中,我们需要设置一个停止准则。常用的准则包括函数的变化小于某个阈,迭代次数达到上限等等。 除了牛顿法,拟牛顿法也是一种常用的优化算法。它通过迭代逼近海森矩阵的逆矩阵,而不需要计算海森矩阵本身。常用的拟牛顿法包括DFP算法和BFGS算法。 牛顿法和拟牛顿法在求解函数最小值问题中具有较好的性能。它们在各类优化问题中被广泛应用,并且可以通过合适的参数调整来适应不同的目标函数。 总之,Python中可以使用Scipy库的Optimize模块来实现牛顿法和拟牛顿法求解函数的最小值问题。这些算法对于各类优化问题具有较好的性能和适用性。 ### 回答3: 牛顿法和拟牛顿法是最优化算法中常见的求解最小值的方法之一,它们在python中可以很方便地实现。 牛顿法的基本思想是通过使用二阶导数(海森矩阵)对目标函数进行近似,并通过迭代逼近目标函数的最小值。在每一步迭代中,牛顿法通过求解线性系统来确定迭代的方向。 具体实现牛顿法的过程如下: 1. 定义目标函数,求目标函数的一阶导数和二阶导数。可以使用符号计算库(如SymPy)来自动求导。 2. 初始化迭代的起始点。 3. 在每一步迭代中,计算目标函数在当前点的一阶导数和二阶导数,并求得迭代方向。 4. 更新迭代点,重复步骤3,直到满足停止准则。 下面是一个使用牛顿法求解最小值的简单例子: ```python import sympy as sp def newton_method(f, x): # 求一阶导数和二阶导数 f_prime = sp.diff(f, x) f_double_prime = sp.diff(f_prime, x) # 初始化迭代起始点 x_0 = 0 while True: # 计算一阶导数和二阶导数在当前点的 f_prime_val = f_prime.subs(x, x_0).evalf() f_double_prime_val = f_double_prime.subs(x, x_0).evalf() # 计算牛顿方向 delta_x = -f_prime_val / f_double_prime_val # 更新迭代点 x_0 += delta_x # 判断停止准则 if abs(delta_x) < 1e-6: break return x_0.evalf() # 定义目标函数 x = sp.symbols('x') f = x ** 2 + sp.exp(x) # 使用牛顿法求解最小值 min_val = newton_method(f, x) print("The minimum value is:", min_val) ``` 除了牛顿法,还有很多其他的最优化算法可以用于求解最小值,如拟牛顿法。拟牛顿法的思想是通过逐步构建一个近似的海森矩阵来代替目标函数的二阶导数,从而避免了求解二阶导数的复杂性。拟牛顿法的具体实现和牛顿法类似,只是在计算迭代方向时使用了近似的海森矩阵。 拟牛顿法的一种常见算法是BFGS算法,其实现类似于牛顿法,但在更新海森矩阵时使用了特定的公式。在python中,可以使用scipy库的optimize模块中的`minimize`函数来实现BFGS算法。 以下是一个使用BFGS算法求解最小值的示例: ```python import scipy.optimize as opt # 定义目标函数 def f(x): return x ** 2 + np.exp(x) # 使用BFGS算法求解最小值 x_0 = 0 min_val = opt.minimize(f, x_0, method='BFGS').x print("The minimum value is:", min_val) ``` 以上就是使用python实现牛顿法和拟牛顿法求解最小值的简单介绍。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值