Tensorflow(二十二) —— 函数优化

Tensorflow实战:函数优化与3D可视化
本文通过Tensorflow实现了一个二维函数的优化过程,利用梯度下降法更新参数,逐步逼近函数最小值。同时,使用matplotlib进行3D可视化,展示优化路径和函数表面。这是深度学习与TensorFlow2入门课程的学习笔记。
部署运行你感兴趣的模型镜像

Tensorflow(二十二) —— 函数优化

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt 
from matplotlib import cm
def my_func(x):
    return (x[0]**2 + x[1]-11)**2 + (x[0] + x[1]**2 - 7)**2

x = np.linspace(-6,6,500)
y = np.linspace(-6,6,500)
X,Y = np.meshgrid(x,y)
Z = my_func([X,Y])

fig = plt.figure(figsize=[20,12],dpi = 72)
ax = fig.add_subplot(111,projection = "3d")
ax.plot_surface(X,Y,Z,cmap = cm.autumn_r)

ax.set_xlabel("x",size = 50)
ax.set_ylabel("y",size = 50)

在这里插入图片描述

x = tf.constant([4.,4.])
record_x = []
record_y = []
for step in range(100):
    record_x.append(x[0])
    record_y.append(x[1])
    with tf.GradientTape() as tape:
        tape.watch([x])
        y = my_func(x)
    grads = tape.gradient(y,[x])[0]
    x -= 0.01*grads
route = [np.array(record_x),np.array(record_y)]
route_z = my_func(route)
fig = plt.figure(figsize=[20,12],dpi = 72)
ax = fig.add_subplot(111,projection = "3d")
ax.plot_surface(X,Y,Z)
ax.plot(route[0],route[1],route_z,marker = "*",color="r")

在这里插入图片描述

本文为参考龙龙老师的“深度学习与TensorFlow 2入门实战“课程书写的学习笔记

by CyrusMay 2022 04 17

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

### TensorFlow 中张量的基本概念 #### 定义与特性 TensorFlow中的张量可以被视作一个多维数组,这种结构非常类似于NumPy库中的`ndarray`对象[^4]。每一个张量都拥有两个核心属性: - **数据类型 (dtype)**:指定了张量内存储数值的具体形式,比如整数(int),浮点数(float)等。 - **形状 (shape)**:描述了各个维度上的大小,即每一层嵌套列表的长度。 这些特征使得张量成为处理多维数据分析的理想工具,在机器学习领域尤其重要。 #### 创建张量的方法 为了初始化一个新的张量实例,可以通过多种方式实现。最常用的方式之一是从Python原生的数据结构转换而来,例如列表或元组;也可以直接利用内置函数来生成特定模式下的随机值填充的新张量。下面给出几个具体的例子说明如何创建不同类型的张量: ```python import tensorflow as tf # 使用常量创建一个标量(0-D tensor) scalar_tensor = tf.constant(7) # 构建向量(1-D tensor), 可以传入list或者tuple vector_tensor = tf.constant([1., 2., 3.]) # 利用二维列表建立矩阵(2-D tensor) matrix_tensor = tf.constant([[1, 2], [3, 4]]) print(scalar_tensor) print(vector_tensor) print(matrix_tensor) ``` 这段代码展示了三种不同的张量形态——标量、矢量以及矩阵,并且每种情况下均采用了`tf.constant()`方法来进行构造。 #### 形状变换操作 除了上述提到的基础性质外,张量还支持对其自身的尺寸规格进行调整的操作。这主要体现在两方面: - 动态改变张量的实际布局而不影响原始内存分配; - 静态声明预期达到的目标外形参数,从而允许编译器优化执行路径。 具体来说,就是运用`tf.reshape()`和`tf.set_shape()`这两个API接口完成相应的任务[^3]。 ```python original_tensor = tf.constant([[1, 2, 3], [4, 5, 6]]) reshaped_tensor = tf.reshape(original_tensor, shape=[3, 2]) set_shaped_tensor = original_tensor.set_shape((2, None)) print("Original Tensor:\n", original_tensor.numpy()) print("\nReshaped Tensor:\n", reshaped_tensor.numpy()) print("\nSet Shaped Tensor Shape:", set_shaped_tensor.shape) ``` 此段脚本先定义了一个初始状态下的二阶方阵作为输入源,接着分别调用了reshape()与set_shape()对其进行重塑实验并打印结果对比差异所在。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值