STM32 printf重定向(串口输出)

本文介绍了如何通过重定向fputc函数,将printf的输出从默认设备转向串口。在标准库中,通过修改fputc实现向USART1的输出;在HAL库中,利用HAL_UART_Transmit函数将输出重定向到huart1。配置printf输出需包含stdio.h并启用useMicroLIB选项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、前言

什么是重定向?重定向是指fputc里面的输出指向目标设备。因printf函数调用了fputc,而fputc输出有默认指向的目标,且不同库中的fputc输出指向不同,所以需要重写fputc

二、标准库与HAL库实现重定向到串口

若需要printf输出到串口,则需要将fputc里面的输出指向串口,这一过程称为重定向。

    1.标准库(重定向到USARTx,代码中为USART1)

int fputc(int ch,FILE *p) 

{

 USART_SendDate(USART1,(u8)ch);

 while(USART_GetFlagStatus(USART1,USART_FLAG_TXE)==RESET);

 return ch;

}

    2.HAL库 (重定向到huartx,代码中为huart1)

int fputc(int ch, FILE *f)

{

  HAL_UART_Transmit(&huart1, (uint8_t *)&ch, 1, 0xffff);

  return ch;

}

NOTES:

1.调用printf需先导入stdio.h头文件

2.需勾选Target中的use MicroLIB

▲文中不正之处,请不吝赐教

### 使用PINN(物理信息神经网络)解决偏微分方程的实例 #### 背景介绍 物理信息神经网络(Physics-Informed Neural Networks, PINNs)是一种结合深度学习与物理学知识的方法,能够高效求解复杂的偏微分方程(Partial Differential Equations, PDEs)。这种方法的核心在于将已知的物理规律作为约束条件嵌入到神经网络训练过程中,从而提高模型预测能力并减少对大量数据的需求。 以下是几个典型的PINN用于求解PDE的具体案例及其代码实现: --- #### 案例1:一维热传导方程 在一维空间中,热传导过程可以用如下形式表示: \[ u_t = \alpha u_{xx}, \quad x \in [a,b], t > 0, \] 其中 \(u(x,t)\) 表示温度分布,\(t\) 是时间变量,\(x\) 是位置坐标,而 \(\alpha\) 则代表材料的导热系数。边界条件可以设定为固定端点处的温度值或者绝热状态下的梯度零假设。 ##### 实现步骤 下面展示了一段基于PyTorch框架的一维热传导方程解决方案[^2]: ```python import torch import numpy as np # 定义神经网络结构 class Net(torch.nn.Module): def __init__(self, layers): super(Net, self).__init__() self.linears = torch.nn.ModuleList([torch.nn.Linear(layers[i], layers[i+1]) for i in range(len(layers)-1)]) def forward(self, x): a = x for i, l in enumerate(self.linears[:-1]): a = torch.tanh(l(a)) a = self.linears[-1](a) return a # 初始化参数 layers = [2, 20, 20, 1] # 输入维度 (x,t),隐藏层节点数,输出维度(u) model = Net(layers) def compute_loss(model, x_data, t_data, alpha=0.1): """定义损失函数""" xt = torch.cat((x_data.unsqueeze(-1), t_data.unsqueeze(-1)), dim=-1).requires_grad_(True) u_pred = model(xt) grad_u = torch.autograd.grad( outputs=u_pred.sum(), inputs=xt, create_graph=True)[0] u_x = grad_u[:, 0].view(-1, 1) u_t = grad_u[:, 1].view(-1, 1) hessian_xx = torch.autograd.grad(outputs=u_x, inputs=xt, retain_graph=True, create_graph=True)[0][:, 0].view(-1, 1) pde_residual = u_t - alpha * hessian_xx mse_pde = torch.mean(pde_residual ** 2) return mse_pde # 训练循环省略... ``` 上述代码片段展示了如何构建一个简单的全连接前馈神经网络,并通过自动微分技术计算目标函数相对于输入的空间二阶导数以及时间一阶导数,进而形成残差项以优化整个系统性能。 --- #### 案例2:Burgers' 方程 另一个经典例子是非线性的 Burgers’ 方程,在流体力学领域具有重要意义: \[ u_t + uu_x = \nu u_{xx}, \] 这里引入了粘滞效应因子 \(\nu>0\) 来描述扩散现象的影响程度。该类问题同样可以通过调整相应超参设置来适配不同场景需求[^1]。 --- #### 已验证的有效性分析 研究表明,相比于传统数值方法如有限元法或谱方法等,采用PINN不仅可以获得更高的精度而且还能显著降低运算成本特别是当面对高维情形时优势更加明显。 ---
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值