C++(cpp)小卓d理解历程

本文介绍了C++的基础知识,包括iostream库的使用、命名空间std、输入输出操作、return语句、算法问题解题步骤、变量命名规则、预处理、宏定义等内容,适合编程初学者理解和实践。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.真0基础随手记阶段(初步掌握后进行统一整理  小伙伴们可以暂时把这个当成一个 随身带的便签  内容时细节时粗糙 愿与小伙伴们一同成长)   ------初学菜鸟多为引用其他大佬 之后定会持续输入个人见解  

1.解读iostream

io(I/O): I 输入(input)  O输出(output)          数据流(stream)cpp(注C plus plus) C++中把数据之间的传输操作称为流  作为iostream库的一部分,头文件声明了一些用来在标准输入输出设备上进行输入输出操作的对象。

#include <iostream>是头文件 用于引入外部库.(注:外部库: 即外部数据库指公司外部组织提供的简单的数据库,通常可以作为次级材料的来源.    同时较多的多媒体开发软件使用外部数据库     典例就是商业信息机构向信息需要者提供这些数据库并收取一定的费用)

2.几乎所有的算法竞赛都允许使用C++语言

3.using namespace std; 的解读 (使用标准命名空间)

namespace 是C++中的关键字,用来定义一个命名空间

C++标准程序库中的所有标识符都被定义于一个名为std的namespace

 C++ 引入了命名空间的概念,计划重新编写库,将类、函数、宏等都统一纳入一个命名空间,这个命名空间的名字就是std。std 是 standard 的缩写,意思是“标准命名空间”

#include "iostream"与#include<iostream>的区别:前者先在 当前目录找iostream文件,找不到再去系统头文件路径找,后者反之。因此,做为一个良好的习惯,在包含系统头文件时尽量用<>,而在包含自己的工程中的头文件时用" "。

对了兄弟们 不要忘记最后的 分号

4.输入和输出

使用 cout 进行输出时需要紧跟<<运算符,使用 cin 进行输入时需要紧跟>>运算符,这两个运算符可以自行分析所处理的数据类型,因此无需像使用 scanf 和 printf 那样给出格式控制字符串。

其中endl表示换行

5.return 

return 语句是提前结束函数的唯一办法。return 后面可以跟一份数据,表示将这份数据返回到函数外面;return 后面也可以不跟任何数据,表示什么也不返回,仅仅用来结束函数

return 1为此函数异常结束  return 0则表示正常结束函数

一般情况下不要rreturn 一个其他的非0数值,这会造成系统认为这个程序异常退出. 尤其在算法竞赛中,这会导致被认为运行错误.


6.解决算法问题的步骤 第一步 分析问题,理解题意----"做什么"(仔细揣摩 明白输入什么 需要如何处理数据 以及如何输出数据  ) 第二步 "怎么做"  设计一个算法.  (算法:指的时一套明确的 有限的 能解决特定问题的算法  第三就是 编写 然后调试

7.endl的意思是输出一个换行.  

8.取余的优先级和乘除是一样的    相对而言  括号的优先级最高,乘除的优先级比括号低,而加减的优先级最低

9.浮点数中无论是单精度还是双精度,都是一种固定长度的数所以不可能表示每一个实数值

10.使用cout输出浮点数,默认保留不超过6位有效数字 如果数字过大或者过小,那么就会使用科学计数法输出,同样保留不超过6位有效数字,例子: 1.99997e+06就是 1.99997*10的六次方的意思.  1.999973-06就是1.999973*10的负六次方

float4个字节,32位大约指数绝对值不超过37, 6位有效数字       
double8个字节, 64位大约指数绝对值不超过307,15位有效数字

10.变量和常量的命名需要遵循的要求:

1.只能由英文字母,数字和下划线组成

2.不能以数字开头

3.不能和关键字重复

11.C++里面的数学函数头文件 

#include <cmath>   //当然C里面的数学库也可以 因为C++和C是兼容的   #include <math.h>

12.

C是C++的子集吗:

‎在严格的数学意义上,C不是C++的子集。有些程序是有效的C,但C++无效,甚至还有几种编写在C和C++中具有不同含义的代码的方法。但是,C++支持 C 支持的所有编程技术。 每个C程序都可以以基本相同的方式编写C++,具有相同的运行时和空间效率。能够在几个小时内将数万行ANSI C转换为C型C++的情况并不少见。因此,C++是ANSI C的超集,就像ANSI C是K&R C的超集一样,ISO C++是1985年存在的C++的超集。‎
‎请注意,上述段落中的"C"是指经典C和C89。C++不是C99后代;C++和C99是兄弟姐妹。
13. 小知识:a = a + 2;  应该以赋值的想法去理解 而不是左边等于右边    a -= 2也是赋值语句,但准确的说是自赋值

 14. 什么是宏?宏(计算机术语)_百度百科 (baidu.com)

一句话帮助理解  宏 :宏其实就是一个简单的文本替换!

定义宏使用#define

define是宏定义,程序在预处理阶段将用define定义的内容进行了 替换 。

15.什么是预处理

程序设计领域中,预处理一般是指在程序源代码被翻译为目标代码的过程中,生成二进制代码之前的过程。典型地,由预处理器(preprocessor) 对程序源代码文本进行处理,得到的结果再由编译器核心进一步编译

16.变量和常量命名规则:

1.只能由英文,数字和下划线组成 

 2. 不能以数字开头

 3.不能和其关键字重复

17.变量名不需要很长,但要一眼可以明白这个变量是干什么的

18.用户自定义的标识符中不能连续出现两个下画线,也不能以下画线紧连大写字母开头。此外,定义在函数体外的标识符不能以下画线开头。

19.求立方根 法一: cbrt()函数  法二 : sqrt(某数, 1/3.0)

20.把一个整数变成浮点数 加 .0 或者 *1.0

### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值