c语言坐标绕路,C语言中的奇技淫巧

前言

学习C语言的过程中,总会遇到很多令人眼前一亮的代码,尤其是你写了几十行的代码,别人只用了简单几行的递归就实现的功能。下面我就总结几个C语言中 比较新手向的代码。让你有一种”woc!还能这么写!”的想法,二进制 递归大神绕路。

第一种:递归类

求最大公因数

常规写法:

int gcd(int m, int n)

{

int r;

if (m>n){r=m,m=n,n=r;}

r=n%m;

while (r!=0){

n=m;

m=r;

r=n%m;

}

return m;

}

骚操作!?递归写法!

int gcd(int x, int y) {

return y?gcd(y,x%y):x;

}

第一次看到这个代码,我的反应是黑人问号脸。卧槽?辗转相除法,还能这么写?wtf

逆序输出字符串

常规写法:

char *reverse(char *str)

{

if( !str ) //判断输入字符串是否为空串

{

return NULL; //若为空串则返回NULL

}

int len = strlen(str);

if( len > 1 )

{

char ctemp =str[0];

str[0] = str[len-1];

str[len-1] = '\0'; // 最后一个字符在下次递归时不再处理

reverse(str+1); // 递归调用

str[len-1] = ctemp;

}

return str;

}

递归写法!

void reverse(char *x)

{

if(*x){ //若该字符型变量为0(ascii码值为0,不是数字'0')的字符则不进入

fun(x+1); //递归调用

printf("%c",*x); //输出单个字符

}

}

这样写是不是有点栈的味道!

第二种:二进制!

交换两个变量的值

常规写法:

int temp = a;

a = b;

b = temp;

三行代码,用到一个中间值。那么用二进制中的异或可以不使用第三个值,并且只有一行代码。

使用二进制的写法:

a ^= b ^= a ^= b;

具体两者的时间复杂度,没有深入的了解。

统计变量二进制中 ‘1' 的个数

常规写法:

int v; //被计算的变量

int count=0; //计算二进制中‘1'的个数

while(v != 0){

if(v%2 ==1)

count++;

v /= 2;

}

将被统计的变量对2求余,如果余数为1则count加一。

使用二进制的写法:

int v=9; //被统计的变量

int count; //统计二进制中‘1'的个数

for(count=0; v; count++) {

v &= v-1;

}

利用二进制操作符的特性,操作二进制能让方法变得更加简单合理。

To be continue…

本项目聚焦于利用Tensorflow框架搭建完整的卷积神经网络(CNN)以实现文本分类任务。文本分类是自然语言处理的关键应用,目的是将文本自动归类到预定义的类别中。项目涵盖从数据预处理到模型训练、评估及应用的全流程。 README.md文件详细阐述了项目概览、安装步骤、运行指南和注意事项,包括环境搭建、代码运行说明以及项目目标和预期结果的介绍。 train.py是模型训练的核心脚本。在Tensorflow中,首先定义模型结构,涵盖CNN的卷积层、池化层和全连接层。接着,加载数据并将其转换为适合模型输入的格式,如词嵌入。之后,设置损失函数(如交叉熵)和优化器(如Adam),并配置训练循环,包括批次大小和训练步数等。训练过程中,模型通过调整权重来最小化损失函数。 text_cnn.py文件包含CNN模型的具体实现细节,涉及卷积层、池化层的构建以及与全连接层的结合,形成完整模型。此外,还可能包含模型初始化、编译(设定损失函数和评估指标)及模型保存功能。 eval.py是用于模型评估的脚本,主要在验证集或测试集上运行模型,计算性能指标,如准确率、精确率、召回率和F1分数,以评估模型在未见过的数据上的表现。 data_helpers.py负责数据预处理,包括分词、构建词汇表、将文本转换为词向量(如使用预训练的Word2Vec或GloVe向量),以及数据划分(训练集、验证集和测试集)。该文件还可能包含数据批处理功能,以提高模型训练效率。 data文件夹存储了用于训练和评估的影评数据集,包含正负面评论的标注数据。数据预处理对模型性能至关重要。本项目提供了一个完整的端到端示例,是深度学习文本分类初学者的优质学习资源。通过阅读代码,可掌握利用Tensorflow构建CNN处理文本数据的方法,以及模型管理和评估技巧。同时,项目展示了如何使用大型文本数据集进行训练,这对提升模型泛化能力极为重要。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值