C++练习17:统计字符串中有多少个单词

C++练习17:统计字符串中有多少个单词

题目

编写一个c++程序,计算字符串中的单词数。每当遇到从空白到非空白字符的转换时,就会遇到单词。字符串只包含由空格分隔的单词。

遇到的困难

一开始感觉这题没啥特别的,比较简单,但是遇到了个坑(原本的代码如下):

#include <string>
#include <iostream>
using namespace std;

int main(){
	
	string s;
	cout << "请输入一句话(以空格分割单词):"; 
	cin >> s;
	
	int count = 0;
	for(int i = 0; i <= s.size(); i++){
		if(s[i] == ' '){
			count += 1;
		}
	}
	cout << "这句话有" << count+1 << "个单词"; 
	return 0;
} 

结果输出是一个错误的答案:
在这里插入图片描述
参考了网络上的一些资料发现:

cin读取数据时,它会传递并忽略任何前导白色空格字符(空格、制表符或换行符)。意味着一旦它接触到第一个非空格字符即开始阅读,当它读取到下一个空白字符时,它将停止读取。

#include <string>
#include <iostream>
using namespace std;

int main(){
	
	string s;
	cout << "请输入一句话(以空格分割单词):"; 
	cin >> s;
	
	int count = 0;
	for(int i = 0; i <= s.size(); i++){
		cout << s[i];
	}
	return 0;
} 

输出如下:

可见字符串在出现空格后停止读取,故只打印出hello
在这里插入图片描述
解决方法:

使用getline()函数可以使cin读取出空格等字符串

参考文章:C++ getline函数用法详解

最终代码

#include <string>
#include <iostream>
using namespace std;

int main(){
	
	string s;
	cout << "请输入一句话(以空格分割单词):"; 
	getline(cin, s);
	
	int count = 0;
	for(int i = 0; i <= s.size(); i++){
		if(s[i] == ' '){
			count += 1;
		}
	}
	cout << "这句话有" << count+1 << "个单词"; // 单词数比空格多1
	return 0;
} 

输出:
在这里插入图片描述

### LSTM的输入与输出机制 #### 输入结构 LSTM是一种特殊的循环神经网络(Recurrent Neural Network, RNN),其设计目的是解决传统RNN在处理长时间序列时存在的梯度消失或爆炸问题。LSTM通过引入门控机制来控制信息流,从而能够有效捕捉长期依赖关系。 对于LSTM而言,其输入通常是一个三维张量,形状为 `(样本数, 时间步长, 特征维度)`。具体来说: - **样本数**表示数据集中有多少条独立的时间序列。 - **时间步长**指每一条时间序列包含多少个时间点的数据。 - **特征维度**则代表每个时间点上的特征向量长度[^1]。 例如,在自然语言处理任务中,如果我们将一句话看作是一组单词组成的序列,则这里的“时间步长”就是句子中的词数量,“特征维度”可以是每个词经过嵌入层后的向量大小。 #### 输出形式 LSTM 的输出取决于具体的配置方式以及应用场景: 1. 对于单层 LSTM 来说,它会针对每一个时间步返回隐藏状态 \(h_t\) 和细胞状态 \(c_t\) 。其中隐藏状态作为当前时刻该节点对外界表达的信息载体;而细胞状态内部存储着更深层次的历史记忆信息[^2]。 2. 当构建深层 LSTM 结构 (即堆叠多个 LSTM 层) 时,前一层的所有时间步输出将被送至下一层作为新输入继续传播计算直到最后一层结束为止。 3. 实际应用过程中往往还需要附加额外操作比如加入全连接层(FC),以便最终得到符合需求的目标值——无论是连续型变量还是离散类别标签等不同类型的任务目标都可以通过调整 FC 后面激活函数的形式达成目的。 4. 在某些特定情况下如仅关心整个序列最后一步的状态而非中间过程变化情况的话可以直接取最后一个时间步对应的 h_T 或 c_T 进行后续处理而不是保留全部历史记录下来。 5. 另外值得注意的是当涉及到多维或多模态数据源联合建模的时候可能还会存在更加复杂的组合模式比如说同时考虑视觉图像帧加上音频片段共同作用影响未来趋势走向等问题此时就需要灵活运用不同类型的编码解码器架构配合起来完成相应功能实现[^3]。 ```python import tensorflow as tf model = tf.keras.Sequential([ tf.keras.layers.LSTM(units=64, input_shape=(None, feature_dim), return_sequences=True), tf.keras.layers.Dense(output_size, activation='softmax') ]) ``` 上述代码展示了一个简单的基于 TensorFlow/Keras 构造出来的带有单层 LSTM 单元并设置 `return_sequences` 参数为 True 表明希望获取每一时刻 t 所产生的隐含层状态 ht 给予下一个 Dense Layer 做进一步分类决策使用的例子。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

调参侠鱼尾

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值