在一个文本文件中的单词统计频率并打印前十个

本文介绍了一种从文本文件中统计出现频率最高的十个单词的方法。通过词法分析分离单词,并使用结构体数组来存储和排序单词及其出现次数。最终输出频率最高的十个单词。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

设计分析:

遇到这样一个程序设计,首先解决的是文件读入的问题(我选择读入txt);

第二,英文文章中由英文字母,标点符号,其他字符组成,要将他们分离,这就用到了词法分析,将每个单词分离出来并且分析;

第三,统计单词个数(不一样的单词各有几个),排序,输出频率最高的10个。

要解决的是文件读取后储存问题,就是放在结构体中,单词的种类和数量统计起来。可以用结构体数组,可以用链表。

统计后排序的问题,如果将整个结构体或链表排序,那将是一件好大的工程,但是题目只是将频率最高的10个词打印出来,就像每天人们听歌,排行榜上的第一页是用户听得最多的歌曲。于是,我只是初始化了一个结构体数组,长度为10,将10个排序,然后用最后一个,也就是这10个中频率最小的与其他的比较,如果有频率比他高的,则插入到这个长度为10 的结构体数组中。插入之后还是顺序的。这样就节省了很多的工作量。

数据结构:

储存单词的数据结构:

①结构体

typedef struct
{
    char danci[19];//储存单词
    int count;//记录单词个数,后面出现几次
}sq;

②链表

struct Word

{
 char danci[19];
 int count;
 struct Word *next;
};

找出频率最高的十个单词

for(i=10;i<n;i++)
 {
  if(frequency_max[9].count<word[i].count)
  {
   int a=8;
   while(frequency_max[a].count<word[i].count&&a>=0)
   {
    a--;
   }
  
   for(j=9;j>a+1;j--)
   {
    frequency_max[j]=frequency_max[j-1];
   }
   if(a<0)
     frequency_max[0]=word[i];
   else
    frequency_max[j]=word[i];
  }
 }

 

代码:


#define _CRT_SECURE_NO_DEPRECATE
#define _CRT_SECURE_NO_WARNINGS
#include<iostream>
#include<iomanip>
#include<time.h>
using namespace std;
#define M 20000
//文章单词个数

typedef struct
{
 char danci[19];//储存单词
 int count;//记录单词个数,后面出现几次
}sq;

void main()
{
 double start, finish;
 start = (double)clock();
 sq word[M];
 sq t_word;
 double s, f;
 int K, n = 0, i, j;
 char infile[10];
 s = (double)clock();
 cout << "***********请输入文件路径:***********" << endl;
 cin >> infile;//文件路径输入   
 f = (double)clock();//
 cout << "输入文件路径的时间:" << (f - s) / 1000 << "s" << endl;

 FILE *fp;
 char ch;
 //fp=fopen("d:\pro.txt","r");
 if ((fp = fopen(infile, "r")) == NULL)
 {
  cout << "无法打开文件!" << endl;
  exit(0);
 }
 s = (double)clock();
 while (!feof(fp))
 {
  ch = getc(fp);
  if (ch == ' ' || ch == 10)
  {//虑空
   continue;
  }
  if ((ch >= 'a'&&ch <= 'z') || (ch >= 'A'&&ch <= 'Z'))              //发现一个单词
  {
   K = 0;
   t_word.count = 1;
   while ((ch >= 'a'&&ch <= 'z') || (ch >= 'A'&&ch <= 'Z') || (ch == '\''))
   {
    if (ch >= 'A'&&ch <= 'Z')
     ch += 32;//转换成小写
    t_word.danci[K++] = ch;
    ch = getc(fp);
   }
   t_word.danci[K++] = '\0';

   //一个单词结束
   j = n;

   for (i = 0; i<j; i++) //与前面的单词比较
   {
    if (strcmp(t_word.danci, word[i].danci) == 0)
    {
     word[i].count++;
     break;
    }

   }

   if (n == 0 || i == j)
   {
    word[n] = t_word;
    n++;
   }

  }
 }
 f = (double)clock();
 cout << "读文件,分出单词并统计的时间:" << (f - s) / 1000 << "s" << endl;

 s = (double)clock();
 //输出频率最高的十个单词
 sq frequency_max[10];
 sq temp;
 for (i = 0; i<10; i++)
 {
  frequency_max[i] = word[i];//初始化频率最高的十个单词为前十个单词
 }
 //前十个排序

 for (j = 0; j<10; j++)
 for (i = 0; i<10 - j; i++)
 if (frequency_max[i].count<frequency_max[i + 1].count)
 {
  temp = frequency_max[i];
  frequency_max[i] = frequency_max[i + 1];
  frequency_max[i + 1] = temp;
 }
 for (i = 10; i<n; i++)
 {
  if (frequency_max[9].count<word[i].count)
  {
   int a = 8;
   while (frequency_max[a].count<word[i].count&&a >= 0)
   {
    a--;
   }

   for (j = 9; j>a + 1; j--)
   {
    frequency_max[j] = frequency_max[j - 1];
   }
   if (a<0)
    frequency_max[0] = word[i];
   else
    frequency_max[j] = word[i];
  }
 }
 f = (double)clock();
 cout << "搜索频率最高的10个单词的时间:" << (f - s) << "ms" << endl;
 for (i = 1; i<11; i++)
 {
  cout << setiosflags(ios::left) << setw(10) << frequency_max[i].danci << frequency_max[i].count << endl;
 }
 finish = (double)clock();
 cout << "总运行时间:" << (finish - start) / 1000 << "s" << endl;
 getchar();
 }

 

运行截图:

 

 

 

 

总结:

我发现时间主要花费在文件的io上,由上面截图可以看出链表的效率更低,排序的时间非常少,几乎可以忽略不计。IO由于是与硬件之间的操作,所以花费时间比较多,链表由于需要地址操作,效率也没有数组高。

 

<think>好的,我现在需要帮助用户解决如何用C言编写程序统计文本文件单词出现次数的问题。首先,我需要回顾用户提供的引用内容,确保回答准确。用户提到的引用[1]、[2]、[3]、[4]都是关于C言处理文本统计词频的,所以我要整合这些信息。 首先,用户的问题涉及文件读取、字符串处理、单词统计和排序输出。我得一步步分解问题。根据引用[3],需要逐行扫描文本,将不同的单词存入数组,并在遇到相同单词时增加计数。这可能涉及到如何分割单词,判断是否为有效单词(仅由字母组成),以及大小写转换的问题。 接下来,引用[1]提到要将大写字母转换为小写,所以在处理每个字符时,需要检查是否为字母,并将其转为小写。这可能涉及到遍历每个字符,判断是否是字母,如果是,则继续读取直到非字母字符,形成一个单词。 然后,存储这些单词及其出现次数。引用[3]提到使用数组保存单词和计数,但当数据量大时,数组的效率可能不高。引用[4]提到了使用树结构或者哈希表,这可能更高效。但用户可能需要一个基础的实现,所以先用数组结构,但需要考虑动态扩容,或者使用链表。不过,用户提供的引用中没有详细说明数据结构的选择,可能需要根据实际情况建议。 另外,引用[2]和[3]都提到了逐行处理,所以程序需要按行读取文件,然后逐行处理单词。这涉及到文件操作函数,如fopen、fgets等。 接下来,排序输出。用户需要按字典序输出,所以最后需要对所有单词进行排序,可以使用qsort函数,自定义比较函数来实现字符串的比较。 现在,我需要将这些步骤整合成一个算法流程: 1. 读取文件:使用fopen打开文件,检查是否成功。 2. 逐行读取:用fgets读取每一行。 3. 分割单词:对于每一行,逐个字符处理,提取出单词(仅字母组成),转换为小写。 4. 存储单词:将单词存入结构体数组,每个结构体包含单词字符串和计数。需要检查是否已存在,存在则计数+1,否则添加新条目。 5. 动态数组管理:可能需要动态分配内存,因为单词数量未知,使用realloc调整数组大小。 6. 排序:使用qsort对结构体数组按单词字典序排序。 7. 输出结果:遍历排序后的数组,打印每个单词及其计数。 在这个过程中需要注意内存管理,避免泄漏。例如,每次添加新单词时,需要为字符串分配内存,并在最后释放所有内存。 可能的难点在于如何高效地分割单词和存储统计结果。例如,处理连续的非字母字符,或者单词之间的分隔符。例如,遇到字符如逗号、句号、空格等,需要跳过,并确认单词的边界。 另外,关于单词的存储结构,用户引用中提到使用数组,但当单词数量很大时,查找是否存在会变得很慢,时间复杂度是O(n)。这时候可以考虑使用更高效的数据结构,比如哈希表或二叉搜索树,如引用[4]提到的树结构。但用户可能希望一个简单实现,所以先用数组,但说明其局限性,并可能提到优化的方向。 测试用例需要考虑各种情况,比如大小写混合、带符号的单词、长文本等。 现在,我需要将这些思考整理成一个清晰的步骤说明,并给出示例代码框架,同时指出可能的问题和优化方法。同时,需要确保代码符合C言标准,正确使用文件操作和字符串处理函数。 最后,生成相关问题,帮助用户进一步学习,比如性能优化、处理特殊字符、使用更高效的数据结构等。</think>### 分步实现文本单词统计程序(C言) #### 一、核心步骤 1. **文件读取** - 使用`fopen()`打开文件并检查是否成功 - 逐行读取内容:`while (fgets(buffer, MAX_LINE, fp) != NULL)` 2. **单词提取** - 定义单词为**仅由字母组成的连续字符序列** - 大小写转换:`tolower()`函数统一为小写 - 示例代码片段: ```c for (int i = 0; buffer[i] != '\0'; i++) { if (isalpha(buffer[i])) { // 判断是否为字母 word[len++] = tolower(buffer[i]); } else if (len > 0) { // 遇到非字母且已有单词内容 word[len] = '\0'; process_word(word); // 处理单词 len = 0; } } ``` 3. **频率统计** - 使用结构体数组存储单词及其计数: ```c typedef struct { char* word; int count; } WordEntry; ``` - 动态扩容策略:初始分配100个元素,每次满时`realloc()`扩大为1.5倍 4. **排序输出** - 使用`qsort()`按字典序排序: ```c int compare(const void* a, const void* b) { return strcmp(((WordEntry*)a)->word, ((WordEntry*)b)->word); } ``` #### 二、完整代码框架 ```c #include <stdio.h> #include <ctype.h> #include <string.h> #include <stdlib.h> #define MAX_WORD 100 #define INIT_SIZE 100 typedef struct { char* word; int count; } WordEntry; WordEntry* words = NULL; int capacity = 0; int size = 0; void process_word(const char* word) { // 查找是否已存在 for (int i = 0; i < size; i++) { if (strcmp(words[i].word, word) == 0) { words[i].count++; return; } } // 扩容检查 if (size >= capacity) { capacity = capacity ? capacity * 1.5 : INIT_SIZE; words = realloc(words, capacity * sizeof(WordEntry)); } // 添加新单词 words[size].word = strdup(word); words[size].count = 1; size++; } int main() { FILE* fp = fopen("input.txt", "r"); if (!fp) { perror("文件打开失败"); return 1; } char buffer[1024]; while (fgets(buffer, sizeof(buffer), fp)) { char word[MAX_WORD]; int len = 0; for (int i = 0; buffer[i]; i++) { if (isalpha(buffer[i])) { word[len++] = tolower(buffer[i]); } else if (len > 0) { word[len] = '\0'; process_word(word); len = 0; } } // 处理行末未处理的单词 if (len > 0) { word[len] = '\0'; process_word(word); } } // 排序并输出 qsort(words, size, sizeof(WordEntry), compare); for (int i = 0; i < size; i++) { printf("%s: %d\n", words[i].word, words[i].count); } // 释放内存 for (int i = 0; i < size; i++) free(words[i].word); free(words); fclose(fp); return 0; } ``` #### 三、关键问题说明 1. **时间复杂度** - 当实现查找单词采用线性扫描,时间复杂度为$O(n^2)$ - 优化建议:改用哈希表(时间复杂度$O(n)$)或二叉搜索树[^4] 2. **内存管理** - `strdup()`会自动分配内存,需手动`free()` - 注意防止内存泄漏:在程序结束释放所有动态分配的内存 3. **特殊字符处理** - 当代码跳过所有非字母字符,如需支持带连字符的单词(如"state-of-the-art"),需修改判断逻辑
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值