微软2014年4月 实习生招聘机试题 4.most frequent logs

Time Limit: 10000ms
Case Time Limit: 3000ms
Memory Limit: 256MB


Description

In a running system, there're many logs produced within a short period of time, we'd like to know the count of the most frequent logs.
Logs are produced by a few non-empty format strings, the number of logs is N(1=N=20000), the maximum length of each log is 256.
Here we consider a log same with another when their edit distance (see note) is = 5.
Also we have a) logs are all the same with each other produced by a certain format string b) format strings have edit distance  5 of each other.
Your program will be dealing with lots of logs, so please try to keep the time cost close to O(nl), where n is the number of logs, and l is the average log length.
Note edit distance is the minimum number of operations (insertdeletereplace a character) required to transform one string into the other, please refer to httpen.wikipedia.orgwikiEdit_distance for more details.

Input

Multiple lines of non-empty strings.

Output

The count of the most frequent logs.


Sample In

Logging started for id:1
Module ABC has completed its job
Module XYZ has completed its job
Logging started for id:10
Module ? has completed its job


Sample Out

3

 

以下为个人给出的一个解,计算编辑距离使用了动态规划

#include <iostream>
#include <fstream>
#include <string>

using namespace std;
//计算编辑距离,使用动态规划法
int calEditDis(char* a,char* b){
	int len_a=strlen(a);
	int len_b=strlen(b);
	int tmp=0;
	int leftUp,left,up;
	len_a++; //维数分配 需有边界1维
	len_b++;
	int result = 0;
	int* assistArray; //二维数组 assistArray[len_a][len_b]
	assistArray = new int [(len_a)*(len_b)]();
	
	for(int i=0;i<len_a;i++)
		assistArray[i*len_b]=i; //assistArray[i][0]
	for(int j=0;j<len_b;j++)
		assistArray[j] = j;     //assistArray[0][j]
	//cout<<"********************************************"<<endl;
	for(int i=1;i<len_a;i++){
		for(int j=1;j<len_b;j++){
			if(a[i-1]==b[j-1])
				leftUp = assistArray[(i-1)*(len_b)+(j-1)];
			else 
				leftUp = assistArray[(i-1)*(len_b)+(j-1)] + 1;
			left = assistArray[i*len_b+(j-1)] + 1;
			up   = assistArray[(i-1)*len_b+j] + 1 ;
			assistArray[i*len_b+j] = left<up?(left<leftUp?left:leftUp):(up<leftUp?up:leftUp);
			//cout<<assistArray[i*len_b+j]<<" ";
		}
		//cout<<endl;
	}
	//cout<<"**********************************************"<<endl;
	result = assistArray[len_a*len_b-1];
	delete[] assistArray;
	return result;	
}

#define LOGNUM (20000)
#define LOGLEN (256+1)

typedef struct RECORDER{
	bool useful;
	int  index;
	int  num;
}RECORDER;
int main(){

	char (*ptr)[LOGLEN];
	ptr = new char[LOGNUM][LOGLEN];

	int dis=0;
	bool newLog =false;
	
	int result = 0;
//record[LOGNUM] 数组中记录了 出现次数 依次从多到少的相关信息,在整个过程中都维护该数据结构
	RECORDER record[LOGNUM]; 

	int count = 0;
	memset(record,0,sizeof(record));
	fstream fstr("testCase.txt");

	for(int i= 0,j=0,k=0;i< LOGNUM;i++){
		newLog = true;
		if(fstr.eof())
			break;
		fstr.getline(ptr[i],LOGLEN);
		if(strlen(ptr[i])==0)
			continue;
		for(j=0;j<count;j++){
			dis = calEditDis(ptr[(record[j].index)],ptr[i]);
			if(dis <=5){
				record[j].num++;
				newLog = false;
				break;
			}			
		}
		if(newLog == true){
			count++;
			record[count-1].index=i;
			record[count-1].useful = true;
			record[count-1].num = 1;
		}
		else if(j!=0){
			if(j>=1 && record[j].num > record[j-1].num){
				k=j;
				while(k>=1 && record[k].num > record[k-1].num)
					k--;
				{
					RECORDER tmp = record[j];
					record[j] = record[k];
					record[k] = tmp;
				}
			}
		}
	}
	cout<<record[0].num<<endl;
	cout<<ptr[record[0].index]<<endl;
	delete[] ptr;

}


 

内容概要:本文是一份针对2025中国企业品牌传播环境撰写的《全网媒体发稿白皮书》,聚焦企业媒体发稿的策略制定、渠道选择与效果评估难题。通过分析当前企业面临的资源分散、内容同质、效果难量化等核心痛点,系统性地介绍了新闻媒体、央媒、地方官媒和自媒体四大渠道的特点与适用场景,并深度融合“传声港”AI驱动的新媒体平台能力,提出“策略+工具+落地”的一体化解决方案。白皮书详细阐述了传声港在资源整合、AI智能匹配、舆情监测、合规审核及全链路效果追踪方面的技术优势,构建了涵盖曝光、互动、转化与品牌影响力的多维评估体系,并通过快消、科技、零售等行业的实战案例验证其有效性。最后,提出了按企业发展阶段和营销节点定制的媒体组合策略,强调本土化传播与政府关系协同的重要性,助力企业实现品牌声量与实际转化的双重增长。; 适合人群:企业市场部负责人、品牌方管理者、公关传播从业者及从事数字营销的相关人员,尤其适用于初创期至成熟期不同发展阶段的企业决策者。; 使用场景及目标:①帮助企业科学制定媒体发稿策略,优化预算分配;②解决渠道对接繁琐、投放不精准、效果不可衡量等问题;③指导企业在重大营销节点(如春节、双11)开展高效传播;④提升品牌权威性、区域渗透力与危应对能力; 阅读建议:建议结合自身企业所处阶段和发展目标,参考文中提供的“传声港服务组合”与“预算分配建议”进行策略匹配,同时重视AI工具在投放、监测与优化中的实际应用,定期复盘数据以实现持续迭代。
先展示下效果 https://pan.quark.cn/s/987bb7a43dd9 VeighNa - By Traders, For Traders, AI-Powered. Want to read this in english ? Go here VeighNa是一套基于Python的开源量化交易系统开发框架,在开源社区持续不断的贡献下一步步成长为多功能量化交易平台,自发布以来已经积累了众多来自金融构或相关领域的用户,包括私募基金、证券公司、期货公司等。 在使用VeighNa进行二次开发(策略、模块等)的过程中有任何疑问,请查看VeighNa项目文档,如果无法解决请前往官方社区论坛的【提问求助】板块寻求帮助,也欢迎在【经验分享】板块分享你的使用心得! 想要获取更多关于VeighNa的资讯信息? 请扫描下方二维码添加小助手加入【VeighNa社区交流微信群】: AI-Powered VeighNa发布十周之际正式推出4.0版本,重磅新增面向AI量化策略的vnpy.alpha模块,为专业量化交易员提供一站式多因子器学习(ML)策略开发、投研和实盘交易解决方案: :bar_chart: dataset:因子特征工程 * 专为ML算法训练优化设计,支持高效批量特征计算与处理 * 内置丰富的因子特征表达式计算引擎,实现快速一键生成训练数据 * Alpha 158:源于微软Qlib项目的股票市场特征集合,涵盖K线形态、价格趋势、时序波动等多维度量化因子 :bulb: model:预测模型训练 * 提供标准化的ML模型开发模板,大幅简化模型构建与训练流程 * 统一API接口设计,支持无缝切换不同算法进行性能对比测试 * 集成多种主流器学习算法: * Lass...
【顶级EI完整复现】【DRCC】考虑N-1准则的分布鲁棒会约束低碳经济调度(Matlab代码实现)内容概要:本文介绍了名为《【顶级EI完整复现】【DRCC】考虑N-1准则的分布鲁棒会约束低碳经济调度(Matlab代码实现)》的技术文档,重点围绕电力系统中低碳经济调度问题展开,结合分布鲁棒优化(Distributionally Robust Optimization, DRO)与会约束规划(Chance-Constrained Programming, CCP),引入N-1安全准则以提升系统在元件故障情况下的可靠性。该方法在不确定性环境下(如风电出力波动)保障调度方案的可行性与经济性,同时降低碳排放。文档提供了完整的Matlab代码实现,便于科研人员复现实验结果,适用于高水平学术研究与工程应用验证。; 适合人群:具备电力系统优化、运筹学及不确定性建模背景的研究生、科研人员及电力行业工程师,熟悉Matlab编程与优化工具箱(如YALMIP、CPLEX/Gurobi)者更佳;适合从事智能电网、低碳调度、鲁棒优化方向的研究者; 使用场景及目标:①复现顶级EI期刊论文中的分布鲁棒会约束模型;②研究N-1安全准则在低碳经济调度中的集成方法;③掌握分布鲁棒优化在电力系统不确定性处理中的建模技巧;④为微电网、综合能源系统等场景下的可靠、低碳调度提供算法支撑; 阅读建议:建议结合文档中提供的网盘资源(含YALMIP-develop等工具包)进行代码调试与实验验证,重点关注不确定性建模、会约束转化、鲁棒优化求解流程,并可进一步扩展至多能源协同、需求响应等复杂场景。
<think>嗯,用户问的是这段代码:most_frequent_top10_product_code = np.array(Counter(df.product_code).most_common(10))[:, 0]。我需要先理解这段代码的作用,然后一步步解释清楚。首先,我应该分解每个部分的功能。 Counter来自collections模块,用来统计可哈希对象的出现次数。这里对df.product_code进行统计,然后调用most_common(10)获取前10个最常见的元素及其计数。结果应该是一个列表,里面包含元组,比如[('A', 50), ('B', 45), ...]。 接下来,用np.array把这个列表转成NumPy数组。这时候数组的形状应该是(10,2),假设每个元组有两个元素。然后切片[:, 0]是取所有行的第0列,也就是提取产品代码,排除计数部分。 用户可能需要了解每个步骤的细节,比如为什么用np.array而不是直接列表推导。可能还要提到,如果数据中有并列的情况,most_common(10)会怎么处理,比如是否按出现顺序取前10。另外,是否需要处理可能的异常情况,比如product_code列是否存在缺失值? 还要注意代码的潜在问题,比如导入是否正确,是否有依赖库的安装。可能用户在实际应用中会遇到数据类型的问题,比如product_code是否是字符串类型,否则统计可能会有问题。或者是否需要先对数据进行预处理,比如去除空白字符等。 在解释时,应该分步骤说明,并给出一个例子,让用户更清楚。比如假设df.product_code的值是某个具体的数据集,展示中间结果如何变化。同时,提醒可能出现的错误,比如如果product_code不足10个,会不会报错,或者切片是否依然有效。 最后,总结代码的作用,即获取出现次数最多的前10个产品代码,并转换为NumPy数组。可能用户需要这些代码进行后续分析或可视化,所以解释清楚这一步的输出结构也很重要。</think>好的,我来为您逐步解析这段代码: ```python most_frequent_top10_product_code = np.array(Counter(df.product_code).most_common(10))[:, 0] ``` ### 步骤分解: 1. **Counter统计频次** - `Counter(df.product_code)`:使用`collections`模块的`Counter`统计DataFrame列`product_code`中每个元素的出现次数 - 输出形式示例:`Counter({'A123': 50, 'B456': 45, ...})` 2. **获取前10高频项** - `.most_common(10)`:提取出现频率最高的前10项 - 输出形式:包含元组的列表,例如`[('A123',50), ('B456',45), ...]` 3. **转换为NumPy数组** - `np.array(...)`:将结果转换为二维数组 - 转换后形式: ```python array([['A123', 50], ['B456', 45], ...]) ``` 4. **提取产品代码** - `[:, 0]`:通过切片操作获取所有行的第一列(索引0) - 最终得到: ```python array(['A123', 'B456', ...]) ``` ### 可视化过程: 原始数据 → 统计频次 → 取Top10 → 转数组 → 提取代码列 ### 代码特点: - 适用于需要将高频结果转换为NumPy数组进行后续数值计算的场景 - 通过链式调用实现紧凑的写法 - 最终得到包含前10高频产品代码的一维数组 ### 注意事项: 1. 需要提前导入: ```python from collections import Counter import numpy as np ``` 2. 如果出现频次相同的情况,`most_common()`会按首次出现的顺序排序 3. 实际应用中建议添加异常处理(如处理空值等情况)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值