提取一堆数字中出现次数最多的数字

算法实现:

import java.util.ArrayList;
import java.util.Collection;
import java.util.Collections;
import java.util.HashMap;
import java.util.List;
import java.util.Map;

public class FindMaxCountNumber {
    public static Map<Integer, Integer> find(int[] array) {
    	Map<Integer, Integer> map = new HashMap<>();
    	for(int i=0; i<array.length; i++) {
    		if(map.containsKey(array[i])) {
    			int count = map.get(array[i]);
    			map.put(array[i], count + 1);
    		} else {
    			map.put(array[i], 1);
    		}
    	}
    	return map;
    }
    public static void main(String[] args) {
	int[] array = {1,2,3,4,5,6};
	Map<Integer, Integer> map = find(array);
	Collection<Integer> values = map.values();
	int maxCount = Collections.max(values);
	List<Integer> maxNumbers = new ArrayList<>();
	for(Map.Entry<Integer, Integer> entry : map.entrySet()) {
		if(entry.getValue() == maxCount) {
			maxNumbers.add(entry.getKey());
		}
	}
	System.out.print("出现次数最多的数字是:");	
	for(int i=0; i<maxNumbers.size(); i++) {
		System.out.print(maxNumbers.get(i) + " ");
	}
	System.out.println();	
	System.out.println("这些数字都出现" + maxCount + "次");
    }
}






### 使用前馈神经网络(FNN)训练和测试MNIST手写数字数据集 #### 数据准备 MNIST数据集是一个广泛使用的基准数据集,包含70,000张灰度图像,每张图像是28×28像素大小的手写数字(0到9)。通常情况下,60,000张图像被划分为训练集,剩下的10,000张作为测试集[^3]。 为了使用FNN处理这些数据,需要先对原始图像进行预处理。具体来说,要将二维矩阵展平成一维向量,并对其进行归一化操作以便于后续计算: ```python import tensorflow as tf from tensorflow.keras import datasets, layers, models # 加载并划分 MNIST 数据集 (train_images, train_labels), (test_images, test_labels) = datasets.mnist.load_data() # 归一化像素值至 [0, 1] train_images = train_images / 255.0 test_images = test_images / 255.0 # 将图像形状从 (28, 28) 转换为 (784,) train_images = train_images.reshape((60000, 28 * 28)) test_images = test_images.reshape((10000, 28 * 28)) ``` #### 构建模型结构 构建一个简单的多层感知机(MLP),它是一种典型的前馈神经网络形式。通过堆叠多个全连接层以及应用激活函数完成特征提取与分类任务。这里采用ReLU作为隐藏层的激活函数,Softmax则应用于输出层以得到概率分布[^2]: ```python model = models.Sequential() model.add(layers.Dense(128, activation='relu', input_shape=(28 * 28,))) model.add(layers.Dropout(0.2)) # 添加 Dropout 层防止过拟合 model.add(layers.Dense(10, activation='softmax')) ``` #### 编译模型 编译阶段定义优化算法、损失函数及评估指标。对于多类别分类问题,推荐使用`categorical_crossentropy`或者其稀疏版本`sparse_categorical_crossentropy`作为目标函数;Adam因其自适应学习率特性成为常用的选择之一: ```python model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) ``` #### 训练过程 调用`.fit()`方法启动训练流程,在此期间指定批量大小(batch size) 和迭代次数(epoch),同时监控验证集合上的表现变化情况: ```python history = model.fit(train_images, train_labels, epochs=10, batch_size=64, validation_split=0.1) ``` #### 测试性能 最后一步是对未见过的数据执行预测动作,并统计最终得分: ```python test_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2) print('\nTest accuracy:', test_acc) ``` 以上就是完整的基于Keras框架下的FNN实现方案概述[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值