XTU-OJ 1411-Min Base II

文章讨论了如何将一个十进制数转换成其他进制,使得所有系数出现次数相同,提供了解题思路和C++AC代码示例。

Min Base II

题目描述

一个十进制数n(10) 转成 b 进制数 ak,ak−1,…,a0¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯(b),b≥2,0≤ai<b(i=0,1,…,k)且无前导0,那么 n=∑ki=0aibi。 我们想求最小的基数b,使得所有系数ai出现的次数都是一样的

输入

第一行输出一个整数T(1≤T≤10000),表示样例的个数。 以后每行一个样例,为一个十进制非负整数n(0≤n≤1018)

输出

每行输出一个样例的结果。

样例输入

5
0
1
4
5
1000000000000000000

样例输出

2
2
3
3
44

样例解释

第三个样例10进制数4,转成2进制为100,转成3进制为11

第四个样例10进制数5,转成2进制为101,转成3进制为12

解题思路: 用个 books标记数组 记录每一位的数的出现次数,进制转换完之后,对比每个数的个数,如果不相同 进制b++,反之输出。

AC代码:

#include <stdio.h>

int main()
{
    int T,b,tag;
    __int64 n,temp;
    scanf("%d",&T);
    while ( T --)
    {
        b = 1;
        scanf("%I64d",&n);
        while (n)
        {
            temp = n, b += 1;
            bool flag = true;
            int books[70] = {0};                // 记录 b进制中ai的出现次数
            while (temp)
            {
                books[temp%b]++;
                if (temp/b == 0)    tag = books[temp%b];    //  记录最后出现的ai 的个数
                temp /= b;
            }
            for (int i = 0; i < b; i ++)        // 验证所有系数 出现次数 是否一样
            {
                if (books[i] == 0)  continue;
                if (books[i] != tag) {flag = false; break;} // 如果有一位和记录的tag值不一样,重新开始。
            }
            if (flag)   break;
        }
        if (!n) puts("2");          // 如果n==0, 最小进制为2
        else    printf("%d\n",b);
    }
    return 0;
}

<think>我们注意到用户输入似乎存在拼写错误或不完整。常见的相关术语是"Oja's rule"(奥贾规则),这是一种在神经网络和机器学习中用于主成分分析(PCA)的无监督学习算法。具体来说,"Oja's rule"是一种在线学习规则,用于提取输入数据的主要主成分。 用户问题:"xtu.oja b ii" 可能是想询问 "Oja's rule" 或者相关的数学公式。这里"xtu"可能是"extract"的误写(提取),而"oja"即指Oja规则,"b ii"可能是"by ii"(通过ii)或"bi"(双)的误写,但更可能是指数学中的向量或矩阵表示(例如b_{ii})。 考虑到这些可能性,推测用户意图是询问关于Oja规则的公式及其解释。因此,我们进行网络搜索以获取Oja规则的标准公式和解释。 根据搜索结果,Oja规则的基本形式是一个权重更新规则,用于Hebbian学习中的一个神经元,其目标是学习第一个主成分。公式如下: $$\Delta w_i = \eta \cdot (x_i y - y^2 w_i)$$ 其中: - $w_i$ 是权重向量的第i个分量 - $\eta$ 是学习率 - $x_i$ 是输入向量的第i个分量 - $y$ 是神经元的输出,计算为 $y = \sum_j w_j x_j$ 这个规则可以写成向量形式: $$\Delta \mathbf{w} = \eta \cdot (y \mathbf{x} - y^2 \mathbf{w})$$ 为了确保权重向量不会无界增长,规则中包含了归一化项(即减去$y^2 \mathbf{w}$),这使得权重向量趋向于单位长度。 另外,Oja规则可以推广到多个主成分,即Oja's subspace rule。 因此,回答将聚焦于Oja规则的基本公式和解释,并提供向量形式的公式。 注意:按照要求,回答需要组织成步骤或方法,但避免使用步骤词汇(如首先、然后)。这里我们将其分为几个部分:公式、解释和算法步骤。 最后,根据回答内容生成相关问题。 </think>通过搜索确认,"Oja's rule"(奥贾规则)是神经网络和无监督学习中的核心算法,用于在线性神经元模型中提取主成分(PCA)。其核心公式描述权重向量 $\mathbf{w}$ 的更新过程: **标准Oja规则公式** $$\Delta \mathbf{w} = \eta \left( \mathbf{x} y - y^2 \mathbf{w} \right)$$ 其中: - $\eta$ 为学习率(正标量) - $\mathbf{x}$ 是输入向量 - $y = \mathbf{w}^T \mathbf{x}$ 是神经元输出 - $y^2 \mathbf{w}$ 项防止权重无限增长,确保收敛到主成分方向 **算法实现步骤** 初始化随机权重向量 $\mathbf{w}$ 对每个输入样本 $\mathbf{x}$ 迭代: 1. 计算输出 $y = \mathbf{w}^T \mathbf{x}$ 2. 更新权重 $\mathbf{w} \leftarrow \mathbf{w} + \eta (\mathbf{x} y - y^2 \mathbf{w})$ 3. 重复直到权重变化小于阈值 **Python代码示例** ```python import numpy as np def ojas_rule(X, learning_rate=0.01, epochs=100): n_features = X.shape[1] w = np.random.randn(n_features) # 随机初始化权重 w /= np.linalg.norm(w) # 单位化 for _ in range(epochs): for x in X: y = np.dot(w, x) # 计算输出 dw = learning_rate * (x * y - y**2 * w) # Oja更新规则 w += dw w /= np.linalg.norm(w) # 每轮单位化 return w # 示例用法 X = np.array([[2, 1], [-1, 3], [0, -2]]) # 输入数据 principal_component = ojas_rule(X) ``` **关键特性** - 收敛后 $\mathbf{w}$ 指向最大方差方向(第一主成分) - 可通过分层扩展提取多个主成分 - 生物合理性:模拟神经元Hebbian学习机制 $\Delta w_i \propto x_i y$ - 稳定性由归一化项 $ -y^2 \mathbf{w}$ 保证
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值