UVa 10887 - Concatenation of Languages

本文探讨了如何使用哈希表解决UVa10887-ConcatenationofLanguages问题,即求两个集合合并后的不同元素数量。通过实例讲解和代码实现,深入解析哈希表的应用与优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

传送门UVa 10887 - Concatenation of Languages


题意是给两个集合,求A +B后的不同的个数。

用哈希解决。


不过之前哈希表的大小开小了,找了好久找不出原因。。。(╯‵□′)╯ ┴─┴ 


#include <cstdio>
#include <cstring>
using namespace std;
const int MAXN = 1600;
const int HashSize = 3000000;

char astr[MAXN][12];
char result[MAXN * MAXN][30];
int head[HashSize], next[HashSize];

int BKDHash(char *s);
bool TryToInsert(int s);
void Initial();

int main()
{
    //freopen("input.txt", "r", stdin);
    int an, bn, i, j, T, k, cnt, cases = 1;
    scanf("%d", &T);
    while (T--)
    {
        k = 1, cnt = 0;
        memset(head, 0, sizeof(head));
        scanf("%d%d%*c", &an, &bn);
        for (i = 0; i < an; i++)
            gets(astr[i]);
        char str[12];
        for (i = 0; i < bn; i++)
        {
            gets(str);
            for (j = 0; j < an; j++)
            {
                char temp[40];
                strcpy(temp, astr[j]);
                strcat(temp, str);
                strcpy(result[k], temp);
                if (TryToInsert(k))   //if the new word 还没出现过
                    cnt++, k++;
            }
        }
        printf("Case %d: %d\n", cases++, cnt);
    }
    return 0;
}

int BKDHash(char *s)
{
    int seed = 131;
    int value = 0;
    for (int i = 0; i < strlen(s); i++)
        value = value * seed + s[i];
    return (value & 0x7FFFFFFF) % HashSize;
}

bool TryToInsert(int s)
{
    int v = BKDHash(result[s]);
    int u = head[v];
    while (u)
    {
        if (strcmp(result[s], result[u]) == 0)
            return false;
        u = next[u];
    }
    next[s] = head[v];
    head[v] = s;
    return true;
}




<think>嗯,用户想了解如何在TensorFlow或PyTorch中实现按通道拼接。首先,我需要回忆一下这两种框架中常用的拼接函数。PyTorch里应该是torch.cat,而TensorFlow可能是tf.concat。然后,关键点在于指定拼接的维度,也就是通道所在的轴。 接下来,我得考虑用户的使用场景。他们可能是在构建卷积神经网络,比如U-Net或者类似的需要多尺度特征融合的模型。这时候,按通道拼接常用于将不同层的特征图合并,增加通道数。需要明确的是,拼接操作需要除通道维度外其他维度(如高度和宽度)必须相同,否则会出错。 用户可能对维度参数不太清楚,比如在PyTorch中,对于NCHW格式的数据,通道是第1维,所以dim=1;而TensorFlow默认是NHWC,通道是最后一维,所以axis=-1或3。需要举例子说明两种框架的用法,同时提醒维度一致的要求。 另外,用户可能有隐式的疑问,比如为什么要用按通道拼接而不是其他方式,比如相加。这时候可以简单提一下拼接的好处,比如保留更多信息,但也会增加计算量。不过用户的问题主要是如何实现,所以这部分可以作为扩展稍微提一下。 还需要检查是否有相关引用可以支持。比如引用[4]提到AGs可以整合到标准CNN如U-Net,可能涉及到特征拼接,但不确定,所以可能不直接引用。其他引用似乎不相关,所以可能不需要添加引用。 最后,生成相关问题时要考虑用户可能的后续问题,比如维度不匹配怎么办,应用场景,性能影响等,这样可以帮他们深入理解。</think>在深度学习框架中,按通道拼接(channel-wise concatenation)主要通过指定维度参数实现。以下是TensorFlow和PyTorch的具体实现方法: ### 一、PyTorch实现 使用`torch.cat`函数,指定拼接维度为通道维度(通常为`dim=1`): ```python import torch # 输入特征图形状:(batch_size, channels, height, width) x1 = torch.randn(2, 64, 128, 128) # 64通道 x2 = torch.randn(2, 32, 128, 128) # 32通道 # 沿通道维度拼接 concatenated = torch.cat((x1, x2), dim=1) print(concatenated.shape) # 输出:torch.Size([2, 96, 128, 128]) ``` ### 二、TensorFlow实现 使用`tf.concat`函数,指定拼接轴为通道轴(通常为`axis=-1`或`axis=3`): ```python import tensorflow as tf # 输入特征图形状:(batch_size, height, width, channels) x1 = tf.random.normal([2, 128, 128, 64]) # 64通道 x2 = tf.random.normal([2, 128, 128, 32]) # 32通道 # 沿通道维度拼接 concatenated = tf.concat([x1, x2], axis=-1) print(concatenated.shape) # 输出:(2, 128, 128, 96) ``` ### 关键注意事项: 1. 拼接时除通道维度外,其他维度必须完全相同 2. 常用于: - U-Net等分割网络的跳跃连接[^4] - 多尺度特征融合 - 多模态数据融合(如RGB+深度图)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值