UVa #1592 Database (例题5-9)

这篇博客回顾了UVa #1592的解题思路,强调了预处理字符串转换为整数的重要性,并提到了与例题9-2的相似之处。博主分享了使用扫描法和map进行判重的枚举方法,并提醒读者注意处理字符串输入时的陷阱,如scanf函数的限制,建议使用更灵活的输入方式来避免错误。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一道当时没能AC的题,今天做例题9-2想起来了。。


预处理将字符串转为整数(与例题9-2和这章之前的集合栈计算机类似)

枚举列比枚举行快的多,每次枚举用扫描法+map判重(以后有机会像Morris一样用hash做一做)


最近没怎么做字符串的题,被字符串输入坑了几个WA,写在这里免得以后再犯:

scanf("%s", str) 这种输入方法是直到空格、回车和其他不可打印字符停止。如果中间有空格的情况下想一直读到行尾,要么从头到尾读一整行然后逐个字符处理(个人认为很呆),要么用正则:scanf("%[^\n]", str)


Run Time: 2.922s

#define UVa  "LT5-9.1592.cpp"		//Database
char fileIn[30] = UVa, fileOut[30] = UVa;

#include<cstring>
#include<cstdio>
#include<vector>
#include<map>
#include<string>

using namespace std;

int main() {
    const int maxn = 10000 + 10, maxm = 10 + 10;
    int n,m;           //n: # of rows. m: # of cols.
    while(scanf("%d%d", &n, &m) != EOF) {
        getchar();
        int db[maxn][maxm];
        char entry[100], comma;
        map<string, int> dict;
        int cnt = 1;
        for(int i = 0; i < n; i ++) {
            for(int j = 0; j < m-1; j ++) {
                scanf("%[^,]%c", entry, &comma);
                string s(entry);
                if(!dict.count(s)) dict[s] = cnt ++;
                db[i][j] = dict[s];
            }
            scanf("%[^\n]", entry);
            getchar();
            string s(entry);
            if(!dict.count(s)) dict[s] = cnt ++;
            db[i][m-1] = dict[s];
        }
        int ok = 0;
        for(int c1 = 0; c1 < m; c1 ++) {
            for(int c2 = c1 + 1; c2 < m; c2 ++) {
                map<pair<int,int>, int > vis;
                for(int r2 = 0; r2 < n; r2 ++) {
                    pair<int,int> p(db[r2][c1],db[r2][c2]);
                    if(vis.count(p)) {
                        ok = 1;
                        printf("NO\n%d %d\n%d %d\n", vis[p]+1,r2+1,c1+1,c2+1);
                        break;
                    }
                    vis[p] = r2;
                }
                if(ok) break;
            }
            if(ok) break;
        }
        if(!ok) printf("YES\n");
    }
    return 0;
}

### GIB-UVA ERP-BCI HDF5 文件格式及其处理方法 HDF5 是一种用于存储大量科学数据的文件格式,广泛应用于神经科学研究领域。对于 GIB-UVA ERP-BCI 数据集中的 HDF5 文件,通常包含了脑电图(EEG)信号以及其他元数据信息。以下是关于该类文件的一些重要细节以及如何对其进行处理的方法。 #### 1. HDF5 文件结构概述 HDF5 文件是一种分层的数据存储格式,类似于文件系统的目录树结构。它支持多种数据类型,包括数组、表格和字符串等。在 GIB-UVA ERP-BCI 的上下文中,这些文件可能包含以下内容: - **实验记录**:如时间戳、采样率和其他实验参数。 - **原始 EEG 数据**:多通道的时间序列数据。 - **事件标记**:表示刺激呈现或其他行为事件的时间点。 这种层次化的结构使得研究人员可以轻松访问特定部分的数据而无需加载整个文件[^3]。 #### 2. 处理 HDF5 文件所需的工具 为了读取和操作 HDF5 文件,可以使用 Python 中的 `h5py` 或 MATLAB 提供的相关库。下面是一个简单的例子展示如何利用 `h5py` 打开并探索一个 HDF5 文件的内容: ```python import h5py def explore_hdf5(file_path): with h5py.File(file_path, &#39;r&#39;) as f: print("Keys:", list(f.keys())) # 列出顶层组名 for key in f.keys(): item = f[key] if isinstance(item, h5py.Dataset): print(f"{key} is a dataset with shape {item.shape}") elif isinstance(item, h5py.Group): print(f"{key} is a group containing:") for sub_key in item.keys(): print(f" - {sub_key}") explore_hdf5(&#39;example.h5&#39;) ``` 上述脚本会打印出给定 HDF5 文件的所有顶级键,并区分它们是数据集还是子组[^4]。 #### 3. 内存管理注意事项 如果尝试运行某些大型模型(例如 DeepSeek-R1),可能会遇到内存不足的情况,正如引用中提到的例子所示[^2]。在这种情况下,建议采取以下措施来优化资源分配: - 使用更高效的算法减少计算需求; - 增加物理 RAM 或启用虚拟内存扩展; - 对于 GPU 加速环境,考虑调整批次大小或切换到较低精度浮点数运算模式(FP16 vs FP32)。 此外,在处理大尺寸的 HDF5 文件时也需要注意类似的性能瓶颈问题——可以通过逐块加载而非一次性全部载入的方式来缓解这一挑战[^5]。 #### 4. 特殊情况下的预处理技术 针对 BCI 应用场景下采集得到的高维时空域特征矩阵,往往还需要执行一系列标准化流程,比如去噪滤波器应用、基线校正以及重参考变换等等。具体实现取决于实际研究目标和个人偏好设置等因素影响。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值