换了新的工具–X31

将近一周没更新 Blog.
这几天的一个变化是换了一个工作用的笔记本(一台旧的 IBM X31 /1.4G CPU/40G/512+256 MEM), 空闲的时间都用来折腾这个机器了,就没有时间更新 Blog . 原来的 Dell Inspiron 6000 终于可以还回去, 周五下班的时候好奇的在楼下秤了以下原装包和笔记本的总重量, 居然是–5.5 公斤强, 晕倒. 想想以前居然自己背着这么一个庞然大物,不可思议.
换机器的一个麻烦事情是安装好众多软件之后, 要把 Windows 环境迁移一下, 包括文档阿, 邮件(我的归档+当前一共有 3G 左右, 邮件规则配置也很麻烦,迁移过来邮件规则就不自动应用), 各种软件配置等等, 如果有一款软件能够做到就方便多了.


新的机器还有很多不适应的地方,尤其是 Fn 键, 总会按错. 另外一个担心的是硬盘, 总”卡达卡达”的响.周二开始将熬夜进行系统升级, 希望这个新工具不要突然罢工, 那可麻烦大了.
键盘换了新的, 输入比原来好多了. 开写 Blog 啦 :)

BTW:
X31 也可以通过IBM提供的一个小工具定制 Windows 键. 很管用.

Google+
如何在下面这段代码中进行检查维度问题:def Data_load_SUMIMO_train(Config): print('加载接收端的频域符号:') x12_data = [] x13_data = [] for i, data_path in enumerate(Config.data_path_list): relative_path = data_path + '/RxFreqData' # './'表示当前目录,'../'表示上级目录 path_list = sorted(os.listdir(relative_path)) # 返回的是该路径下所有文件和目录组成的列表,sorted方法确保后续path_list列表中元素的顺序保持一致 print(path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]) x11_data = [] for file in path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]: file_path = os.path.join(relative_path, file) feature_data = load(file_path) # 加载mat文件,得到的feature_data为字典类型 x1 = np.asarray(feature_data['group_freqdata'], dtype=np.complex64) # 根据字典中相应的key提取numpy数组,其中'group_freqdata'为变量名字。 x11_data.extend(x1) # 统计每个点位下的训练数据 train = x11_data[:int(len(x11_data) * 0.9)] val = x11_data[int(len(x11_data) * 0.9):] print('第{}个路径下参与训练的数据为{}'.format(i, len(train))) print('第{}个路径下参与验证的数据为{}'.format(i, len(val))) x12_data.extend(train) x13_data.extend(val) train_Feature_part1 = np.asarray(x12_data) # 参与训练的第一部分特征 val_Feature_part1 = np.asarray(x13_data) # 参与验证的第一部分特征 print('总的训练的数据为{}'.format(len(train_Feature_part1))) print('总的验证数据为{}'.format(len(val_Feature_part1))) print('加载接收端的导频估计:') x32_data = [] x33_data = [] for i, data_path in enumerate(Config.data_path_list): relative_path = data_path + '/LsEstimation' # './'表示当前目录,'../'表示上级目录 path_list = sorted(os.listdir(relative_path)) # 返回的是该路径下所有文件和目录组成的列表,sorted方法确保后续path_list列表中元素的顺序保持一致 print(path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]) x31_data = [] for file in path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]: file_path = os.path.join(relative_path, file) feature_data = load(file_path) # 加载mat文件,得到的feature_data为字典类型 x3 = np.asarray(feature_data['group_lsresult'], dtype=np.complex64) # 根据字典中相应的key提取numpy数组,其中'group_lsresult'为变量名字。 x31_data.extend(x3) # x3_data为列表形式 train = x31_data[:int(len(x31_data) * 0.9)] val = x31_data[int(len(x31_data) * 0.9):] x32_data.extend(train) x33_data.extend(val) train_Feature_part3 = np.asarray(x32_data) # 参与训练的第2部分特征 val_Feature_part3 = np.asarray(x33_data) # 参与验证的第2部分特征 print('---进行插值----') start_time = time.perf_counter() # -----------------训练集插值----------------- rows, _, _, _, layer_num = train_Feature_part3.shape for i in range(rows): for j in range(layer_num): array = train_Feature_part3[i, :, :, :, j] # (TTI, S, F, Nr, Nt) train_Feature_part3[i, :, :, :, j] = nearest_neighbor_interpolation_single_pilot_01(array) rows, _, _, _, layer_num = val_Feature_part3.shape for i in range(rows): for j in range(layer_num): array = val_Feature_part3[i, :, :, :, j] # (TTI, S, F, Nr, Nt) val_Feature_part3[i, :, :, :, j] = nearest_neighbor_interpolation_single_pilot_01(array) end_time = time.perf_counter() print('插值所用时间为:{}min'.format((end_time - start_time) / 60)) print('---插值完成---') print('加载标签:') x42_data = [] x43_data = [] for i, data_path in enumerate(Config.data_path_list): relative_path = data_path + '/Label' # './'表示当前目录,'../'表示上级目录 path_list = sorted(os.listdir(relative_path)) # 返回的是该路径下所有文件和目录组成的列表,sorted方法确保后续path_list列表中元素的顺序保持一致 print(path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]) x41_data = [] for file in path_list[Config.segment_num[i][0]:Config.segment_num[i][1]]: file_path = os.path.join(relative_path, file) feature_data = load(file_path) # 加载mat文件,得到的feature_data为字典类型 x4 = feature_data['group_txcwbits'] # 根据字典中相应的key提取numpy数组,其中'group_txcwbits'为变量名字。 x41_data.extend(x4) train = x41_data[:int(len(x41_data) * 0.9)] val = x41_data[int(len(x41_data) * 0.9):] x42_data.extend(train) x43_data.extend(val) y_train = np.asarray(x42_data, dtype=np.float32) # 参与训练的标签 y_val = np.asarray(x43_data, dtype=np.float32) # 参与验证的标签 train_Feature_part3 = train_Feature_part3.reshape(train_Feature_part3.shape[0], train_Feature_part3.shape[1], train_Feature_part3.shape[2], train_Feature_part3.shape[3] * train_Feature_part3.shape[4]) print( val_Feature_part3 = val_Feature_part3.reshape(val_Feature_part3.shape[0], val_Feature_part3.shape[1], val_Feature_part3.shape[2], val_Feature_part3.shape[3] * val_Feature_part3.shape[4]) x_train = np.concatenate((train_Feature_part1, train_Feature_part3), axis=3) # (TTI, S, F, 12) x_val = np.concatenate((val_Feature_part1, val_Feature_part3), axis=3) # (TTI, S, F, 12) return x_train, y_train, x_val, y_val
09-25
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值