2016.11.02回顾

本文探讨了有效市场假说的实际应用价值,并对其在A股市场的有效性进行了评价。文中还介绍了小市值因子模型的回测结果及存在的疑问,讨论了总股本、流通股本等概念及其在换手率计算中的作用。同时,对Fama-French三因子模型进行了简要说明,并提出了对于模型应用中可能存在的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、进一步看了下有效市场假说,感觉没啥用啊,就是一个信息的曝光程度,越多越接近有效,但是只是个假说而已,没有什么指导意义,指导意义就是A股是一个介于无效和弱有效之间的市场,所以可以获取阿尔法收益,可以进行技术面和基本面的分析,就是这样,多的我也不明白了

2、上午还看了个小市值因子的模型,回测结果非常好,我始终感觉里面有潜在的未来函数,但是具体我不知道在哪里,还需要进一步研究

3、总股本和流通股本,总股本是总的股数,流通股本是流通的股数;换手率是一段时间成交的手数除以总的流通股数,体现了股票的流通性,总手是开盘到目前总的成交手数,现手是上一次成功交易的手数,总手又分外盘和内盘,外盘是买家去迎合卖家,红色表示,内盘是卖家迎合买家,绿色表示!

4、继续看uqer的精华帖,其中提到了fama-french三因子模型,我有一点不是很明白,精华帖中上面描述的三因子是一些小市值有关的因子,后来选的因子却不是。还有一点,精华帖中的股票池并不是动态设置的,而是静态的,这不是含了未来函数有偏差吗?用的是当前沪深300成分股

以上

<think>好的,我需要帮助用户找到如何使用NumPy处理rml2016.10a数据集的示例或方法。首先,我得先理解这个数据集的结构。根据用户提供的引用[3],这个数据集的每个样本是形状为(2, 128)的数组,包含I/Q两路数据,总共有220,000条样本,信噪比从-20dB到18dB,间隔2dB,共有11种调制方式。 用户的问题集中在NumPy的使用上,所以需要展示如何用NumPy进行数据加载、预处理、分割和特征提取。我需要先回顾NumPy处理这类数据的一般步骤,然后结合数据集的特性来具体说明。 首先,数据加载。数据集的原始格式可能是.mat文件,因为引用[3]提到读取数据集,而通常RML数据集是MATLAB格式的。使用NumPy的话,可能需要使用scipy.io.loadmat来加载,但用户可能希望主要用NumPy处理,所以虽然scipy不是NumPy,但加载数据是必要的一步,之后的数据处理可以集中在NumPy操作上。 接下来是数据预处理。可能需要归一化处理,比如对I/Q两路分别进行标准化。这里可以用NumPy的均值和标准差计算,然后进行缩放。例如,使用np.mean和np.std,然后进行减法除法操作。 然后是数据集分割,用户可能需要将数据分为训练集、验证集和测试集。可以用NumPy的索引或者随机排列来实现。比如,使用np.random.permutation来打乱数据,再按比例分割。 特征提取方面,可能需要计算幅度和相位,或者进行傅里叶变换得到频域特征。这可以通过NumPy的数组操作实现,比如np.abs计算幅度,np.arctan2计算相位,或者使用np.fft.fft进行快速傅里叶变换。 在示例代码部分,需要展示这些步骤的具体实现。例如,加载数据后,提取I/Q数据,进行归一化,分割数据集,然后计算幅度和相位。同时,要注意保持代码的简洁和可读性,使用NumPy的函数来提高效率。 另外,引用[2]中提到了使用ResNet处理类似的数据集,可能涉及到将数据转换为适合神经网络的输入形状,比如调整维度,这也可以作为预处理的一部分,用NumPy的reshape或transpose来实现。 需要确保所有步骤都使用NumPy库的功能,避免使用其他库如Pandas,除非必要。同时,引用的部分要正确标注,比如数据集的描述来自引用[3],而可能的可视化部分可以参考引用[1]中的时间域图绘制,但用户的问题集中在NumPy处理,所以可视化可能不是重点,但可以作为扩展提到。 最后,生成相关问题时要围绕数据处理的其他方面,比如可视化、深度学习结合、数据增强等,帮助用户进一步探索。</think>### 使用NumPy处理rml2016.10a数据集的示例 #### 1. 数据加载与结构解析 根据引用[3],该数据集包含220,000个形状为$(2,128)$的复数样本,每个样本对应I/Q两路信号。使用NumPy加载数据的核心步骤如下: ```python import numpy as np from scipy.io import loadmat # 用于读取MATLAB格式文件 # 加载数据集 data = loadmat('rml2016.10a.mat') complex_data = data['data'] # 获取复数信号数据 labels = data['labels'] # 获取调制类型标签 snr = data['snr'] # 获取信噪比信息 # 查看数据结构 print("样本形状:", complex_data.shape) # 输出 (220000, 2, 128) print("标签类型:", np.unique(labels)) # 输出11种调制方式[^3] ``` #### 2. 数据预处理 **归一化处理**:对I/Q两路分别进行标准化 ```python # 提取I/Q数据并转换为float32类型 i_data = complex_data[:,0,:].astype(np.float32) q_data = complex_data[:,1,:].astype(np.float32) # 计算均值和标准差 i_mean, i_std = np.mean(i_data), np.std(i_data) q_mean, q_std = np.mean(q_data), np.std(q_data) # 标准化处理 i_normalized = (i_data - i_mean) / i_std q_normalized = (q_data - q_mean) / q_std ``` #### 3. 数据集划分 ```python # 生成随机索引 indices = np.random.permutation(len(complex_data)) # 按7:2:1划分数据集 train_idx = indices[:154000] # 70% val_idx = indices[154000:198000] # 20% test_idx = indices[198000:] # 10% # 创建数据子集 train_data = np.stack([i_normalized[train_idx], q_normalized[train_idx]], axis=1) ``` #### 4. 特征工程 **计算幅度和相位**: ```python # 幅度计算:sqrt(I^2 + Q^2) amplitude = np.sqrt(i_normalized**2 + q_normalized**2) # 相位计算:arctan(Q/I) phase = np.arctan2(q_normalized, i_normalized) ``` **频域转换**(参考引用[1]的时间域图原理): ```python # 快速傅里叶变换 fft_i = np.fft.fft(i_normalized, axis=1) fft_q = np.fft.fft(q_normalized, axis=1) # 取对数幅度谱 log_spectrum = np.log(np.abs(fft_i) + 1e-8) ``` #### 5. 数据增强示例 **添加高斯噪声**: ```python def add_noise(signal, snr_db): signal_power = np.mean(signal**2) noise_power = signal_power / (10 ** (snr_db / 10)) noise = np.random.normal(0, np.sqrt(noise_power), signal.shape) return signal + noise # 为0dB信噪比添加噪声 noisy_i = add_noise(i_normalized, snr=0) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值