千发股票震荡交易模型v2

千发股票震荡交易模型除了故有的直线下跌的风险外,它实际上还有一个缺陷,不知道你是否看起来了。

它的缺陷就是当股票处在趋势上升的时候,软件没有股票可以卖,然后最后一次的成交价就一直维持在某个价位上。 比如说最后一次的价格是5块钱,然后现在我们没有一股可以卖了,而价格继续升到6块然后跌到5.5块然后再升到7块,这里面是有一个震荡的,但是我们却没有操作到,我们把这次机会放弃了。

为了解决这种缺陷的话,我们必须在股票变成 5.1块的时候(2%算)不管有没有股票可以卖,我们都需要把股票的最后一次成交的价格变成5.1块,然后继续变成 5.x 块只到6块,然后这个时候股票开始跌了,我们的策略就可以自动买入了,一直买到5.5块钱,然后再升到7块的时候我们就有操作到这个震荡区域了,当然这种趋势行情用震荡来做是很不好理想的一种方式(理想的方式应该是有趋势和震荡对冲的)。不过我们总算是有解决了这样的一个问题了。

在解决这种问题之后,也许我们会变到一个新的问题就是再一次加大了风险。因为我们震荡挣到的钱不会太多,但是我们可能要承担下跌的风险变大了。比如再一次趋势上升的过程中因为震荡我们挣到了新的2份交易的钱,但是下跌的过程却需要5份才达到相同的价格位置。所以我们这种操作方式,最开心的是要变到小周期内的不断震荡的股票。

如果有采用定投基金的朋友,我想采用我们这种方式是最酷的。没有资金可买的时候,因为有其它方面挣到的钱进来。哪么交易就可以不断进行下去了。

 

千发股票自动交易软件已支持这个策略了

 

下面是一个使用优化技术(如动量优化和学习率衰减)的BP神经网络模型的完整代码示例: ```python import numpy as np class NeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.W1 = np.random.randn(input_size, hidden_size) self.W2 = np.random.randn(hidden_size, output_size) self.V1 = np.zeros_like(self.W1) # 用于动量优化 self.V2 = np.zeros_like(self.W2) # 用于动量优化 def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def sigmoid_derivative(self, x): return x * (1 - x) def forward(self, X): self.z = np.dot(X, self.W1) self.hidden_layer = self.sigmoid(self.z) self.output_layer = self.sigmoid(np.dot(self.hidden_layer, self.W2)) def backward(self, X, y, learning_rate, momentum): output_error = y - self.output_layer output_delta = output_error * self.sigmoid_derivative(self.output_layer) hidden_error = np.dot(output_delta, self.W2.T) hidden_delta = hidden_error * self.sigmoid_derivative(self.hidden_layer) dW2 = np.dot(self.hidden_layer.T, output_delta) dW1 = np.dot(X.T, hidden_delta) self.V2 = momentum * self.V2 + learning_rate * dW2 self.V1 = momentum * self.V1 + learning_rate * dW1 self.W2 += self.V2 self.W1 += self.V1 X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]]) y = np.array([[0], [1], [1], [0]]) input_size = X.shape[1] hidden_size = 4 output_size = 1 nn = NeuralNetwork(input_size, hidden_size, output_size) epochs = 10000 learning_rate = 0.1 momentum = 0.9 for i in range(epochs): nn.forward(X) nn.backward(X, y, learning_rate, momentum) # 学习率衰减 learning_rate *= 0.99 new_data = np.array([[1, 1]]) nn.forward(new_data) print("预测结果:", nn.output_layer) ``` 在这个优化的代码示例中,我们添加了动量优化和学习率衰减。动量优化通过引入速度(V)变量来加速参数更新,并减少震荡。学习率衰减通过每个epoch后减小学习率来提高模型的收敛性。 请注意,这只是一个简单的示例代码,实际应用中可能需要更复杂的优化技术和调参方法。神经网络的性能和训练结果很大程度上取决于数据集和网络结构的选择。如果你有更多问题,请随时提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值