struts2 拦截器

在struts.xml中配置

1.配置拦截器
<interceptors>

<interceptor name="" class="">
<param name="">value</param>
.......
</interceptor>

<interceptor-stack name="">
<interceptor-ref name=""/>
<interceptor-ref name="">
<param name="">value</param>
</interceptor-ref>
</interceptor-stack>

</interceptors>

2.使用拦截器
<action>
<result/>
<interceptor-ref name=""/>
<interceptor-ref name="defaultStack"/>
</action>

3.配置包的默认拦截器
<struts>
<package name="" extends="struts-default">
<interceptors>
.......
....
</interceptors>
<default-interceptor-ref name="">
<param name="">value</param>
</default-interceptor-ref>
<action/>
</package>
</struts>

如果没有指定stack,默认使用defaultStack。
配置了拦截器(栈),就不适用默认了。如要使用,指出。如上。

4.自定义拦截器
实现Interceptor接口
或者继承AbstractInterceptor类

4.方法过滤拦截器。
对action中的特定方法实行过滤
继承MethodFilterInterceptor,重写了AbstractInterceptor的Interceptor方法(应该是现实了方法过滤),提供了doIntercept方法来实现用户的行为。
配置:
<action>
....
....
<interceptor-ref name="">
<param name="excludeMethods">value1,value2,value3</param>
<param name="includeMethods">value1,value2,value3</param>
</interceptor-ref>
</action>

一个方法同时被exclude和include。则以include为准。
Struts2 默认提供的方法过滤拦截器有:
DefaultWordflowInterceptor
TokenInterceptor (防止表单重复提交)
TokenSessionInterceptor(同上)
ValidationInterceptor

5.拦截结果监听器
原来的interceptor中的代码:

code1....
.......
ai.invoke()
code2.....
.....

现在我们要将code2剥离出来,实现解耦。(有没有必要?好像太复杂了) 可以通过实现PreResultListerner接口来实现。重写beforeResult(ActionInvocation ai, String result)方法。其中result是action返回的值。
注意:在beforeResult()方法中,不要再调用ai.invoke方法,这样会造成死循环。

5.覆盖拦截器中的参数。(不太会用到)
在action中使用拦截器栈。要覆盖其中某个拦截器的默认配置参数。这个参数也可能与拦截器栈中的其他参数重名。配置方法:

<interceptor-stack name="Stack">
<interceptor-ref name="first">
<interceptor-ref name="second">
<param name="same">value</param>
</interceptor-ref>
<interceptor-ref name="second">
<param name="same">value</param>
</interceptor-ref>
</interceptor-stack>

<action>
<result/>
<interceptor-ref name="Stack">
<param name="first.same">value</param>
</interceptor-ref>
</action>

如上,通过使用“拦截器名.参数名”的方法来覆盖默认参数。
内容概要:本书《Deep Reinforcement Learning with Guaranteed Performance》探讨了基于李雅普诺夫方法的深度强化学习及其在非线性系统最优控制中的应用。书中提出了一种近似最优自适应控制方法,结合泰勒展开、神经网络、估计器设计及滑模控制思想,解决了不同场景下的跟踪控制问题。该方法不仅保证了性能指标的渐近收敛,还确保了跟踪误差的渐近收敛至零。此外,书中还涉及了执行器饱和、冗余解析等问题,并提出了新的冗余解析方法,验证了所提方法的有效性和优越性。 适合人群:研究生及以上学历的研究人员,特别是从事自适应/最优控制、机器人学和动态神经网络领域的学术界和工业界研究人员。 使用场景及目标:①研究非线性系统的最优控制问题,特别是在存在输入约束和系统动力学的情况下;②解决带有参数不确定性的线性和非线性系统的跟踪控制问题;③探索基于李雅普诺夫方法的深度强化学习在非线性系统控制中的应用;④设计和验证针对冗余机械臂的新型冗余解析方法。 其他说明:本书分为七章,每章内容相对独立,便于读者理解。书中不仅提供了理论分析,还通过实际应用(如欠驱动船舶、冗余机械臂)验证了所提方法的有效性。此外,作者鼓励读者通过仿真和实验进一步验证书中提出的理论和技术。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值