remove()和detach()方法的异同?

本文详细探讨了jQuery中的remove()和detach()两个方法的区别。相同之处在于两者都能删除DOM节点,但remove()在删除时会移除绑定的事件,而detach()则保留了事件绑定。通过一个具体的HTML案例,展示了当使用这两个方法移动并操作段落元素时,点击事件的不同行为。案例中,使用detach()的段落即使被移除后,仍然保留其click事件,当重新附加到文档时,依然能响应动画效果。

思路1:相同之处是他们都可以删除节点。
    思路2:不同之处是remove()删除之后不保留该元素绑定的事件
    思路3:而detach()删除之后保留该元素绑定的事件
案例:
<html>
<meta charset="UTF-8"/>
<head>
    <script type="text/javascript" src="js/jquery-3.2.1.min.js"></script>
    <script type="text/javascript">
        $(document).ready(function(){
            $("button").click(function(){
                $("body").append($("p").remove());
            });
            $("p").click(function(){
                $(this).animate({fontSize:"+=10px"})
            });
        });
    </script>
</head>
<body>
<p>在本段落移动之后,试着点击该段落,请注意它保留了 click 事件。</p>
<button>移动 p 元素</button>
</body>
</html>

detach() 是一个 PyTorch 中的函数,用于将一个 Tensor 从计算图中分离出来,使得它不再具有梯度计算历史。这通常在需要手动计算梯度或者将 Tensor 传入其它程序时使用。 具体来说,如果一个 Tensor 被分离出来,它将不再参与反向传播过程,即不会再被更新梯度。这样做的好处是可以减小显存的消耗,在无需反向传播的情况下,可以通过使用 detach() 函数减少空间的占用。 使用 detach() 函数的示例代码如下所示: ``` import torch x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True) # 计算 y = x^2 y = x.pow(2) # 分离出 y,不再参与反向传播 y_detached = y.detach() # 计算 z = sin(y_detached) z = y_detached.sin() # 反向传播 z.backward() x_grad1 = x.grad print("x.grad1:", x.grad) # x.grad1: tensor([0.5403, 1.0806, 1.6209]) # 再次计算 y = x^2 y = x.pow(2) # 计算 z = sin(y) z = y.sin() # 分离出 y,不再参与反向传播 y_detached = y.detach() # 计算 z_detached = sin(y_detached) z_detached = y_detached.sin() # 反向传播 z_detached.backward() x_grad2 = x.grad print("x.grad2:", x_grad2) # x.grad2: tensor([0.5403, 1.0806, 1.6209]) ``` 以上代码中,我们分别使用了分离前后的 y 计算 z z_detached,使用 x.grad1 计算梯度时,y 未被分离,因此 y 参与了反向传播,计算出的梯度为 [0.5403, 1.0806, 1.6209];而使用 x.grad2 计算梯度时,y 被分离出来,因此不再参与反向传播,两次计算出的梯度完全一致。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值