LeetCode每日一题(790. Domino and Tromino Tiling)

给定一个整数n,返回2 x n棋盘上使用多米诺和托米诺形状进行平铺的不同方式数。返回答案模10^9 + 7。示例和约束见题面。

You have two types of tiles: a 2 x 1 domino shape and a tromino shape. You may rotate these shapes.

Given an integer n, return the number of ways to tile an 2 x n board. Since the answer may be very large, return it modulo 109 + 7.

In a tiling, every square must be covered by a tile. Two tilings are different if and only if there are two 4-directionally adjacent cells on the board such that exactly one of the tilings has both squares occupied by a tile.

Example 1:

Input: n = 3
Output: 5

Explanation: The five different ways are show above.

Example 2:

Input: n = 1
Output: 1

Constraints:

  • 1 <= n <= 1000

一个 board 我们从左往右排 tile, 分两种情况, 一种是排满,也就是是个严格的矩形, 另一种是部分排满,是一个矩形缺少右上角的一个方块或者右下角的一个方块。

假设 f(k)代表排满长度为 k 的 board 的排列方法的数量, p(k)代表部分排满长度为 k 的 board 的排列方法数量。这里要注意 p(k)当中的 k 要理解为缺一个角的矩形的长度,而不是多一个角的矩形的长度, 例如题中的 Tromino tile 它的长度是 2 而不是 1。还有要注意的是部分排满的情况我们只考虑缺右上角或者右下角的一种, 因为这两种情况是对称的

f(k) = f(k-1) + f(k-2) + 2 * p(k-1)
f(k)的情况可以从如下三种情况转换而来:

  1. f(k-1)再加一条竖着的 Domino tile
  2. f(k-2)加两条竖着的 Domino tile 或者加两条横着的 Domino tile
  3. p(k-1)加上对应的 Tromino tile, 因为有两种缺角情况所以乘以 2

impl Solution {
    pub fn num_tilings(n: i32) -> i32 {
        if n == 1 {
            return 1;
        }
        if n == 2 {
            return 2;
        }
        const M: i64 = 10i64.pow(9) + 7;
        let mut f = vec![0i64; n as usize];
        let mut p = vec![0i64; n as usize];
        f[0] = 1;
        f[1] = 2;
        p[1] = 1;
        for i in 2..n as usize {
            f[i] = (f[i - 1] + f[i - 2] + 2 * p[i - 1]) % M;
            p[i] = (p[i - 1] + f[i - 2]) % M;
        }
        *f.last().unwrap() as i32
    }
}

“Poison frogs! targeted clean-label poisoning attacks on neural networks”这是一个关于对神经网络进行有针对性的干净标签中毒攻击的研究项目。在这种攻击中,研究人员通过修改训练数据集中的特定标签,以欺骗神经网络模型以误分类输入样本。 干净标签中毒攻击是一种隐蔽的攻击方式,因为攻击者不需要修改图像本身或添加任何可见的攻击标记。相反,他们通过对训练数据集进行精心设计的修改,使神经网络在应用中出现错误分类。这种攻击方法可能会导致严重后果,例如在自动驾驶汽车或安全系统中造成事故或功能失效。 这个项目的目的是研究这种攻击方法的可行性和效果,并提出对抗这种攻击的解决方案。研究人员首先对训练数据集进行修改,以使特定类别的图像被误分类为其他类别。然后,他们使用已经训练好的神经网络模型,通过修改训练数据集中的特定图像标签,使模型在测试阶段错误地将这些特定图像分类为不同的类别。 结果表明,即使在高性能的神经网络上进行干净标签中毒攻击也是可行的。这些攻击可以在不影响模型在其他正常输入上性能的情况下,误导模型对特定图像的分类。这使得攻击者能够操纵模型的行为,甚至可能导致系统的安全漏洞和错误决策。 为了对抗这种攻击,研究人员提出了一种改进的训练策略,称为“防御机制”。这种方法可以增强模型对干净标签中毒攻击的鲁棒性,并提供了一种有效的方法来检测和解决这种攻击。 总体而言,这个项目揭示了干净标签中毒攻击在神经网络中的潜在威胁,并提供了对抗这种攻击的解决方案。这有助于进一步加强神经网络模型在面临安全挑战时的鲁棒性,并推动相关领域的研究和技术发展。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值