patL2-004

L2-004. 这是二叉搜索树吗?
时间限制
400 ms
内存限制
65536 kB
代码长度限制
8000 B
判题程序
Standard
作者
陈越
一棵二叉搜索树可被递归地定义为具有下列性质的二叉树:对于任一结点,

其左子树中所有结点的键值小于该结点的键值;
其右子树中所有结点的键值大于等于该结点的键值;
其左右子树都是二叉搜索树。
所谓二叉搜索树的“镜像”,即将所有结点的左右子树对换位置后所得到的树。

给定一个整数键值序列,现请你编写程序,判断这是否是对一棵二叉搜索树或其镜像进行前序遍历的结果。

输入格式:

输入的第一行给出正整数N(<=1000)。随后一行给出N个整数键值,其间以空格分隔。

输出格式:

如果输入序列是对一棵二叉搜索树或其镜像进行前序遍历的结果,则首先在一行中输出“YES”,然后在下一行输出该树后序遍历的结果。数字间有1个空格,一行的首尾不得有多余空格。若答案是否,则输出“NO”。

输入样例1:
7
8 6 5 7 10 8 11
输出样例1:
YES
5 7 6 8 11 10 8
输入样例2:
7
8 10 11 8 6 7 5
输出样例2:
YES
11 8 10 7 5 6 8
输入样例3:
7
8 6 8 5 10 9 11
输出样例3:
NO
提交代码

实际上是通过前序遍历结果尝试建一颗二叉搜索树,然后再检查即可。

#include <iostream>
#include <cstring>
#include <queue>
#include <set>
#include <vector>
#include <cmath>
#include <stack>
#include <string>
#include <queue>
#include <algorithm>
#include <cstdio>
#include <map>
using namespace std;
#define INF 0x3f3f3f3f
struct node {
    int value;
    node *left;
    node *right;
    node() {
        left = right = NULL;
    }
};
int value, c, num[1005];
bool flag;
void getTree(node *p) {
    if (p->value > value) {
        if (p->left == NULL) {
            p->left = new node();
            p->left->value = value;
        }
        else {
            getTree(p->left);
        }
    }
    else {
        if (p->right == NULL) {
            p->right = new node();
            p->right->value = value;
        }
        else {
            getTree(p->right);
        }
    }
}
void getTreeios(node *p) {
    if (p->value <= value) {
        if (p->left == NULL) {
            p->left = new node();
            p->left->value = value;
        }
        else {
            getTreeios(p->left);
        }
    }
    else {
        if (p->right == NULL) {
            p->right = new node();
            p->right->value = value;
        }
        else {
            getTreeios(p->right);
        }
    }
}
void check(node *p) {
    if (p->value != num[c++]) {
        flag = false;
        return;
    }
    else {
        if (p->left != NULL) {
            check(p->left);
            if (!flag) {
                return;
            }
        }
        else if(p->right != NULL){
            check(p->right);
            if (!flag) {
                return;
            }
        }
    }
}
void print(node *p) {
    if (p == NULL) {
        return;
    }
    print(p->left);
    print(p->right);
    if (!flag)
        printf("%d", p->value), flag = true;
    else
        printf(" %d", p->value);
}
int main() {
    int n;
    scanf("%d", &n);
    for (int i = 0; i < n; ++i) {
        scanf("%d", &num[i]);
    }
    node *head = new node();
    head->value = num[0];
    for (int i = 1; i < n; ++i) {
        value = num[i];
        getTree(head);
    }
    flag = true;
    check(head);
    if (flag) {
        printf("YES\n");
        flag = false;
        print(head);
        putchar('\n');
    }
    else {
        flag = true;
        head = new node();
        head->value = num[0];
        for (int i = 1; i < n; ++i) {
            value = num[i];
            getTreeios(head);
        }
        c = 0;
        check(head);
        if (flag) {
            printf("YES\n");
            flag = false;
            print(head);
            putchar('\n');
        }
        else {
            printf("NO\n");
        }
    }
    return 0;
}
内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值