xinetd管理的服务和在CentOS 5.5中配置telnet服务器的实例

本文介绍如何使用xinetd配置Telnet服务,包括安装Telnet软件包、创建Telnet配置文件及重启服务等内容。同时,还介绍了如何通过防火墙配置信任端口23,以及xinetd的访问控制策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、概述

      瞬态(Transient)服务被xinetd进程所管理。xinetd服务(yum install xinetd)是用SystemV脚本管理的。它监控由/etc/xinet.d/目录中的文件配置的服务所使用的端口(如你安装了telnet,并且在这里创建了配置文件,xinetd就会监听端口23)。在/etc/xinetd.conf文件中默认的或适用于全局性的设置。xinetd答复它管理的端口上的进入请求,然后调用相应的应用程序。

    命令chkconfig可激活或者取消已安装的xinetd服务。然而,不像其他独立的服务(由启动脚本启动的),这些瞬态服务不为给定的运行级别配置,但决定xinetd是否来管理这些端口和到这些服务的链接。

      如:

           [root@patrick sbin]# chkconfig telnet off
           [root@patrick sbin]# chkconfig --list telnet
           telnet          off
           [root@patrick sbin]# chkconfig telnet on
           [root@patrick sbin]# chkconfig --list telnet
           telnet          on

    

    

      这个守护进程提供基于主机的验证、资源记录、计时访问和地址重定向等许多配置选项。这些选项可能是某个服务持有的,或者是适用于xinetd管理的所有服务。xinetd适用/etc/services文件配置对“端口到服务”的管理。

     红帽企业版Linux的xinetd是用libwrap.so编译的。当服务被请求时,用libwrap.so支持编译的服务将首先调用http_access(5)规则。如果允许访问,就会检查xinetd的内部访问控制策略。 

二、全局配置文件

      xinetd的全局配置文件是/etc/xinetd.conf,它设置所有被管理的服务所共享的全局配置选项,它也提供到服务特有配置的路径。

 

              includedir   /etc/xinetd.d

三、配置telnet服务的实例

step 1:安装telnet服务端程序

 

[root@patrick etc]yum install telnet*

...

[root@patrick etc] rpm -qa | grep telnet

telnet-0.17-39.el5
telnet-server-0.17-39.el5

 

 step 2:在/etc/xinetd.d/ 下创建配置文件telnet。

 

[root@patrick xinetd.d]# cat telnet
# default: on
service telnet
{
        disable = no
        flags = REUSE
        socket_type = stream
        wait = no
        user = root
        server = /usr/sbin/in.telnetd
        log_on_failure += USERID
}

 

重启xinetd服务:service xinetd restart。

 

step 3: 配置防火墙信任端口23

 

[root@patrick xinetd.d] system-config-securitylevel 

四、xinetd的访问控制

      xinetd访问控制可用几个指令来实施,如only_from和no_access。对于某个服务,如果这两个指令都没有指定,说明所有主机都允许访问该服务。如果两者都被指定,将采用“更匹配”的远程主机地址指令。

 

        [root@patrick xinetd.d]# cat telnet
        # default: on
        service telnet
        {
             disable = no
             flags = REUSE
             socket_type = stream
             wait = no
             user = root
             server = /usr/sbin/in.telnetd
             log_on_failure += USERID
            
no_access = 192.168.54.0/24      # 只有192.168.54.0/24网段的机器能访问该服务
          }

 

 

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值