实现一个可限制最大连接数的Proactor服务器

本文介绍了一种在Proactor框架下的服务器程序实现方法,通过预分配服务处理对象并利用空闲队列来限制服务器的最大连接数,从而提高服务器处理效率。

在服务器程序实现中,一般要求能够限制服务器的最大连接数,这主要是从服务器的性能方面考虑,当过多的连接到来时,服务器虽然能够处理,但效率非常低下,也就会出现卡机的现象。

 

在用Proactor框架实现的服务器中可以很容易地做到这一点。ACE_Asynch_Acceptor类有一个虚方法:make_handler(),默认情况下是new一个服务处理对象出来,我们可以让他在适当的时候返回一个空值,这样,新的连接便被拒绝了。

 

另外为了避免每次都完全构造一个全新的服务处理对象,这里还可以使用预分配的方法,一开始便创建出所有的service对象,当有连接到来时,直接取一个未使用的分配给该连接,当连接关闭时,同时也不delete该对象,而是加到空闲队列中,等下一次有新连接到来时再使用。

 

实现的代码如下:

 

#include <ace/Os_main.h>

#include <ace/Asynch_Acceptor.h>

#include <ace/Proactor.h>

#include <list>

 

#define LISTEN_PORT 5222              // 服务器监听端口

#define MAX_CONNS 2                     // 最大连接数

 

class HA_Proactive_Acceptor;

 

class HA_Proactive_Service : public ACE_Service_Handler

{

public:

       virtual ~HA_Proactive_Service ();

 

       void init( HA_Proactive_Acceptor * acceptor );

 

       virtual void open (ACE_HANDLE h, ACE_Message_Block&);

       virtual void handle_read_stream (const ACE_Asynch_Read_Stream::Result &result);

       virtual void handle_write_stream (const ACE_Asynch_Write_Stream::Result &result);

 

private:

       ACE_Asynch_Read_Stream reader_;

       ACE_Asynch_Write_Stream writer_;

 

       HA_Proactive_Acceptor * acceptor_;

};

 

 

class HA_Proactive_Acceptor : public ACE_Asynch_Acceptor<HA_Proactive_Service>

{

public:

       HA_Proactive_Acceptor();

 

       void free_handler( HA_Proactive_Service * service );

 

private:

       virtual HA_Proactive_Service *make_handler (void);

       void init_handlers();

 

private:

       typedef std::list<HA_Proactive_Service *> T_Handler_List;

       T_Handler_List handler_list_;

};

 

 

HA_Proactive_Service::~HA_Proactive_Service ()

{

       if (this->handle () != ACE_INVALID_HANDLE)

              ACE_OS::closesocket (this->handle ());

}

 

void HA_Proactive_Service::init( HA_Proactive_Acceptor * acceptor )

{

       this->acceptor_ = acceptor;

}

 

void HA_Proactive_Service::open (ACE_HANDLE h, ACE_Message_Block&)

{

       this->handle (h);

       if (this->reader_.open (*this) != 0 || this->writer_.open (*this) != 0   )

       {

              ACE_OS::closesocket (this->handle ());

              this->acceptor_->free_handler( this );

              return;

       }

 

       ACE_Message_Block *mb;

       ACE_NEW_NORETURN (mb, ACE_Message_Block (1024));

       if (this->reader_.read (*mb, mb->space ()) != 0)

       {

              mb->release ();

              ACE_OS::closesocket (this->handle ());

              this->acceptor_->free_handler( this );

       }

}

 

void HA_Proactive_Service::handle_read_stream (const ACE_Asynch_Read_Stream::Result &result)

{

       ACE_Message_Block &mb = result.message_block ();

       if (!result.success () || result.bytes_transferred () == 0)

       {

              mb.release ();

              ACE_OS::closesocket (this->handle ());

              this->acceptor_->free_handler( this );

       }

       else

       {

              ACE_DEBUG ((LM_DEBUG, ACE_TEXT("Received Data : %c/n"), *mb.rd_ptr()));

              mb.release();

 

              ACE_Message_Block *new_mb;

              ACE_NEW_NORETURN (new_mb, ACE_Message_Block (1024));

              this->reader_.read (*new_mb, new_mb->space ());

       }

}

 

void HA_Proactive_Service::handle_write_stream (const ACE_Asynch_Write_Stream::Result &result)

{

       result.message_block ().release ();

}

 

 

HA_Proactive_Acceptor::HA_Proactive_Acceptor() : ACE_Asynch_Acceptor<HA_Proactive_Service>()

{

       init_handlers();

}

 

void HA_Proactive_Acceptor::free_handler( HA_Proactive_Service * service )

{

       this->handler_list_.push_back( service );

}

 

HA_Proactive_Service * HA_Proactive_Acceptor::make_handler (void)

{

       if( this->handler_list_.empty() )

              return 0;

 

       HA_Proactive_Service * service = this->handler_list_.front();

       this->handler_list_.pop_front();

 

       return service;

}

 

void HA_Proactive_Acceptor::init_handlers()

{

       for( int i = 0; i < MAX_CONNS; ++i )

       {

              HA_Proactive_Service * service;

              ACE_NEW( service, HA_Proactive_Service );

              service->init( this );

              this->handler_list_.push_back( service );

       }

}

 

 

int ACE_TMAIN (int, ACE_TCHAR *[])

{

       ACE_INET_Addr listen_addr( LISTEN_PORT );

       HA_Proactive_Acceptor aio_acceptor;

       if (0 != aio_acceptor.open (listen_addr, 0, 0, 5, 1, 0, 0))

              ACE_ERROR_RETURN ((LM_ERROR, ACE_TEXT ("%p/n"), ACE_TEXT ("acceptor open")), 1);

 

       ACE_Proactor::instance ()->proactor_run_event_loop ();

 

       return 0;

}

 

 
基于 NSFW Model 色情图片识别鉴黄 后面更新视频检测 项目背景: 随着互联网的快速发展,网络上的信息量呈现出爆炸式的增长。然而,互联网上的内容良莠不齐,其中不乏一些不良信息,如色情、暴力等。这些信息对青少年的健康成长和社会风气产生了不良影响。为了净化网络环境,保护青少年免受不良信息的侵害,我国政府加大了对网络内容的监管力度。在此背景下,本项目应运而生,旨在实现对网络图片和视频的自动识别与过滤,助力构建清朗的网络空间。 项目简介: 本项目基于 NSFW(Not Safe For Work)Model,利用深度学习技术对色情图片进行识别与鉴黄。NSFW Model 是一种基于卷积神经网络(CNN)的图像识别模型,通过学习大量的色情图片和非色情图片,能够准确地判断一张图片是否含有色情内容。本项目在 NSFW Model 的基础上,进一步优化了模型结构,提高了识别的准确率和效率。 项目功能: 色情图片识别:用户上传图片后,系统会自动调用 NSFW Model 对图片进行识别,判断图片是否含有色情内容。如果含有色情内容,系统会给出相应的提示,并阻止图片的传播。 视频检测:针对网络视频,本项目采用帧提取技术,将视频分解为一帧帧图片,然后使用 NSFW Model 对这些图片进行识别。如果检测到含有色情内容的图片,系统会给出相应的提示,并阻止视频的传播。 实时监控:本项目可应用于网络直播、短视频平台等场景,实时监控画面内容,一旦检测到含有色情内容的画面,立即进行屏蔽处理,确保网络环境的纯洁。
### 如何在本地部署 NSFW 模型或服务 要在本地环境中成功部署 NSFW(不适宜工作场合内容)检测模型或服务,以下是详细的说明: #### 准备环境 为了确保能够顺利运行模型和服务,需要安装必要的依赖项。这些工具和库包括但不限于以下几类: - **Python 环境**: 推荐使用 Python 3.7 或更高版本。 - **Transformers 库**: 提供加载预训练模型的功能[^1]。 - **PyTorch/TensorFlow**: 支持深度学习框架的计算需求。 - **Pillow (PIL)**: 处理图像文件并将其转换为适合输入模型的形式。 具体命令如下所示: ```bash pip install transformers torch Pillow ``` #### 加载模型与测试 通过 Hugging Face 的 `transformers` 工具包可以直接访问已有的 NSFW 图片分类模型。例如,可以采用名为 `"Falconsai/nsfw_image_detection"` 的公开模型来完成此任务[^1]。 下面是一个简单的代码片段展示如何加载该模型并对单张图片执行预测操作: ```python from PIL import Image from transformers import pipeline def classify_nsfw(image_path): # 打开指定路径下的图片文件 img = Image.open(image_path) # 初始化 image-classification 流水线对象,并指明使用的特定模型名称 classifier = pipeline("image-classification", model="Falconsai/nsfw_image_detection") # 对传入的图片调用流水线方法得到其类别标签及其置信度分数列表形式的结果 result = classifier(img) return result if __name__ == "__main__": test_img_path = "<your_test_image>" output_results = classify_nsfw(test_img_path) print(output_results) ``` 注意替换 `<your_test_image>` 成实际存在的图片绝对或者相对地址字符串值之前再尝试运行以上脚本。 #### 构建 RESTful API 服务 如果希望进一步扩展功能至 Web 应用程序层面,则可考虑利用 Flask/Django 这样的轻量级 web 开发框架构建起支持 HTTP 请求交互的服务端接口。这里给出基于 FastAPI 实现的一个简单例子作为示范用途: ```python import uvicorn from fastapi import FastAPI, File, UploadFile from PIL import Image from io import BytesIO from typing import List from pydantic import BaseModel app = FastAPI() class Prediction(BaseModel): label: str score: float @app.post("/predict/", response_model=List[Prediction]) async def predict(file: UploadFile = File(...)): try: contents = await file.read() pil_image = Image.open(BytesIO(contents)) clf_pipeline = pipeline('image-classification', model='Falconsai/nsfw_image_detection') predictions = clf_pipeline(pil_image) formatted_preds = [{"label": pred['label'], "score": round(pred['score'], 4)} for pred in predictions] return formatted_preds except Exception as e: raise ValueError(f"Error processing uploaded file {e}") if __name__ == '__main__': uvicorn.run(app, host='0.0.0.0', port=8000) ``` 启动服务器之后即可向 `/predict/` 路径发送 POST 请求附带上传待分析的目标图片获取返回结果了。 ---
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值