第二章 1.绘制文本

在上一节中给出了如下方法绘制文本

DrawText (hdc, TEXT ("Hello Windows CE!"), -1, &rect, DT_CENTER | DT_VCENTER | DT_SINGLELINE);


DrawText是一个相当高级的函数,允许由程序显示文本,而由Windows处理大部分细节。DrawText的头几个参数几乎是不言而喻,很直观。当前正在使用的设备环境句柄被传入,同时传入的还有被TEXT宏包围的用来显示的文本,声明成Unicode字符串是为了符合Windows CE的需要。第三个参数是要输出的字符个数,当为-1,则表示传入的是以NULL为终止符的字符串并由Windows计算其长度。

第四个参数是一个指向rect结构的指针,为文本规定了格式化矩形。DrawText用该矩形作为文本格式化输出的基础。文本如何格式化取决于函数的最后一个参数--格式化标志位。这些标志位指定文本如何被放在格式化的矩形里。在指定了DT_CALCRECT标志位的情况下,由DrawText来计算需要输出的文本的尺寸。DrawText甚至用自动计算出的行中断(line break)来将文本格式化多行。在HelloCE的情况里,标志位规定文本应该水平居中(DT_CENTER)和垂直居中(DT_VCENTER)。DT_VCENTER标志只在单行文本的情况下有效,所以最后一个标志位DT_SINGLELINE规定如果矩形宽度不足以显示整个字符串时,文本不应该折成多行。

画文本的另一个方法就是使用下面的函数:
BOOL ExtTextOut (HDC hdc, int X, int Y, UINT fuOptions,
const RECT *lprc, LPCTSTR lpString,
UINT cbCount, const int *lpDx);
ExtTextOut函数同DrawText相比有一些优势。首先,ExtTextOut画单行文本往往更快一些。其次,文本并不在矩形里格式化,而是以传入的x、y坐标作为文本绘制的起始坐标。通常,该点是矩形的左上角坐标,但它可以随着DC中文本对齐方式来改变。传入的rect参数用做剪切矩形,如果背景模式是opaque,则背景颜色的区域被绘制。该矩形参数可以是NULL,表示不需要剪切或者opaquing(不透明化)。接下来的两个参数是文本及字符个数。最后一个参数允许应用程序指定相邻字符之间的水平距离。

Windows CE与其它版本的Windows不同的地方在于只有这两个文本绘制函数用于显示文本。通过使用DrawText或ExTextOut,您可以模拟TextOut 和 TabbedTextOut等其它版本Windows里文本函数所能做的大部分操作。这是Windows CE同Windows早期版本不同的地方之一,通过牺牲向后兼容性来获得一个更小的操作系统。

设备环境属性
关于HelloCe中用的DrawText,我还没有提到的是当显示文本时程序对DC配置做的大量假设。在Windows设备环境上绘制需要很多参数,例如前景色和背景色、文字如何绘制在背景上以及文字的字体等。每次绘制时并不是指定所有这些参数,设备环境保持当前设置,也就是属性,每次在绘制设备变量上绘制时都使用这些属性。

前景色和背景色
文本属性最显而易见的是前景色和背景色。SetTextColor 和GetTextColor允许程序设置和获取当前颜色。这两个函数在Windwos CE设备支持的灰度级屏幕和彩色屏幕上都可以运行的很好。

使用前面提到的GetDeviceCaps函数,可以确定设备支持多少颜色。该函数原型如下:
int GetDeviceCaps (HDC hdc, int nIndex);
您需要被查询的DC的句柄,因为不同的DC有不同的内容。例如,打印机DC就不同于显示器DC。第二个参数指出要查询的内容。在返回设备上可用颜色时,当设备支持256色或更少颜色时,NUMCOLORS返回支持的颜色数量。当超过256时,NUMCOLORS对应的返回值为-1,用BITSPIXEL可以返回颜色,此时返回的是每个像素所用的位(bit)数。通过将BITSPIXEL的返回值左移动一位,可以将这个值转换为颜色数,代码示例如下:
nNumColors = GetDeviceCaps (hdc, NUMCOLORS);
if (nNumColors == -1)
nNumColors = 1 << GetDeviceCaps (hdc, BITSPIXEL);

文字对齐方式
当用ExtTextOut显示文本时,系统用DC的文字对齐方式来决定在哪里绘制文本。通过SetTextAlign 函数,文字可以水平和垂直对齐。

SetTextAlign 如下:
UINT WINAPI SetTextAlign (HDC hdc, INT fmode);
传给fmode的对齐标方式标志位如下所示:
TA_LEFT 文本左边缘与控制点对齐(控制点解释见后)
TA_RIGHT文本右边缘与控制点对齐
TA_TOP文本顶部与控制点对齐
TA_CENTER文本以控制点为中心水平居中
TA_BOTTOM文本底部边缘与控制点对齐
TA_BASELINE文本基线与控制点对齐
TA_NOUPDATECP在调用ExtTextOut后,DC的当前点并不更新
TA_UPDATECP在调用ExtTextOut后,DC的当前点更新
上面描述中提到的控制点指的是传给ExtTextOut的x、y坐标。对SetTextAlign的每次调用,垂直对齐标志和水平对齐标志可以组合在一起。

绘制模式
影响文本输出的另一个属性是背景模式。当字母在设备环境上绘制时,系统使用前景色绘制字母自身。字母之间的空间则是另一回事。如果背景模式设置为不透明,则使用当前背景色来绘制该空间。但如果背景模式设置为透明,字母之间的空间保持文字绘制之前的状态。虽然这可能不像是一个大的区别,但设想一个使用图画或者图片来填充的窗口背景。如果文字在图片顶部输出,背景模式设置为不透明,文字周围的区域会被填充,背景色会填充在图片上。如果背景模式是透明,文字在图片上看起来就像文字原本就在图片上一样,图片会在文本的字母之间显示出来。

LRESULT DoPaintMain (HWND hWnd, UINT wMsg, WPARAM wParam,
LPARAM lParam) {
PAINTSTRUCT ps;
RECT rect, rectCli;
HBRUSH hbrOld;
HDC hdc;
INT i, cy;
DWORD dwColorTable[] = {0x00000000, 0x00808080,
0x00cccccc, 0x00ffffff};

GetClientRect (hWnd, &rectCli);

hdc = BeginPaint (hWnd, &ps);

// Get the height and length of the string.
DrawText (hdc, TEXT ("Hello Windows CE"), -1, &rect,
DT_CALCRECT | DT_CENTER | DT_SINGLELINE);

cy = rect.bottom - rect.top + 5;

// Draw black rectangle on right half of window.
hbrOld = (HBRUSH)SelectObject (hdc, GetStockObject (BLACK_BRUSH));
Rectangle (hdc, rectCli.left + (rectCli.right - rectCli.left) / 2,
rectCli.top, rectCli.right, rectCli.bottom);
SelectObject (hdc, hbrOld);

rectCli.bottom = rectCli.top + cy;
SetBkMode (hdc, TRANSPARENT);
for (i = 0; i < 4; i++) {
SetTextColor (hdc, dwColorTable[i]);
SetBkColor (hdc, dwColorTable[3-i]);

DrawText (hdc, TEXT ("Hello Windows CE"), -1, &rectCli,
DT_CENTER | DT_SINGLELINE);
rectCli.top += cy;
rectCli.bottom += cy;
}

SetBkMode (hdc, OPAQUE);
for (i = 0; i < 4; i++) {
SetTextColor (hdc, dwColorTable[i]);
SetBkColor (hdc, dwColorTable[3-i]);

DrawText (hdc, TEXT ("Hello Windows CE"), -1, &rectCli,
DT_CENTER | DT_SINGLELINE);
rectCli.top += cy;
rectCli.bottom += cy;
}
EndPaint (hWnd, &ps);
return 0;
}


Demo的实质内容在OnPaintMain函数里。对DrawText的第一次调用并没有在设备环境上画任何东西。相反,使用DT_CALCRECT标志指示Windows将文本串的矩形尺寸存在rect里。该信息用于计算字符串的高度,并存储在cy里。接下来,在窗口的右侧绘制了一个黑色矩形。函数接下来用不同的前景色、背景色在透明和不透明模式下输出了 同样的字符串。

字体

基于 NSFW Model 色情图片识别鉴黄 后面更新视频检测 项目背景: 随着互联网的快速发展,网络上的信息量呈现出爆炸式的增长。然而,互联网上的内容良莠不齐,其中不乏一些不良信息,如色情、暴力等。这些信息对青少年的健康成长和社会风气产生了不良影响。为了净化网络环境,保护青少年免受不良信息的侵害,我国政府加大了对网络内容的监管力度。在此背景下,本项目应运而生,旨在实现对网络图片和视频的自动识别与过滤,助力构建清朗的网络空间。 项目简介: 本项目基于 NSFW(Not Safe For Work)Model,利用深度学习技术对色情图片进行识别与鉴黄。NSFW Model 是一种基于卷积神经网络(CNN)的图像识别模型,通过学习大量的色情图片和非色情图片,能够准确地判断一张图片是否含有色情内容。本项目在 NSFW Model 的基础上,进一步优化了模型结构,提高了识别的准确率和效率。 项目功能: 色情图片识别:用户上传图片后,系统会自动调用 NSFW Model 对图片进行识别,判断图片是否含有色情内容。如果含有色情内容,系统会给出相应的提示,并阻止图片的传播。 视频检测:针对网络视频,本项目采用帧提取技术,将视频分解为一帧帧图片,然后使用 NSFW Model 对这些图片进行识别。如果检测到含有色情内容的图片,系统会给出相应的提示,并阻止视频的传播。 实时监控:本项目可应用于网络直播、短视频平台等场景,实时监控画面内容,一旦检测到含有色情内容的画面,立即进行屏蔽处理,确保网络环境的纯洁。
### 如何在本地部署 NSFW 模型或服务 要在本地环境中成功部署 NSFW(不适宜工作场合内容)检测模型或服务,以下是详细的说明: #### 准备环境 为了确保能够顺利运行模型和服务,需要安装必要的依赖项。这些工具和库包括但不限于以下几类: - **Python 环境**: 推荐使用 Python 3.7 或更高版本。 - **Transformers 库**: 提供加载预训练模型的功能[^1]。 - **PyTorch/TensorFlow**: 支持深度学习框架的计算需求。 - **Pillow (PIL)**: 处理图像文件并将其转换为适合输入模型的形式。 具体命令如下所示: ```bash pip install transformers torch Pillow ``` #### 加载模型与测试 通过 Hugging Face 的 `transformers` 工具包可以直接访问已有的 NSFW 图片分类模型。例如,可以采用名为 `"Falconsai/nsfw_image_detection"` 的公开模型来完成此任务[^1]。 下面是一个简单的代码片段展示如何加载该模型并对单张图片执行预测操作: ```python from PIL import Image from transformers import pipeline def classify_nsfw(image_path): # 打开指定路径下的图片文件 img = Image.open(image_path) # 初始化 image-classification 流水线对象,并指明使用的特定模型名称 classifier = pipeline("image-classification", model="Falconsai/nsfw_image_detection") # 对传入的图片调用流水线方法得到其类别标签及其置信度分数列表形式的结果 result = classifier(img) return result if __name__ == "__main__": test_img_path = "<your_test_image>" output_results = classify_nsfw(test_img_path) print(output_results) ``` 注意替换 `<your_test_image>` 成实际存在的图片绝对或者相对地址字符串值之前再尝试运行以上脚本。 #### 构建 RESTful API 服务 如果希望进一步扩展功能至 Web 应用程序层面,则可考虑利用 Flask/Django 这样的轻量级 web 开发框架构建起支持 HTTP 请求交互的服务端接口。这里给出基于 FastAPI 实现的一个简单例子作为示范用途: ```python import uvicorn from fastapi import FastAPI, File, UploadFile from PIL import Image from io import BytesIO from typing import List from pydantic import BaseModel app = FastAPI() class Prediction(BaseModel): label: str score: float @app.post("/predict/", response_model=List[Prediction]) async def predict(file: UploadFile = File(...)): try: contents = await file.read() pil_image = Image.open(BytesIO(contents)) clf_pipeline = pipeline('image-classification', model='Falconsai/nsfw_image_detection') predictions = clf_pipeline(pil_image) formatted_preds = [{"label": pred['label'], "score": round(pred['score'], 4)} for pred in predictions] return formatted_preds except Exception as e: raise ValueError(f"Error processing uploaded file {e}") if __name__ == '__main__': uvicorn.run(app, host='0.0.0.0', port=8000) ``` 启动服务器之后即可向 `/predict/` 路径发送 POST 请求附带上传待分析的目标图片获取返回结果了。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值