日积一步2(如何判断点在空间曲线的内部还是外部)

算法原理:假设带有孔的空间曲面,其外轮廓顺时针转动,内轮廓逆时针转动,那么沿着曲线的方向前进,轮廓的内部始终在我们的右手边。那么如何确定点是在我们的左侧还是右侧呢?可按如下步骤进行:

1. 获取该点的法向,由内向外,或由下向上,什么是上呢?就是从人的脚指向头(倒立的除外)

2.将被判断的点投影到与法向垂直的面上,该平面通过曲线上引出法向的那一点,并连接投影点与法向量的原点,作为投影向量。

3.确定前进方向的向量,可以通过前后相邻两点的方向作为前进方向。

4.求解前进向量与投影向量的叉乘。

5.在将叉乘的结果与法向量进行点乘,如果结果为正,则在曲线外侧,如果为负,则在曲线内测。

下面为程序的一些代码:

//计算两向量的叉乘
void _cross(Point* vec1, Point* vec2, Point* res)
{
	res->x = vec1->y*vec2->z - vec1->z*vec2->y;
	res->y = vec1->z*vec2->x - vec1->x*vec2->z;
	res->z = vec1->x*vec2->y - vec1->y*vec2->x;
}

//计算量向量的点乘
double _dot(Point* vec1, Point* vec2)
{
	return vec1->x*vec2->x + vec1->y*vec2->y + vec1->z*vec2->z;
}

//计算一点沿某一方向的投影
bool _projectPoint(const Point* orgin, const Point* pt, Point* res)
{
	if (0 == orgin->i && 0 == orgin->j && 0 == orgin->k)
		return false;
	double numer = 
		(orgin->i)*(orgin->x - pt->x) +
		(orgin->j)*(orgin->y - pt->y) +
		(orgin->k)*(orgin->z - pt->z);
	double deno = pow(orgin->i, 2) + pow(orgin->j, 2) + pow(orgin->k, 2);
	double t = numer / deno;
	res->x = (orgin->i)*t + pt->x;
	res->y = (orgin->j)*t + pt->y;
	res->z = (orgin->k)*t + pt->z;
	return true;
}

//判断在轮廓的内部还是外部,内部为-1,外部为1
double _inOrOut(Point* orgin, Point* npt, Point* rpt)
{
	//理论轮廓方向
	Point dir1 = *npt - *orgin;
	//实际轮廓方向
	Point dir2 = *rpt - *orgin;
	//计算两向量的叉乘
	Point crossp;
	_cross(&dir1, &dir2, &crossp);
	Point normal(orgin->i, orgin->j, orgin->k);
	double val = _dot(&normal, &crossp);
	if (val > 0.0)
		return 1.0;
	else
		return -1.0;
	
}

 

 

### 使用OpenCV检测灰度图像中的亮或高亮度区域 为了有效检测灰度图像中的亮或高亮度区域,可以采用一系列基于OpenCV的操作来处理和分析图像数据。具体方法涉及图像预处理、滤波以及阈值分割等技术。 #### 图像预处理 原始彩色图像需转换成灰度图像以便后续操作更加简便高效。此过程可通过`cv2.cvtColor()`函数完成: ```python import cv2 image = cv2.imread('path_to_image') gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)[^2] ``` #### 高斯模糊过滤噪声 由于实际拍摄条件下可能存在随机噪干扰,因此建议先对灰度图像施加适当大小核的高斯平滑滤波器以减少这些不必要的细节影响最终结果准确性: ```python blurred_gray = cv2.GaussianBlur(gray, (9, 9), 0)[^4] ``` 这里选择了\(9\times9\)窗口作为卷模板参数设置;当然也可以依据具体情况调整该数值直至获得满意效果为止。 #### 自适应二值化获取候选区域 接着利用自适应阈值算法将经过降噪后的灰阶影像转化为黑白两色版本,在此基础上更容易识别出那些相对明亮的目标对象轮廓边界信息: ```python adaptive_thresh = cv2.adaptiveThreshold(blurred_gray, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY_INV, 11, 2) ``` 上述代码片段中设置了逆向二值化的模式(`THRESH_BINARY_INV`)使得原本较暗背景变为白色而突出显示前景内的发光部分成为黑色连通域块状结构便于进一步提取分离出来单独考察研究其特性属性。 #### 形态学操作优化形状 考虑到可能存在的粘连现象或者细碎斑残留问题,可引入形态学膨胀腐蚀变换组合手段改善闭合程度并去除微小孤立成分从而得到更为理想的候选项集合供下一步筛选判断之用: ```python kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (5, 5)) morphed = cv2.morphologyEx(adaptive_thresh, cv2.MORPH_CLOSE, kernel) # 进行额外一轮开运算消除伪影 cleaned = cv2.morphologyEx(morphed, cv2.MORPH_OPEN, kernel)[^5] ``` 此处定义了一个圆形结构元素用于执行关闭(填充内部孔洞)后再做开启(削除外部毛刺),以此方式能够较好地保持目标主体完整性的同时剔除非本质因素干扰项。 #### 轮廓发现与特征评估 最后一步则是调用内置API查找所有封闭曲线并将满足特定条件者标记为所求“亮”。通常会考虑面大小、圆心位置等因素来进行限定约束确保选出最符合条件的结果集: ```python contours, _ = cv2.findContours(cleaned.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) bright_spots = [] for contour in contours: area = cv2.contourArea(contour) if area > min_area_threshold: # 设定最小允许覆盖范围下限值 M = cv2.moments(contour) cX = int(M["m10"] / M["m00"]) cY = int(M["m01"] / M["m00"]) bright_spots.append((cX, cY)) print(f"Detected {len(bright_spots)} bright spots.") ``` 这段程序逻辑上遍历每一个独立轮廓实体计算各自占据的空间尺度,并仅保留超过给定门槛线以上的实例记录下来坐标位形成列表输出展示总数统计情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值