Shift_JIS, MS932 and Unicode

本文探讨了MS932和Shift_JIS编码在WinNT/2K/XP操作系统上的相同性与差异性,特别是它们如何在本地字符集间相互转换,以及这种转换导致的部分扩展字符可能出现的乱码问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

测试环境:Win2K Pro日文版,SUN J2SDK 1.5.0-beta2

经过测试,发现Shift_JIS和MS932编码的 全角波浪线(“~”)的编码都是0x8160(16进制,两个字节,高位在前)。通过sun.io.ByteToCharMS932转换后得到 Unicode字符'/uFF5E',而通过sun.io.ByteToCharSJIS转换后则得到Unicode字符'/u301C'。

反之,Unicode字符'/uFF5E'通过sun.io.CharToByteMS932转换后会得到MS932编码的本地字符0x8160(16进制,两个字节,高位在前),而Unicode字符'/u301C'通过sun.io.CharToByteSJIS转换后也会得到Shift_JIS编码的本地字符0x8160(16进制,两个字节,高位在前),两者的转换结果相同。

结 论:在WinNT/2K/XP上,MS932和Shift_JIS这两种本地字符集完全相同,只是分别采用JDK的 sun.io.ByteToCharMS932和sun.io.ByteToCharSJIS对个别特殊的本地字符进行转换后所得到的Unicode字符 并不一样。实际上,MS932就是WinNT/2K/XP上的Shift_JIS,只是与标准版的Shift_JIS字符集相比,MS932收录了更多的 字符,比如NEC和IBM对Shift_JIS的扩展;然而,JDK中的ByteToCharSJIS及 CharToByteSJIS却使用了标准的Shift_JIS字符集,所以部分扩展字符在从byte转换成char或是从char转换成byte时会出 现乱码,这的确是JDK让人非常迷惑的一处。

 

加一个功能。用新颜色画两个轮廓,归一化后为实线,归一化前为虚线,比如橙色实线和虚线,原本所有功能务必保持不变。只动这里。其他代码请严格抄下来。生成完整代码。 1、绿色和红色区域不变。你的绿色PASS区域,不是和红色有一个边界吗?这个边界,用一个颜色的实现,连起来。我理解用新的delay的Min max圈出边界就可以了,要真实反映边界,要画一个闭合的曲线,注意是边界,不能填充,就是PASS和FAIL的边界,离散点之间直接连线就好。 2、记不记得DELAY没有经历过按0X38C调整至归一化点的之前,也会有一个眼图不是吗。把那个时候与那个时候的PASS区域的边界,区别是,用虚线。注意,不需要画出原区域的内部填充点,只需要画一个轮廓。要真实反映边界,要画一个闭合的曲线,注意是边界,不能填充,就是PASS和FAIL的边界,离散点之间直接连线就好。 请直接在源代码修改。不要怕长,生成完整代码,其他不动的功能,图例,输出文件命名,注释,所有不需要动的内容千万不要动。直接生成完整源码。不要怕长。 import numpy as np """ NumPy (Numerical Python) - 科学计算基础库 主要功能: 提供高效的N维数组对象(ndarray) 支持广播功能函数 提供线性代数、傅里叶变换、随机数生成等功能 在本代码中主要用于: 数值计算和数组操作 科学计算支持 """ import matplotlib.pyplot as plt """ Matplotlib - Python中最强大的绘图库 主要功能: 创建静态、动态和交互式图表 支持多种图表类型(线图、散点图、柱状图等) 高度可定制化(颜色、线型、标签等) 在本代码中主要用于: 绘制眼图 可视化DDR校准数据 创建图表和图形界面 """ import re """ re (Regular Expression) - 正则表达式模块 主要功能: 文本搜索和模式匹配 文本替换 复杂字符串处理 在本代码中主要用于: 解析日志文件中的关键数据 提取VREF、偏移量、数据点等信息 处理复杂的文本匹配任务 """ import datetime """ datetime - 日期和时间处理模块 主要功能: 日期和时间的表示 日期和时间的计算 日期和时间的格式化 在本代码中主要用于: 生成时间戳 创建带时间戳的文件名 记录报告生成时间 """ from matplotlib.lines import Line2D """ Line2D - 用于创建二维线条对象 主要功能: 表示二维坐标系中的线条 控制线条属性(颜色、线宽、样式等) 在本代码中主要用于: 创建图例元素 自定义图表中的线条样式 """ import os """ os (Operating System) - 操作系统接口模块 主要功能: 文件和目录操作 路径操作 进程管理 在本代码中主要用于: 文件路径处理 目录创建 文件存在性检查 """ from collections import defaultdict """ defaultdict - 带默认值的字典 主要功能: 当访问不存在的键时返回默认值 避免KeyError异常 在本代码中主要用于: 存储电压-窗口映射关系 简化字典初始化操作 """ import math """ math - 数学函数模块 主要功能: 提供数学运算函数 包括三角函数、对数、取整等 在本代码中新增用于: 计算中位数 """ # 新旧日志格式识别标志 OLD_LOG_FORMAT = 0 NEW_LOG_FORMAT = 1 def detect_log_format(log_content): """自动检测日志格式""" # 检测新日志的时间戳模式 if re.search(r'\[\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}\.\d{3}\]', log_content): return NEW_LOG_FORMAT # 检测旧日志的特征行 elif re.search(r'NOTICE:\s+Booting', log_content): return OLD_LOG_FORMAT # 默认作为新日志处理 return NEW_LOG_FORMAT # 健壮的文件读取函数 - 详细解释每个编程概念 def robust_read_file(file_path): """ 健壮的文件读取函数,处理不同编码的文件 参数: file_path - 文件在电脑上的完整路径(字符串) 编程概念详解: 1. 函数定义:def关键字用于定义函数,函数是一段可重复使用的代码块 2. 参数传递:file_path是形式参数,调用时传入实际文件路径 3. 异常处理:try-except结构用于捕获和处理运行时错误 4. 上下文管理器:with语句用于资源管理,确保文件正确关闭 5. 编码处理:不同文件可能使用不同编码(UTF-8, Latin-1等) 6. 正则表达式:用于过滤控制字符 """ ########################################################## # 增强:支持多种编码格式,特别是Tera Term日志 ########################################################## # 尝试的编码列表(针对Windows环境) encodings = ['utf-8', 'latin-1', 'cp1252', 'gbk', 'big5', 'shift_jis', 'utf-16le'] for encoding in encodings: try: with open(file_path, 'rb') as f: raw_content = f.read() # 尝试解码 content = raw_content.decode(encoding, errors='replace') # 移除ANSI转义序列 (例如: \x1b[32m 颜色代码) ansi_escape = re.compile(r'\x1B(?:[@-Z\\-_]|\[[0-?]*[ -/]*[@-~])') content = ansi_escape.sub('', content) # 移除其他控制字符 (保留换行符) content = re.sub(r'[\x00-\x09\x0B-\x1F\x7F]', '', content) # 修复常见的乱码模式(特定于Tera Term) content = re.sub(r'[^\x20-\x7E\r\n\u4e00-\u9FFF]', ' ', content) return content except UnicodeDecodeError: continue # 回退方案:使用二进制读取并过滤 try: with open(file_path, 'rb') as f: raw_content = f.read() # 使用错误替换并移除不可打印字符 return raw_content.decode('utf-8', errors='replace').encode('utf-8', errors='replace').decode('utf-8', errors='ignore') except Exception as e: print(f"严重错误: 无法读取文件 {file_path}: {e}") return None # 日志解析函数 - 重点讲解正则表达式 def parse_log_file(log_content, normalization_point): """ 解析DDR校准日志文件,提取关键数据 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) 数据结构说明: data = { vref: { dq_index: { 'read': (min, max, window), 'write': (min, max, window) } } } raw_data = { vref: { dq_index: { 'read': {'min': min_val, 'max': max_val}, 'write': {'min': min_val, 'max': max_val} } } } """ # 检测日志格式并调用相应的解析函数 log_format = detect_log_format(log_content) if log_format == OLD_LOG_FORMAT: print("检测到旧日志格式") return parse_old_log(log_content, normalization_point) else: print("检测到新日志格式(Tera Term)") return parse_tera_term_log(log_content, normalization_point) def parse_old_log(log_content, normalization_point): """ 解析旧日志格式(原始格式) 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) """ # 初始化数据结构 data = {} # 主数据结构,存储解析后的数据 current_vref = None # 当前处理的vref值 pending_data = {} # 临时存储待处理的数据(字典) current_offset = None # 当前偏移量 raw_data = {} # 存储原始数据(偏移前) # 按行处理日志内容 # 字符串方法:split('\n') 按换行符分割字符串 for line in log_content.split('\n'): # 字符串方法:strip() 移除首尾空白字符 line = line.strip() # 空行检查 if not line: continue # 跳过空行 ########################################################## # 正则表达式1:匹配VREF行 # 模式:r'.*vref:\s*0x([0-9a-fA-F]+)' # 目标示例: "Setting vref: 0x1A3" # # 详细分解: # .* - 匹配任意字符(除换行符外)0次或多次(贪婪匹配) # vref: - 匹配字面字符串 "vref:" # \s* - 匹配0个或多个空白字符(空格、制表符等) # 0x - 匹配字面字符串 "0x" # ( - 开始捕获组 # [0-9a-fA-F] - 字符类,匹配十六进制字符(0-9, a-f, A-F) # + - 匹配前面的元素1次或多次 # ) - 结束捕获组 # # 匹配过程: # "Setting vref: 0x1A3" -> 匹配整个字符串 # 捕获组1: "1A3" ########################################################## vref_match = re.match(r'.*vref:\s*0x([0-9a-fA-F]+)', line) if vref_match: # 获取捕获组内容 hex_str = vref_match.group(1) # int()函数:字符串转整数 # 参数1:字符串 # 参数2:基数(16表示十六进制) current_vref = int(hex_str, 16) # 字典初始化 data[current_vref] = {} # 嵌套字典初始化 raw_data[current_vref] = {} pending_data = {} # 重置临时数据 current_offset = None continue # 跳过后续处理 ########################################################## # 正则表达式2:匹配偏移量行 # 模式:r'.*0x38c:\s*(?:0x)?([0-9a-fA-F]+)' # 目标示例: "Offset 0x38c: 0x25" 或 "0x38c: 25" # # 详细分解: # .* - 匹配任意字符0次或多次 # 0x38c: - 匹配字面字符串 "0x38c:" # \s* - 匹配0个或多个空白字符 # (?: - 开始非捕获组 # 0x - 匹配字面字符串 "0x" # )? - 非捕获组出现0次或1次 # ( - 开始捕获组 # [0-9a-fA-F]+ - 匹配1个或多个十六进制字符 # ) - 结束捕获组 # # 特殊说明: # (?:...) 是非捕获组,匹配但不捕获内容 # 用于处理可选前缀而不创建额外捕获组 ########################################################## offset_match = re.match(r'.*0x38c\s*:\s*(?:0x)?([0-9a-fA-F]+)', line) if offset_match and current_vref is not None: try: hex_str = offset_match.group(1) offset_value = int(hex_str, 16) # 计算偏移量:归一化点 - 读取值 current_offset = normalization_point - offset_value except ValueError: # 异常处理:打印警告信息 print(f"警告: 无法解析偏移量: {offset_match.group(1)}") current_offset = None continue ########################################################## # 正则表达式3:匹配最大值点 # 模式:r'.*dq(\d+)\s+max_(\w+)_point\s*:\s*(-?\d+)' # 目标示例: "dq5 max_read_point: 120" # # 详细分解: # .* - 匹配任意字符0次或多次 # dq - 匹配字面字符串 "dq" # (\d+) - 捕获组1:匹配1个或多个数字(DQ索引) # \s+ - 匹配1个或多个空白字符 # max_ - 匹配字面字符串 "max_" # (\w+) - 捕获组2:匹配1个或多个单词字符(方向:read/write) # _point - 匹配字面字符串 "point" # \s*:\s* - 匹配冒号前后任意空白 # (-?\d+) - 捕获组3:匹配可选负号后跟1个或多个数字 # # 捕获组说明: # 组1: DQ索引 (如 "5") # 组2: 方向 (如 "read") # 组3: 最大值 (如 "120") ########################################################## max_match = re.match(r'.*dq(\d+)\s*max_(\w+)_point\s*:\s*(-?\d+)', line) if max_match and current_vref is not None: # 提取捕获组内容 dq_index = int(max_match.group(1)) # 转换为整数 direction = max_match.group(2) # 字符串 max_val = int(max_match.group(3)) # 转换为整数 # 字典操作:检查键是否存在并初始化 if current_vref not in raw_data: # 字典设置默认值 raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: # 嵌套字典初始化 raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} # 存储原始值(不应用偏移) raw_data[current_vref][dq_index][direction]['max'] = max_val # 只有读方向应用偏移 if direction == 'read' and current_offset is not None: # 应用偏移 max_val += current_offset # 存储到临时数据字典 key = (dq_index, direction) # 元组作为字典键 if key not in pending_data: pending_data[key] = {} pending_data[key]['max'] = max_val # 字典值也是字典 continue ########################################################## # 正则表达式4:匹配最小值点(结构类似最大值匹配) # 模式:r'.*dq(\d+)\s+min_(\w+)_point\s*:\s*(-?\d+)' # 目标示例: "dq5 min_read_point: 32" ########################################################## min_match = re.match(r'.*dq(\d+)\s*min_(\w+)_point\s*:\s*(-?\d+)', line) if min_match and current_vref is not None: dq_index = int(min_match.group(1)) direction = min_match.group(2) min_val = int(min_match.group(3)) key = (dq_index, direction) # 存储原始值(类似最大值处理) if current_vref not in raw_data: raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} raw_data[current_vref][dq_index][direction]['min'] = min_val # 只有读方向应用偏移 if direction == 'read' and current_offset is not None: min_val += current_offset # 更新临时数据 if key in pending_data: # 字典更新操作 pending_data[key]['min'] = min_val else: pending_data[key] = {'min': min_val} continue ########################################################## # 正则表达式5:匹配窗口行 # 模式:r'.*dq(\d+)\s+(\w+)_windows\s*:\s*(-?\d+)' # 目标示例: "dq5 read_windows: 88" # # 详细分解: # .* - 匹配任意字符0次或多次 # dq - 匹配字面字符串 "dq" # (\d+) - 捕获组1:匹配1个或多个数字(DQ索引) # \s+ - 匹配1个或多个空白字符 # (\w+) - 捕获组2:匹配1个或多个单词字符(方向) # _windows - 匹配字面字符串 "_windows" # \s*:\s* - 匹配冒号前后任意空白 # (-?\d+) - 捕获组3:匹配可选负号后跟1个或多个数字 ########################################################## win_match = re.match(r'.*dq(\d+)\s*(\w+)_windows\s*:\s*(-?\d+)', line) if win_match and current_vref is not None: dq_index = int(win_match.group(1)) direction = win_match.group(2) windows = int(win_match.group(3)) key = (dq_index, direction) # 检查是否已收集最小值和最大值 if key in pending_data and 'min' in pending_data[key] and 'max' in pending_data[key]: min_val = pending_data[key]['min'] max_val = pending_data[key]['max'] # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确保值在有效范围内 min_val = max(0, min_val) # 最小值不小于0 max_val = min(max_delay, max_val) # 最大值不超过最大延迟 # 检查数据有效性 if min_val > max_val or windows < 0: result = None # 无效数据 else: # 计算窗口大小 window_size = max_val - min_val + 1 result = (min_val, max_val, window_size) # 存储到最终数据结构 if dq_index not in data[current_vref]: # 初始化嵌套字典 data[current_vref][dq_index] = {} data[current_vref][dq_index][direction] = result # 从临时数据中移除 del pending_data[key] # 删除字典键 # 返回解析结果 return data, raw_data def parse_tera_term_log(log_content, normalization_point): """ 解析Tera Term生成的新日志格式 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) """ # 初始化数据结构 data = {} current_vref = None pending_data = {} current_offset = None raw_data = {} # 预处理:移除行首时间戳 (例如: [2025-07-31 21:26:46.357]) log_content = re.sub(r'\[\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}\.\d{3}\]\s*', '', log_content) for line in log_content.split('\n'): line = line.strip() if not line: continue # 增强的VREF匹配 - 容忍乱码前缀 vref_match = re.search(r'vref\D*0x([0-9a-fA-F]{1,3})', line, re.IGNORECASE) if vref_match: try: hex_str = vref_match.group(1) current_vref = int(hex_str, 16) data[current_vref] = {} raw_data[current_vref] = {} pending_data = {} current_offset = None except ValueError: print(f"警告: 无法解析VREF值: {hex_str}") continue # 增强的偏移量匹配 offset_match = re.search(r'0x38c\D*([0-9a-fA-F]{2})', line, re.IGNORECASE) if offset_match and current_vref is not None: try: hex_str = offset_match.group(1) offset_value = int(hex_str, 16) current_offset = normalization_point - offset_value except (ValueError, TypeError): print(f"警告: 无法解析偏移量: {offset_match.group(1)}") current_offset = None continue # 增强的数据点匹配 - 容忍乱码和格式变化 # 匹配模式: dqX max_Y_point: value point_pattern = r'dq(\d+)\s*(max|min)\s*_(\w+)_point\s*[:=]\s*(-?\d+)' point_match = re.search(point_pattern, line, re.IGNORECASE) if point_match and current_vref is not None: try: dq_index = int(point_match.group(1)) point_type = point_match.group(2).lower() # 'max' or 'min' direction = point_match.group(3).lower() # 'read' or 'write' value = int(point_match.group(4)) # 初始化数据结构 if current_vref not in raw_data: raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} # 存储原始值 if point_type == 'max': raw_data[current_vref][dq_index][direction]['max'] = value else: # 'min' raw_data[current_vref][dq_index][direction]['min'] = value # 应用偏移(仅读方向) if direction == 'read' and current_offset is not None: value += current_offset # 存储到临时数据 key = (dq_index, direction) if key not in pending_data: pending_data[key] = {} pending_data[key][point_type] = value except (ValueError, IndexError) as e: print(f"解析数据点时出错: {line} -> {e}") continue # 增强的窗口匹配 win_pattern = r'dq(\d+)\s*(\w+)\s*_windows\s*[:=]\s*(-?\d+)' win_match = re.search(win_pattern, line, re.IGNORECASE) if win_match and current_vref is not None: try: dq_index = int(win_match.group(1)) direction = win_match.group(2).lower() windows = int(win_match.group(3)) key = (dq_index, direction) if key in pending_data and 'min' in pending_data[key] and 'max' in pending_data[key]: min_val = pending_data[key]['min'] max_val = pending_data[key]['max'] # 确定最大延迟值 max_delay = 0x7F if direction == 'read' else 0xFF # 确保值在有效范围内 min_val = max(0, min_val) max_val = min(max_delay, max_val) if min_val > max_val or windows < 0: result = None else: window_size = max_val - min_val + 1 result = (min_val, max_val, window_size) # 存储到最终数据结构 if dq_index not in data[current_vref]: data[current_vref][dq_index] = {} data[current_vref][dq_index][direction] = result # 从临时数据中移除 del pending_data[key] except (ValueError, KeyError) as e: print(f"解析窗口时出错: {line} -> {e}") return data, raw_data # 眼图指标计算函数 - 算法详解(修改后) def calculate_eye_metrics(data, avddq, dq_index, direction): """ 计算眼图的最大宽度、最大高度以及中心点 参数: data - 解析后的日志数据(字典结构) avddq - AVDDQ电压值(浮点数) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) 算法说明: 1. 遍历所有VREF值 2. 计算实际电压 = (vref / 0x1FF) * avddq 3. 获取当前DQ和方向的数据 4. 计算窗口大小(UI单位) 5. 确定最大眼宽(所有窗口中的最大值) 6. 计算最大眼高(连续电压范围的最大高度) 7. 计算眼图中心点(最大眼高和最大眼宽的交点) """ # 初始化变量 max_eye_width = 0.0 max_eye_height = 0.0 # 存储每个电压对应的窗口大小(用于计算眼高) voltage_windows = defaultdict(float) # 存储每个电压对应的延迟范围(用于计算眼宽) voltage_delay_ranges = {} # 存储每个延迟位置对应的电压范围(用于计算眼高) delay_voltage_ranges = defaultdict(list) # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确定UI范围(读2UI,写4UI) ui_range = 2 if direction == 'read' else 4 # 遍历所有VREF值 for vref, dq_data in data.items(): # 计算实际电压 # 0x1FF = 511(9位最大值) voltage = (vref / 0x1FF) * avddq # 字典安全访问:get()方法 # 避免KeyError异常 dq_info = dq_data.get(dq_index, {}).get(direction) if dq_info is None: continue # 跳过无数据项 # 解包元组 min_point, max_point, window_size = dq_info # 重新计算窗口大小(确保正确性) window_size = max_point - min_point + 1 # 计算窗口大小(UI单位) window_ui = (window_size / max_delay) * ui_range # 更新最大眼宽 if window_ui > max_eye_width: max_eye_width = window_ui # 存储电压-窗口映射 voltage_windows[voltage] = window_ui # 存储电压-延迟范围映射(用于计算眼宽) voltage_delay_ranges[voltage] = (min_point, max_point) # 存储延迟位置对应的电压范围(用于计算眼高) for delay in range(min_point, max_point + 1): delay_voltage_ranges[delay].append(voltage) # 计算最大眼高(连续电压范围) # 步骤: # 1. 对电压排序 # 2. 遍历排序后的电压 # 3. 计算连续有效窗口的电压范围 sorted_voltages = sorted(voltage_windows.keys()) # 排序电压值 current_height = 0 # 当前连续高度 max_height = 0 # 最大高度 # 遍历排序后的电压(从第二个元素开始) for i in range(1, len(sorted_voltages)): # 计算电压差 voltage_diff = sorted_voltages[i] - sorted_voltages[i-1] # 检查相邻电压点是否都有有效窗口 # 字典键存在性检查 if sorted_voltages[i] in voltage_windows and sorted_voltages[i-1] in voltage_windows: current_height += voltage_diff if current_height > max_height: max_height = current_height else: current_height = 0 # 重置高度计数器 max_eye_height = max_height # 计算最大眼宽对应的延迟位置(新增) # 找到具有最大窗口的电压点 best_voltage = None max_window_ui = 0 for voltage, window_ui in voltage_windows.items(): if window_ui > max_window_ui: max_window_ui = window_ui best_voltage = voltage # 计算最大眼高对应的延迟位置(新增) # 找到具有最宽电压范围的延迟位置 best_delay = None max_voltage_range = 0 for delay, voltages in delay_voltage_ranges.items(): if voltages: min_v = min(voltages) max_v = max(voltages) voltage_range = max_v - min_v if voltage_range > max_voltage_range: max_voltage_range = voltage_range best_delay = delay # 计算眼图中心点 center_ui = None center_voltage = None if best_delay is not None and best_voltage is not None: # 将延迟转换为UI单位 center_ui = (best_delay / max_delay) * ui_range center_voltage = best_voltage # 返回计算结果 return max_eye_width, max_eye_height, center_ui, center_voltage, best_delay, best_voltage # 眼图数据生成函数 - 详细解释算法 def generate_eye_diagram(data, avddq, ui_ps, dq_index, direction): """ 生成眼图数据点 参数: data - 解析后的日志数据(字典) avddq - AVDDQ电压值(浮点数) ui_ps - 每个UI的时间(皮秒) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) 算法说明: 1. 遍历所有VREF值 2. 计算实际电压 = (vref / 0x1FF) * avddq 3. 遍历所有可能的延迟值 4. 将延迟值转换为UI单位 5. 根据数据有效性标记为通过点或失败点 """ pass_points = [] # 存储通过点(绿色) fail_points = [] # 存储失败点(红色) # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确定UI范围(读2UI,写4UI) ui_range = 2 if direction == 'read' else 4 # 遍历所有VREF值 for vref, dq_data in data.items(): # 计算实际电压 voltage = (vref / 0x1FF) * avddq # 获取当前DQ和方向的数据 dq_info = dq_data.get(dq_index, {}).get(direction) # 遍历所有可能的延迟值 for delay in range(0, max_delay + 1): # 将延迟值转换为UI单位 ui_value = (delay / max_delay) * ui_range # 如果没有有效数据,标记为失败点 if dq_info is None: fail_points.append((ui_value, voltage)) else: # 解包元组 min_point, max_point, _ = dq_info # 检查当前延迟是否在有效范围内 if min_point <= delay <= max_point: pass_points.append((ui_value, voltage)) else: fail_points.append((ui_value, voltage)) return pass_points, fail_points # 输出原始数据到新日志 - 文件操作详解 def export_raw_data(raw_data, normalization_point, log_path): """ 输出原始数据到新日志文件(按DQ划分) 参数: raw_data - 原始数据(偏移前) normalization_point - 归一化点 log_path - 原始日志文件路径 文件操作详解: 1. 创建输出目录:os.makedirs() 2. 构建文件路径:os.path.join() 3. 写入文件:open()配合write() 4. 格式化输出:f-string """ # 获取当前时间戳 timestamp = datetime.datetime.now().strftime("%Y%m%d_%H%M%S") # 获取日志文件名(不含扩展名) log_filename = os.path.basename(log_path) if '.' in log_filename: # rsplit() 从右边分割字符串,maxsplit=1表示只分割一次 log_name = log_filename.rsplit('.', 1)[0] else: log_name = log_filename # 创建输出目录 log_dir = os.path.dirname(log_path) or os.getcwd() # 获取目录或当前工作目录 output_dir = os.path.join(log_dir, "raw_data_export") # 创建输出目录路径 ########################################################## # os.makedirs() 创建目录(如果不存在) # exist_ok=True 表示目录已存在时不报错 ########################################################## os.makedirs(output_dir, exist_ok=True) # 创建输出文件路径 output_file = os.path.join(output_dir, f"{log_name}_raw_data.txt") # 写入原始数据 with open(output_file, 'w', encoding='utf-8') as f: # 写入标题信息 f.write("=" * 80 + "\n") f.write(f"DDR校准原始数据报告 (归一化点: 0x{normalization_point:X})\n") f.write(f"生成时间: {datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')}\n") f.write(f"原始日志: {log_path}\n") f.write("=" * 80 + "\n\n") # 按vref排序 sorted_vrefs = sorted(raw_data.keys()) for vref in sorted_vrefs: # 写入vref标题 f.write(f"VREF: 0x{vref:03X}\n") # :03X表示3位十六进制大写,不足补0 f.write("-" * 60 + "\n") # 按DQ索引排序 sorted_dq = sorted(raw_data[vref].keys()) for dq_index in sorted_dq: # 写入DQ标题 f.write(f" DQ{dq_index}:\n") # 处理读方向数据 if 'read' in raw_data[vref][dq_index]: rd = raw_data[vref][dq_index]['read'] f.write(f" 读方向:\n") f.write(f" 原始最小值: {rd['min']}\n") f.write(f" 原始最大值: {rd['max']}\n") # 计算并写入窗口大小 window_size = rd['max'] - rd['min'] + 1 f.write(f" 窗口大小: {window_size}\n") # 处理写方向数据 if 'write' in raw_data[vref][dq_index]: wr = raw_data[vref][dq_index]['write'] f.write(f" 写方向:\n") f.write(f" 原始最小值: {wr['min']}\n") f.write(f" 原始最大值: {wr['max']}\n") # 计算并写入窗口大小 window_size = wr['max'] - wr['min'] + 1 f.write(f" 窗口大小: {window_size}\n") f.write("\n") # DQ间空行 f.write("\n") # VREF间空行 print(f"原始数据已导出至: {output_file}") return output_file # 眼图绘制函数 - 数据可视化详解(修改后) def plot_eye_diagrams(log_content, data_rate, avddq, log_path, normalization_point): """ 绘制DDR眼图 参数: log_content - 日志内容 data_rate - 数据速率(Mbps) avddq - AVDDQ电压(V) log_path - 日志文件路径 normalization_point - 归一化点 主要修改: 1. 分组统计信息移到图顶部显示 2. 顶部显示两行分组统计信息 """ # 设置中文字体支持 plt.rcParams['font.sans-serif'] = ['SimHei', 'Arial Unicode MS', 'Microsoft YaHei', 'WenQuanYi Micro Hei'] plt.rcParams['axes.unicode_minus'] = False # 计算UI时间(皮秒) ui_ps = (1 / (data_rate * 1e6)) * 1e12 # 解析日志文件 data, raw_data = parse_log_file(log_content, normalization_point) # 导出原始数据到新日志 raw_data_file = export_raw_data(raw_data, normalization_point, log_path) # 检查数据有效性 if not data: print("错误: 无法从日志中解析出有效数据") return None, None, None # 创建图表对象 fig_write, axes_write = plt.subplots(4, 4, figsize=(20, 20)) fig_read, axes_read = plt.subplots(4, 4, figsize=(20, 20)) # 设置标题 norm_title = f" (Normalized to 0x{normalization_point:X}, Raw Data: {os.path.basename(raw_data_file)})" fig_write.suptitle(f'DDR Write Eye Diagram (Data Rate: {data_rate} Mbps, UI: {ui_ps:.2f} ps){norm_title}', fontsize=18) fig_read.suptitle(f'DDR Read Eye Diagram (Data Rate: {data_rate} Mbps, UI: {ui_ps:.2f} ps){norm_title}', fontsize=18) # 展平坐标轴数组 axes_write = axes_write.flatten() axes_read = axes_read.flatten() # 创建图例元素 legend_elements = [ Line2D([0], [0], marker='o', color='w', label='Pass', markerfacecolor='green', markersize=10), Line2D([0], [0], marker='o', color='w', label='Fail', markerfacecolor='red', markersize=10) ] # 存储分组中心点数据(读眼图) group1_center_vrefs = [] # DQ0-DQ7 group1_center_delays = [] # DQ0-DQ7 group2_center_vrefs = [] # DQ8-DQ15 group2_center_delays = [] # DQ8-DQ15 # 遍历16个DQ通道 for dq_index in range(16): # 计算写眼图指标(不计算中心点) write_width, write_height, _, _, _, _ = calculate_eye_metrics(data, avddq, dq_index, 'write') # 生成写眼图数据点 write_pass, write_fail = generate_eye_diagram(data, avddq, ui_ps, dq_index, 'write') # 计算读眼图指标和中心点 read_width, read_height, read_center_ui, read_center_voltage, read_center_delay, read_center_vref = calculate_eye_metrics( data, avddq, dq_index, 'read' ) # 生成读眼图数据点 read_pass, read_fail = generate_eye_diagram(data, avddq, ui_ps, dq_index, 'read') # ================= 写眼图处理 ================= # 绘制写眼图 if write_fail: x_fail, y_fail = zip(*write_fail) axes_write[dq_index].scatter(x_fail, y_fail, s=1, c='red', alpha=0.1, zorder=1) if write_pass: x_pass, y_pass = zip(*write_pass) axes_write[dq_index].scatter(x_pass, y_pass, s=1, c='green', alpha=0.5, zorder=2) # 添加写眼图标注(仅显示最大眼宽和眼高) write_text = f"Max Eye Width: {write_width:.3f} UI\nMax Eye Height: {write_height:.3f} V" axes_write[dq_index].annotate( write_text, xy=(0.98, 0.02), xycoords='axes fraction', fontsize=9, ha='right', va='bottom', bbox=dict(boxstyle='round', facecolor='white', alpha=0.8) ) # 设置写眼图轴属性 axes_write[dq_index].set_title(f'DQ{dq_index} Write Eye', fontsize=12) axes_write[dq_index].set_xlabel('Delay (UI)', fontsize=10) axes_write[dq_index].set_ylabel('Voltage (V)', fontsize=10) axes_write[dq_index].set_xlim(0, 4) # 写眼图0-4UI axes_write[dq_index].set_ylim(0, avddq) axes_write[dq_index].grid(True, linestyle='--', alpha=0.6) axes_write[dq_index].legend(handles=legend_elements, loc='upper right', fontsize=9) axes_write[dq_index].tick_params(axis='both', which='major', labelsize=9) # ================= 读眼图处理 ================= # 绘制读眼图 if read_fail: x_fail, y_fail = zip(*read_fail) axes_read[dq_index].scatter(x_fail, y_fail, s=1, c='red', alpha=0.1, zorder=1) if read_pass: x_pass, y_pass = zip(*read_pass) axes_read[dq_index].scatter(x_pass, y_pass, s=1, c='green', alpha=0.5, zorder=2) # 添加读眼图标注 read_text = f"Max Eye Width: {read_width:.3f} UI\nMax Eye Height: {read_height:.3f} V" axes_read[dq_index].annotate( read_text, xy=(0.98, 0.02), xycoords='axes fraction', fontsize=9, ha='right', va='bottom', bbox=dict(boxstyle='round', facecolor='white', alpha=0.8) ) # 设置读眼图轴属性 axes_read[dq_index].set_title(f'DQ{dq_index} Read Eye', fontsize=12) axes_read[dq_index].set_xlabel('Delay (UI)', fontsize=10) axes_read[dq_index].set_ylabel('Voltage (V)', fontsize=10) axes_read[dq_index].set_xlim(0, 2) # 读眼图0-2UI axes_read[dq_index].set_ylim(0, avddq) axes_read[dq_index].grid(True, linestyle='--', alpha=0.6) axes_read[dq_index].legend(handles=legend_elements, loc='upper right', fontsize=9) axes_read[dq_index].tick_params(axis='both', which='major', labelsize=9) # 绘制读眼图中心点和辅助线 if read_center_ui is not None and read_center_voltage is not None: # 绘制中心点 axes_read[dq_index].scatter( [read_center_ui], [read_center_voltage], s=100, marker='*', c='yellow', edgecolors='black', zorder=10 ) # 计算原始Vref值 original_vref = int(round((read_center_voltage * 0x1FF) / avddq)) # 添加中心点标注 center_text = f"Center: ({read_center_ui:.3f} UI, {read_center_voltage:.3f} V)\n" \ f"Raw: Vref=0x{original_vref:X}, Delay={read_center_delay}" axes_read[dq_index].annotate( center_text, xy=(read_center_ui, read_center_voltage), xytext=(read_center_ui + 0.1, read_center_voltage + 0.05), arrowprops=dict(facecolor='black', shrink=0.05), fontsize=8, ha='left' ) # 绘制辅助线:最大眼宽竖线(蓝色虚线) axes_read[dq_index].axvline( x=read_center_ui, color='blue', linestyle='--', alpha=0.7, label=f'Max Width Line' ) # 绘制辅助线:最大眼高横线(蓝色虚线) axes_read[dq_index].axhline( y=read_center_voltage, color='blue', linestyle='--', alpha=0.7, label=f'Max Height Line' ) # 添加辅助线图例 line_legend = [ Line2D([0], [0], color='blue', linestyle='--', label='Max Width Line'), Line2D([0], [0], color='blue', linestyle='--', label='Max Height Line') ] axes_read[dq_index].legend(handles=legend_elements + line_legend, loc='upper right', fontsize=9) # 根据DQ索引分组存储中心点数据 if dq_index < 8: group1_center_vrefs.append(original_vref) group1_center_delays.append(read_center_delay) else: group2_center_vrefs.append(original_vref) group2_center_delays.append(read_center_delay) # 计算分组统计值 def calculate_group_stats(vrefs, delays): """计算一组中心点的统计值""" if not vrefs: return None, None, None, None # 计算Vref平均值和中位数 avg_vref = sum(vrefs) / len(vrefs) sorted_vrefs = sorted(vrefs) mid = len(sorted_vrefs) // 2 if len(sorted_vrefs) % 2 == 0: median_vref = (sorted_vrefs[mid-1] + sorted_vrefs[mid]) / 2 else: median_vref = sorted_vrefs[mid] # 计算延迟平均值和中位数 avg_delay = sum(delays) / len(delays) sorted_delays = sorted(delays) mid = len(sorted_delays) // 2 if len(sorted_delays) % 2 == 0: median_delay = (sorted_delays[mid-1] + sorted_delays[mid]) / 2 else: median_delay = sorted_delays[mid] return avg_vref, median_vref, avg_delay, median_delay # 计算第一组(DQ0-DQ7)的统计值 stats1 = calculate_group_stats(group1_center_vrefs, group1_center_delays) # 计算第二组(DQ8-DQ15)的统计值 stats2 = calculate_group_stats(group2_center_vrefs, group2_center_delays) # 在图像顶部添加分组汇总信息(两行) if stats1[0] is not None: avg_vref1, median_vref1, avg_delay1, median_delay1 = stats1 # 第一组文本(DQ0-DQ7) summary_text1 = f"DQ0-DQ7 Center Points: " \ f"Avg Vref=0x{int(round(avg_vref1)):X}, " \ f"Median Vref=0x{int(median_vref1):X}, " \ f"Avg Delay={avg_delay1:.1f}, " \ f"Median Delay={median_delay1:.1f}" # 位置:0.95(顶部) fig_read.text(0.5, 0.95, summary_text1, ha='center', fontsize=12, bbox=dict(facecolor='white', alpha=0.8)) if stats2[0] is not None: avg_vref2, median_vref2, avg_delay2, median_delay2 = stats2 # 第二组文本(DQ8-DQ15) summary_text2 = f"DQ8-DQ15 Center Points: " \ f"Avg Vref=0x{int(round(avg_vref2)):X}, " \ f"Median Vref=0x{int(median_vref2):X}, " \ f"Avg Delay={avg_delay2:.1f}, " \ f"Median Delay={median_delay2:.1f}" # 位置:0.92(在上一行下方) fig_read.text(0.5, 0.92, summary_text2, ha='center', fontsize=12, bbox=dict(facecolor='white', alpha=0.8)) # 调整布局 fig_write.tight_layout(rect=[0, 0, 1, 0.96]) # 为读眼图顶部留出空间 fig_read.tight_layout(rect=[0, 0, 1, 0.90]) # 文件路径处理(添加时间戳) log_dir = os.path.dirname(log_path) or os.getcwd() timestamp = datetime.datetime.now().strftime("%Y%m%d_%H%M%S") log_filename = os.path.basename(log_path) log_name = log_filename.rsplit('.', 1)[0] if '.' in log_filename else log_filename # 构建输出文件路径(写眼图只加时间戳) write_filename = os.path.join(log_dir, f"{log_name}_ddr_write_eye_{timestamp}.png") # 构建读眼图文件名(包含两组VREF平均值) group1_avg_vref = int(round(stats1[0])) if stats1[0] is not None else 0 group2_avg_vref = int(round(stats2[0])) if stats2[0] is not None else 0 read_filename = os.path.join( log_dir, f"{log_name}_ddr_read_eye_{timestamp}_G1Vref_0x{group1_avg_vref:X}_G2Vref_0x{group2_avg_vref:X}.png" ) # 保存图像 fig_write.savefig(write_filename, dpi=300, bbox_inches='tight') fig_read.savefig(read_filename, dpi=300, bbox_inches='tight') # 关闭图像释放内存 plt.close(fig_write) plt.close(fig_read) # 打印结果 print(f"写眼图已保存至: {write_filename}") print(f"读眼图已保存至: {read_filename}") return write_filename, read_filename, raw_data_file # 主函数 - 程序入口点详解 def main(): """ 主函数,程序入口点 功能: - 获取用户输入 - 读取日志文件 - 解析数据 - 生成眼图 - 导出结果 用户交互详解: 1. 使用input()获取用户输入 2. 使用循环处理无效输入 3. 使用try-except捕获异常 """ # 打印欢迎信息 print("=" * 50) print("DDR眼图生成器(带原始数据导出)") print("=" * 50) # 用户输入DataRate(带异常处理) while True: try: data_rate = float(input("请输入DataRate (Mbps/Pin): ")) break except ValueError: print("错误: 请输入有效的数字") # 用户输入AVDDQ电压(带异常处理) while True: try: avddq = float(input("请输入AVDDQ电压值 (V): ")) break except ValueError: print("错误: 请输入有效的数字") # 归一化点输入处理(带错误检查) while True: norm_input = input("请输入归一化点(十六进制值,如0x40或40): ").strip() if not norm_input: print("错误: 输入不能为空,请重新输入") continue try: # 处理十六进制前缀 if norm_input.startswith(("0x", "0X")): hex_str = norm_input[2:] else: hex_str = norm_input # 字符串转整数(16进制) normalization_point = int(hex_str, 16) break except ValueError: print(f"错误: '{norm_input}' 不是有效的十六进制数,请重新输入") # 日志文件路径输入(带文件存在检查) while True: log_path = input("请输入日志文件路径: ").strip() # 检查文件是否存在 # os.path.exists() 判断路径是否存在 if not os.path.exists(log_path): print(f"错误: 文件 '{log_path}' 不存在,请重新输入") else: # 获取绝对路径 log_path = os.path.abspath(log_path) break # 读取文件内容 log_content = robust_read_file(log_path) if log_content is None: print("无法读取日志文件") return # 尝试生成眼图(带异常处理) try: # 调用眼图生成函数(返回三个值) write_file, read_file, raw_data_file = plot_eye_diagrams( log_content, data_rate, avddq, log_path, normalization_point ) print("\n眼图生成成功!") print(f"原始数据文件: {raw_data_file}") except Exception as e: # 捕获所有异常并打印错误信息 print(f"眼图生成失败: {e}") # 异常对象:e.args 获取异常参数 print(f"错误详情: {e.args}") # Python特殊检查 - 模块执行控制 if __name__ == "__main__": """ __name__ 是Python的内置变量 当脚本直接运行时,__name__ 等于 "__main__" 当脚本被导入时,__name__ 等于模块名 这种结构允许: 1. 直接运行脚本时执行测试代码 2. 作为模块导入时不执行测试代码 """ main() # 调用主函数
最新发布
08-02
<think>我们将在原有代码的基础上增加两个新功能: 1. 在PASS区域和FAIL区域之间画一个边界(实线),使用新的颜色(比如橙色)来绘制这个边界。 2. 在归一化之前(即原始数据)的PASS区域边界,用同样的新颜色(橙色)但是虚线绘制。 注意: - 原有功能保持不变。 - 我们只修改读眼图的绘制部分(因为归一化只影响读方向)。 - 归一化前的数据存储在raw_data中,归一化后的数据在data中。 - 边界绘制:对于每个VREF,我们根据每个延迟位置(归一化前和归一化后)确定PASS区域的范围(min和max),然后连接这些点形成边界。 - 归一化后的边界用实线(橙色),归一化前的边界用虚线(橙色)。 步骤: a) 在generate_eye_diagram函数中,我们不仅要返回pass_points和fail_points,还要返回每个VREF下每个延迟位置对应的电压范围(归一化后和归一化前)。 但是,为了不改变原有函数的输出,我们将在plot_eye_diagrams函数中重新计算边界。 b) 由于归一化只影响读方向,所以只对读眼图进行修改。 c) 对于归一化后的数据(data),我们遍历每个VREF,然后对于每个延迟位置,我们检查该延迟位置是否在某个VREF下的PASS区域内(即min<=delay<=max)。但是注意,同一个延迟位置可能有多个VREF都是PASS,所以我们需要找到每个延迟位置对应的电压范围(最小电压和最大电压)以形成边界。 d) 同理,对于归一化前的数据(raw_data),我们也做同样的处理,但是不应用偏移。 e) 在绘制边界时,我们将每个延迟位置对应的电压范围(最小和最大)用线连接起来。由于数据是离散的,我们直接连接相邻点即可。 具体实现: 1. 在plot_eye_diagrams函数中,对于每个DQ的读眼图,我们除了绘制散点图,还要绘制两条边界线(归一化后和归一化前)。 2. 我们需要两个新的函数来生成边界数据: - 归一化后的边界:从data中提取 - 归一化前的边界:从raw_data中提取 3. 生成边界数据的步骤: a) 创建一个字典,键是延迟值(整数),值是一个列表,包含所有该延迟位置为PASS的电压值(即VREF转换成的电压)。 b) 对于每个VREF,每个DQ,读方向,如果该VREF下有数据,则获取其min_point和max_point,然后对于min_point到max_point之间的每个延迟,将当前VREF对应的电压加入该延迟的列表中。 c) 然后,对于每个延迟位置,我们计算该延迟位置对应的最小电压和最大电压(即该延迟位置下所有PASS电压的最小值和最大值)。 d) 这样,我们就得到了每个延迟位置对应的电压范围(最小和最大)。然后,我们按延迟位置排序,将最小电压点连成一条线,最大电压点连成一条线,这两条线之间的区域就是PASS区域。但题目要求只画边界,所以我们只画这两条线。 4. 注意:归一化前的数据没有应用偏移,所以延迟位置是原始值(可能不在0-127范围内?)但原始数据中延迟值范围是0-127(读)或0-255(写)。我们只考虑读方向(0-127)。 5. 由于归一化前和归一化后的延迟位置不同(归一化后应用了偏移,所以延迟位置整体平移了),所以归一化后的边界和归一化前的边界在横坐标(延迟位置)上会不同。 6. 归一化后的延迟位置:min_point, max_point 是应用了偏移的,所以我们在横坐标上使用归一化后的延迟位置(转换为UI单位)。 归一化前的延迟位置:使用原始min_point, max_point(没有应用偏移),同样转换为UI单位(注意:归一化前的延迟位置也要用同样的方式转换,即除以127再乘以2UI)。 7. 在同一个读眼图上,我们将绘制: - 归一化后的边界:实线(橙色) - 归一化前的边界:虚线(橙色) 8. 图例需要更新,添加两条线的说明。 修改点: - 在plot_eye_diagrams函数中,对于每个读眼图(每个DQ),在绘制散点图之后,绘制两条边界线。 - 新增一个函数:`generate_eye_boundaries(data, avddq, dq_index, direction, normalization_point=None, is_normalized=True)` 参数说明: data: 可以是归一化后的数据(data)或归一化前的数据(raw_data) avddq: 电压 dq_index: DQ索引 direction: 方向(这里只处理'read') normalization_point: 归一化点(仅当is_normalized=False时,用于反向计算偏移?但注意,归一化前的数据我们不需要应用偏移,所以不需要这个参数) is_normalized: 是否为归一化后的数据(决定是否应用偏移?但注意,在归一化前的数据中,我们不需要应用偏移,所以这个参数可能不需要?) 实际上,我们不需要在生成边界时应用偏移,因为归一化后的数据已经应用了偏移,而归一化前的数据没有偏移。所以我们在处理归一化前的数据时,直接使用原始延迟值。 函数返回两个列表: boundary_x_normalized: 归一化后的边界点的横坐标(UI单位)列表(注意,归一化后的数据已经应用了偏移,所以直接转换) boundary_y_normalized: 归一化后的边界点的纵坐标(电压)列表(注意,每个点有两个值:最小电压和最大电压,所以我们需要两个列表:上边界和下边界) 但实际上,我们需要两个边界:上边界(每个延迟位置的最大电压)和下边界(每个延迟位置的最小电压)。所以我们返回四个列表: lower_x, lower_y, upper_x, upper_y 但是,注意:同一个延迟位置可能有多个电压值,所以对于每个延迟位置,我们取该延迟位置所有电压的最小值作为下边界点,最大值作为上边界点。 步骤: a) 初始化一个字典:delay_voltage_map = defaultdict(list) # 键:延迟位置(整数),值:电压列表 b) 遍历每个VREF(vref): 计算电压 = (vref / 0x1FF) * avddq 获取该VREF下,当前DQ和方向的数据(min_point, max_point, window_size) 如果数据有效,则遍历min_point到max_point之间的每个延迟位置(整数): 将该电压添加到delay_voltage_map[delay]中。 c) 然后,我们得到每个延迟位置对应的电压列表。然后,我们按延迟位置排序(从小到大)。 d) 对于每个延迟位置,计算最小电压和最大电压(如果该延迟位置有电压值)。 e) 然后,下边界就是:每个延迟位置对应的最小电压,将这些点按延迟位置顺序连接。 上边界就是:每个延迟位置对应的最大电压,将这些点按延迟位置顺序连接。 f) 将延迟位置转换为UI单位(如果是读方向,则除以127再乘以2;写方向则除以255乘以4)。注意,这里我们只处理读方向。 注意:归一化前的数据没有应用偏移,所以延迟位置是原始值,但是归一化后的数据应用了偏移,所以延迟位置已经偏移过了。因此,在生成边界时,我们不需要再应用偏移,因为数据已经处理过了。 所以,在生成归一化后数据的边界时,我们使用data(已经包含偏移后的延迟位置),归一化前使用raw_data(原始延迟位置)。 - 但是,注意raw_data的数据结构:raw_data[vref][dq_index][direction] 是一个字典,包含'min'和'max'(原始值,没有应用偏移)。 所以,在生成归一化前的边界时,我们使用raw_data,并且使用原始的min和max(没有应用偏移)。 - 在同一个读眼图中,我们将绘制: 归一化后边界:实线(橙色) 归一化前边界:虚线(橙色) - 图例添加两个元素:实线表示"Post-Norm Boundary",虚线表示"Pre-Norm Boundary" 由于代码较长,我们只修改读眼图部分(即axes_read[dq_index]的绘制部分),写眼图不需要修改。 注意:归一化前的边界可能因为未应用偏移而处于不同的延迟位置,所以它和归一化后的边界可能不重合。 我们将新增一个函数`generate_eye_boundaries`,并在每个DQ的读眼图绘制中调用它两次(一次归一化后,一次归一化前)。 由于归一化前的数据在raw_data中,而归一化后的数据在data中,所以我们可以分别调用。 但是,注意:在归一化前,我们可能没有读取到每个延迟位置的数据?所以我们要确保在raw_data中,每个VREF下都有数据。 修改后的步骤: 1. 定义`generate_eye_boundaries`函数。 2. 在plot_eye_diagrams函数中,对于每个DQ的读眼图: a) 生成归一化后的边界(使用data,方向为'read') b) 生成归一化前的边界(使用raw_data,方向为'read') c) 在同一个坐标轴上绘制这两组边界。 注意:归一化前的边界可能因为未应用偏移而超出0-127的范围,但我们在处理时已经将延迟位置限制在0-127(读方向)之间,所以转换到UI单位时,也应该在0-2UI之间。 由于归一化前的数据没有应用偏移,所以它的延迟位置是原始值,我们直接使用。 代码实现: 新增函数:</think>我将修改代码以添加两个新功能:使用橙色实线绘制归一化后的PASS区域边界,以及使用橙色虚线绘制归一化前的PASS区域边界。以下是完整的修改后代码: ```python import numpy as np """ NumPy (Numerical Python) - 科学计算基础库 主要功能: 提供高效的N维数组对象(ndarray) 支持广播功能函数 提供线性代数、傅里叶变换、随机数生成等功能 在本代码中主要用于: 数值计算和数组操作 科学计算支持 """ import matplotlib.pyplot as plt """ Matplotlib - Python中最强大的绘图库 主要功能: 创建静态、动态和交互式图表 支持多种图表类型(线图、散点图、柱状图等) 高度可定制化(颜色、线型、标签等) 在本代码中主要用于: 绘制眼图 可视化DDR校准数据 创建图表和图形界面 """ import re """ re (Regular Expression) - 正则表达式模块 主要功能: 文本搜索和模式匹配 文本替换 复杂字符串处理 在本代码中主要用于: 解析日志文件中的关键数据 提取VREF、偏移量、数据点等信息 处理复杂的文本匹配任务 """ import datetime """ datetime - 日期和时间处理模块 主要功能: 日期和时间的表示 日期和时间的计算 日期和时间的格式化 在本代码中主要用于: 生成时间戳 创建带时间戳的文件名 记录报告生成时间 """ from matplotlib.lines import Line2D """ Line2D - 用于创建二维线条对象 主要功能: 表示二维坐标系中的线条 控制线条属性(颜色、线宽、样式等) 在本代码中主要用于: 创建图例元素 自定义图表中的线条样式 """ import os """ os (Operating System) - 操作系统接口模块 主要功能: 文件和目录操作 路径操作 进程管理 在本代码中主要用于: 文件路径处理 目录创建 文件存在性检查 """ from collections import defaultdict """ defaultdict - 带默认值的字典 主要功能: 当访问不存在的键时返回默认值 避免KeyError异常 在本代码中主要用于: 存储电压-窗口映射关系 简化字典初始化操作 """ import math """ math - 数学函数模块 主要功能: 提供数学运算函数 包括三角函数、对数、取整等 在本代码中新增用于: 计算中位数 """ # 新旧日志格式识别标志 OLD_LOG_FORMAT = 0 NEW_LOG_FORMAT = 1 def detect_log_format(log_content): """自动检测日志格式""" # 检测新日志的时间戳模式 if re.search(r'\[\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}\.\d{3}\]', log_content): return NEW_LOG_FORMAT # 检测旧日志的特征行 elif re.search(r'NOTICE:\s+Booting', log_content): return OLD_LOG_FORMAT # 默认作为新日志处理 return NEW_LOG_FORMAT # 健壮的文件读取函数 - 详细解释每个编程概念 def robust_read_file(file_path): """ 健壮的文件读取函数,处理不同编码的文件 参数: file_path - 文件在电脑上的完整路径(字符串) 编程概念详解: 1. 函数定义:def关键字用于定义函数,函数是一段可重复使用的代码块 2. 参数传递:file_path是形式参数,调用时传入实际文件路径 3. 异常处理:try-except结构用于捕获和处理运行时错误 4. 上下文管理器:with语句用于资源管理,确保文件正确关闭 5. 编码处理:不同文件可能使用不同编码(UTF-8, Latin-1等) 6. 正则表达式:用于过滤控制字符 """ ########################################################## # 增强:支持多种编码格式,特别是Tera Term日志 ########################################################## # 尝试的编码列表(针对Windows环境) encodings = ['utf-8', 'latin-1', 'cp1252', 'gbk', 'big5', 'shift_jis', 'utf-16le'] for encoding in encodings: try: with open(file_path, 'rb') as f: raw_content = f.read() # 尝试解码 content = raw_content.decode(encoding, errors='replace') # 移除ANSI转义序列 (例如: \x1b[32m 颜色代码) ansi_escape = re.compile(r'\x1B(?:[@-Z\\-_]|\[[0-?]*[ -/]*[@-~])') content = ansi_escape.sub('', content) # 移除其他控制字符 (保留换行符) content = re.sub(r'[\x00-\x09\x0B-\x1F\x7F]', '', content) # 修复常见的乱码模式(特定于Tera Term) content = re.sub(r'[^\x20-\x7E\r\n\u4e00-\u9FFF]', ' ', content) return content except UnicodeDecodeError: continue # 回退方案:使用二进制读取并过滤 try: with open(file_path, 'rb') as f: raw_content = f.read() # 使用错误替换并移除不可打印字符 return raw_content.decode('utf-8', errors='replace').encode('utf-8', errors='replace').decode('utf-8', errors='ignore') except Exception as e: print(f"严重错误: 无法读取文件 {file_path}: {e}") return None # 日志解析函数 - 重点讲解正则表达式 def parse_log_file(log_content, normalization_point): """ 解析DDR校准日志文件,提取关键数据 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) 数据结构说明: data = { vref: { dq_index: { 'read': (min, max, window), 'write': (min, max, window) } } } raw_data = { vref: { dq_index: { 'read': {'min': min_val, 'max': max_val}, 'write': {'min': min_val, 'max': max_val} } } } """ # 检测日志格式并调用相应的解析函数 log_format = detect_log_format(log_content) if log_format == OLD_LOG_FORMAT: print("检测到旧日志格式") return parse_old_log(log_content, normalization_point) else: print("检测到新日志格式(Tera Term)") return parse_tera_term_log(log_content, normalization_point) def parse_old_log(log_content, normalization_point): """ 解析旧日志格式(原始格式) 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) """ # 初始化数据结构 data = {} # 主数据结构,存储解析后的数据 current_vref = None # 当前处理的vref值 pending_data = {} # 临时存储待处理的数据(字典) current_offset = None # 当前偏移量 raw_data = {} # 存储原始数据(偏移前) # 按行处理日志内容 # 字符串方法:split('\n') 按换行符分割字符串 for line in log_content.split('\n'): # 字符串方法:strip() 移除首尾空白字符 line = line.strip() # 空行检查 if not line: continue # 跳过空行 ########################################################## # 正则表达式1:匹配VREF行 # 模式:r'.*vref:\s*0x([0-9a-fA-F]+)' # 目标示例: "Setting vref: 0x1A3" # # 详细分解: # .* - 匹配任意字符(除换行符外)0次或多次(贪婪匹配) # vref: - 匹配字面字符串 "vref:" # \s* - 匹配0个或多个空白字符(空格、制表符等) # 0x - 匹配字面字符串 "0x" # ( - 开始捕获组 # [0-9a-fA-F] - 字符类,匹配十六进制字符(0-9, a-f, A-F) # + - 匹配前面的元素1次或多次 # ) - 结束捕获组 # # 匹配过程: # "Setting vref: 0x1A3" -> 匹配整个字符串 # 捕获组1: "1A3" ########################################################## vref_match = re.match(r'.*vref:\s*0x([0-9a-fA-F]+)', line) if vref_match: # 获取捕获组内容 hex_str = vref_match.group(1) # int()函数:字符串转整数 # 参数1:字符串 # 参数2:基数(16表示十六进制) current_vref = int(hex_str, 16) # 字典初始化 data[current_vref] = {} # 嵌套字典初始化 raw_data[current_vref] = {} pending_data = {} # 重置临时数据 current_offset = None continue # 跳过后续处理 ########################################################## # 正则表达式2:匹配偏移量行 # 模式:r'.*0x38c:\s*(?:0x)?([0-9a-fA-F]+)' # 目标示例: "Offset 0x38c: 0x25" 或 "0x38c: 25" # # 详细分解: # .* - 匹配任意字符0次或多次 # 0x38c: - 匹配字面字符串 "0x38c:" # \s* - 匹配0个或多个空白字符 # (?: - 开始非捕获组 # 0x - 匹配字面字符串 "0x" # )? - 非捕获组出现0次或1次 # ( - 开始捕获组 # [0-9a-fA-F]+ - 匹配1个或多个十六进制字符 # ) - 结束捕获组 # # 特殊说明: # (?:...) 是非捕获组,匹配但不捕获内容 # 用于处理可选前缀而不创建额外捕获组 ########################################################## offset_match = re.match(r'.*0x38c\s*:\s*(?:0x)?([0-9a-fA-F]+)', line) if offset_match and current_vref is not None: try: hex_str = offset_match.group(1) offset_value = int(hex_str, 16) # 计算偏移量:归一化点 - 读取值 current_offset = normalization_point - offset_value except ValueError: # 异常处理:打印警告信息 print(f"警告: 无法解析偏移量: {offset_match.group(1)}") current_offset = None continue ########################################################## # 正则表达式3:匹配最大值点 # 模式:r'.*dq(\d+)\s+max_(\w+)_point\s*:\s*(-?\d+)' # 目标示例: "dq5 max_read_point: 120" # # 详细分解: # .* - 匹配任意字符0次或多次 # dq - 匹配字面字符串 "dq" # (\d+) - 捕获组1:匹配1个或多个数字(DQ索引) # \s+ - 匹配1个或多个空白字符 # max_ - 匹配字面字符串 "max_" # (\w+) - 捕获组2:匹配1个或多个单词字符(方向:read/write) # _point - 匹配字面字符串 "point" # \s*:\s* - 匹配冒号前后任意空白 # (-?\d+) - 捕获组3:匹配可选负号后跟1个或多个数字 # # 捕获组说明: # 组1: DQ索引 (如 "5") # 组2: 方向 (如 "read") # 组3: 最大值 (如 "120") ########################################################## max_match = re.match(r'.*dq(\d+)\s*max_(\w+)_point\s*:\s*(-?\d+)', line) if max_match and current_vref is not None: # 提取捕获组内容 dq_index = int(max_match.group(1)) # 转换为整数 direction = max_match.group(2) # 字符串 max_val = int(max_match.group(3)) # 转换为整数 # 字典操作:检查键是否存在并初始化 if current_vref not in raw_data: # 字典设置默认值 raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: # 嵌套字典初始化 raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} # 存储原始值(不应用偏移) raw_data[current_vref][dq_index][direction]['max'] = max_val # 只有读方向应用偏移 if direction == 'read' and current_offset is not None: # 应用偏移 max_val += current_offset # 存储到临时数据字典 key = (dq_index, direction) # 元组作为字典键 if key not in pending_data: pending_data[key] = {} pending_data[key]['max'] = max_val # 字典值也是字典 continue ########################################################## # 正则表达式4:匹配最小值点(结构类似最大值匹配) # 模式:r'.*dq(\d+)\s+min_(\w+)_point\s*:\s*(-?\d+)' # 目标示例: "dq5 min_read_point: 32" ########################################################## min_match = re.match(r'.*dq(\d+)\s*min_(\w+)_point\s*:\s*(-?\d+)', line) if min_match and current_vref is not None: dq_index = int(min_match.group(1)) direction = min_match.group(2) min_val = int(min_match.group(3)) key = (dq_index, direction) # 存储原始值(类似最大值处理) if current_vref not in raw_data: raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} raw_data[current_vref][dq_index][direction]['min'] = min_val # 只有读方向应用偏移 if direction == 'read' and current_offset is not None: min_val += current_offset # 更新临时数据 if key in pending_data: # 字典更新操作 pending_data[key]['min'] = min_val else: pending_data[key] = {'min': min_val} continue ########################################################## # 正则表达式5:匹配窗口行 # 模式:r'.*dq(\d+)\s+(\w+)_windows\s*:\s*(-?\d+)' # 目标示例: "dq5 read_windows: 88" # # 详细分解: # .* - 匹配任意字符0次或多次 # dq - 匹配字面字符串 "dq" # (\d+) - 捕获组1:匹配1个或多个数字(DQ索引) # \s+ - 匹配1个或多个空白字符 # (\w+) - 捕获组2:匹配1个或多个单词字符(方向) # _windows - 匹配字面字符串 "_windows" # \s*:\s* - 匹配冒号前后任意空白 # (-?\d+) - 捕获组3:匹配可选负号后跟1个或多个数字 ########################################################## win_match = re.match(r'.*dq(\d+)\s*(\w+)_windows\s*:\s*(-?\d+)', line) if win_match and current_vref is not None: dq_index = int(win_match.group(1)) direction = win_match.group(2) windows = int(win_match.group(3)) key = (dq_index, direction) # 检查是否已收集最小值和最大值 if key in pending_data and 'min' in pending_data[key] and 'max' in pending_data[key]: min_val = pending_data[key]['min'] max_val = pending_data[key]['max'] # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确保值在有效范围内 min_val = max(0, min_val) # 最小值不小于0 max_val = min(max_delay, max_val) # 最大值不超过最大延迟 # 检查数据有效性 if min_val > max_val or windows < 0: result = None # 无效数据 else: # 计算窗口大小 window_size = max_val - min_val + 1 result = (min_val, max_val, window_size) # 存储到最终数据结构 if dq_index not in data[current_vref]: # 初始化嵌套字典 data[current_vref][dq_index] = {} data[current_vref][dq_index][direction] = result # 从临时数据中移除 del pending_data[key] # 删除字典键 # 返回解析结果 return data, raw_data def parse_tera_term_log(log_content, normalization_point): """ 解析Tera Term生成的新日志格式 参数: log_content - 日志文件的内容(字符串) normalization_point - 归一化点(十六进制整数) """ # 初始化数据结构 data = {} current_vref = None pending_data = {} current_offset = None raw_data = {} # 预处理:移除行首时间戳 (例如: [2025-07-31 21:26:46.357]) log_content = re.sub(r'\[\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}\.\d{3}\]\s*', '', log_content) for line in log_content.split('\n'): line = line.strip() if not line: continue # 增强的VREF匹配 - 容忍乱码前缀 vref_match = re.search(r'vref\D*0x([0-9a-fA-F]{1,3})', line, re.IGNORECASE) if vref_match: try: hex_str = vref_match.group(1) current_vref = int(hex_str, 16) data[current_vref] = {} raw_data[current_vref] = {} pending_data = {} current_offset = None except ValueError: print(f"警告: 无法解析VREF值: {hex_str}") continue # 增强的偏移量匹配 offset_match = re.search(r'0x38c\D*([0-9a-fA-F]{2})', line, re.IGNORECASE) if offset_match and current_vref is not None: try: hex_str = offset_match.group(1) offset_value = int(hex_str, 16) current_offset = normalization_point - offset_value except (ValueError, TypeError): print(f"警告: 无法解析偏移量: {offset_match.group(1)}") current_offset = None continue # 增强的数据点匹配 - 容忍乱码和格式变化 # 匹配模式: dqX max_Y_point: value point_pattern = r'dq(\d+)\s*(max|min)\s*_(\w+)_point\s*[:=]\s*(-?\d+)' point_match = re.search(point_pattern, line, re.IGNORECASE) if point_match and current_vref is not None: try: dq_index = int(point_match.group(1)) point_type = point_match.group(2).lower() # 'max' or 'min' direction = point_match.group(3).lower() # 'read' or 'write' value = int(point_match.group(4)) # 初始化数据结构 if current_vref not in raw_data: raw_data[current_vref] = {} if dq_index not in raw_data[current_vref]: raw_data[current_vref][dq_index] = {} if direction not in raw_data[current_vref][dq_index]: raw_data[current_vref][dq_index][direction] = {'min': None, 'max': None} # 存储原始值 if point_type == 'max': raw_data[current_vref][dq_index][direction]['max'] = value else: # 'min' raw_data[current_vref][dq_index][direction]['min'] = value # 应用偏移(仅读方向) if direction == 'read' and current_offset is not None: value += current_offset # 存储到临时数据 key = (dq_index, direction) if key not in pending_data: pending_data[key] = {} pending_data[key][point_type] = value except (ValueError, IndexError) as e: print(f"解析数据点时出错: {line} -> {e}") continue # 增强的窗口匹配 win_pattern = r'dq(\d+)\s*(\w+)\s*_windows\s*[:=]\s*(-?\d+)' win_match = re.search(win_pattern, line, re.IGNORECASE) if win_match and current_vref is not None: try: dq_index = int(win_match.group(1)) direction = win_match.group(2).lower() windows = int(win_match.group(3)) key = (dq_index, direction) if key in pending_data and 'min' in pending_data[key] and 'max' in pending_data[key]: min_val = pending_data[key]['min'] max_val = pending_data[key]['max'] # 确定最大延迟值 max_delay = 0x7F if direction == 'read' else 0xFF # 确保值在有效范围内 min_val = max(0, min_val) max_val = min(max_delay, max_val) if min_val > max_val or windows < 0: result = None else: window_size = max_val - min_val + 1 result = (min_val, max_val, window_size) # 存储到最终数据结构 if dq_index not in data[current_vref]: data[current_vref][dq_index] = {} data[current_vref][dq_index][direction] = result # 从临时数据中移除 del pending_data[key] except (ValueError, KeyError) as e: print(f"解析窗口时出错: {line} -> {e}") return data, raw_data # 眼图指标计算函数 - 算法详解(修改后) def calculate_eye_metrics(data, avddq, dq_index, direction): """ 计算眼图的最大宽度、最大高度以及中心点 参数: data - 解析后的日志数据(字典结构) avddq - AVDDQ电压值(浮点数) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) 算法说明: 1. 遍历所有VREF值 2. 计算实际电压 = (vref / 0x1FF) * avddq 3. 获取当前DQ和方向的数据 4. 计算窗口大小(UI单位) 5. 确定最大眼宽(所有窗口中的最大值) 6. 计算最大眼高(连续电压范围的最大高度) 7. 计算眼图中心点(最大眼高和最大眼宽的交点) """ # 初始化变量 max_eye_width = 0.0 max_eye_height = 0.0 # 存储每个电压对应的窗口大小(用于计算眼高) voltage_windows = defaultdict(float) # 存储每个电压对应的延迟范围(用于计算眼宽) voltage_delay_ranges = {} # 存储每个延迟位置对应的电压范围(用于计算眼高) delay_voltage_ranges = defaultdict(list) # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确定UI范围(读2UI,写4UI) ui_range = 2 if direction == 'read' else 4 # 遍历所有VREF值 for vref, dq_data in data.items(): # 计算实际电压 # 0x1FF = 511(9位最大值) voltage = (vref / 0x1FF) * avddq # 字典安全访问:get()方法 # 避免KeyError异常 dq_info = dq_data.get(dq_index, {}).get(direction) if dq_info is None: continue # 跳过无数据项 # 解包元组 min_point, max_point, window_size = dq_info # 重新计算窗口大小(确保正确性) window_size = max_point - min_point + 1 # 计算窗口大小(UI单位) window_ui = (window_size / max_delay) * ui_range # 更新最大眼宽 if window_ui > max_eye_width: max_eye_width = window_ui # 存储电压-窗口映射 voltage_windows[voltage] = window_ui # 存储电压-延迟范围映射(用于计算眼宽) voltage_delay_ranges[voltage] = (min_point, max_point) # 存储延迟位置对应的电压范围(用于计算眼高) for delay in range(min_point, max_point + 1): delay_voltage_ranges[delay].append(voltage) # 计算最大眼高(连续电压范围) # 步骤: # 1. 对电压排序 # 2. 遍历排序后的电压 # 3. 计算连续有效窗口的电压范围 sorted_voltages = sorted(voltage_windows.keys()) # 排序电压值 current_height = 0 # 当前连续高度 max_height = 0 # 最大高度 # 遍历排序后的电压(从第二个元素开始) for i in range(1, len(sorted_voltages)): # 计算电压差 voltage_diff = sorted_voltages[i] - sorted_voltages[i-1] # 检查相邻电压点是否都有有效窗口 # 字典键存在性检查 if sorted_voltages[i] in voltage_windows and sorted_voltages[i-1] in voltage_windows: current_height += voltage_diff if current_height > max_height: max_height = current_height else: current_height = 0 # 重置高度计数器 max_eye_height = max_height # 计算最大眼宽对应的延迟位置(新增) # 找到具有最大窗口的电压点 best_voltage = None max_window_ui = 0 for voltage, window_ui in voltage_windows.items(): if window_ui > max_window_ui: max_window_ui = window_ui best_voltage = voltage # 计算最大眼高对应的延迟位置(新增) # 找到具有最宽电压范围的延迟位置 best_delay = None max_voltage_range = 0 for delay, voltages in delay_voltage_ranges.items(): if voltages: min_v = min(voltages) max_v = max(voltages) voltage_range = max_v - min_v if voltage_range > max_voltage_range: max_voltage_range = voltage_range best_delay = delay # 计算眼图中心点 center_ui = None center_voltage = None if best_delay is not None and best_voltage is not None: # 将延迟转换为UI单位 center_ui = (best_delay / max_delay) * ui_range center_voltage = best_voltage # 返回计算结果 return max_eye_width, max_eye_height, center_ui, center_voltage, best_delay, best_voltage # 眼图数据生成函数 - 详细解释算法 def generate_eye_diagram(data, avddq, ui_ps, dq_index, direction): """ 生成眼图数据点 参数: data - 解析后的日志数据(字典) avddq - AVDDQ电压值(浮点数) ui_ps - 每个UI的时间(皮秒) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) 算法说明: 1. 遍历所有VREF值 2. 计算实际电压 = (vref / 0x1FF) * avddq 3. 遍历所有可能的延迟值 4. 将延迟值转换为UI单位 5. 根据数据有效性标记为通过点或失败点 """ pass_points = [] # 存储通过点(绿色) fail_points = [] # 存储失败点(红色) # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确定UI范围(读2UI,写4UI) ui_range = 2 if direction == 'read' else 4 # 遍历所有VREF值 for vref, dq_data in data.items(): # 计算实际电压 voltage = (vref / 0x1FF) * avddq # 获取当前DQ和方向的数据 dq_info = dq_data.get(dq_index, {}).get(direction) # 遍历所有可能的延迟值 for delay in range(0, max_delay + 1): # 将延迟值转换为UI单位 ui_value = (delay / max_delay) * ui_range # 如果没有有效数据,标记为失败点 if dq_info is None: fail_points.append((ui_value, voltage)) else: # 解包元组 min_point, max_point, _ = dq_info # 检查当前延迟是否在有效范围内 if min_point <= delay <= max_point: pass_points.append((ui_value, voltage)) else: fail_points.append((ui_value, voltage)) return pass_points, fail_points # 生成眼图边界函数 def generate_eye_boundaries(data, avddq, dq_index, direction, is_normalized=True): """ 生成眼图边界点 参数: data - 解析后的日志数据(字典) avddq - AVDDQ电压值(浮点数) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) is_normalized - 是否归一化后的数据(用于确定线型) 返回: lower_boundary - 下边界点列表 [(ui, voltage)] upper_boundary - 上边界点列表 [(ui, voltage)] """ # 初始化边界点列表 lower_boundary = [] upper_boundary = [] # 确定最大延迟值(读0x7F=127,写0xFF=255) max_delay = 0x7F if direction == 'read' else 0xFF # 确定UI范围(读2UI,写4UI) ui_range = 2 if direction == 'read' else 4 # 存储每个延迟位置对应的电压列表 delay_voltage_map = defaultdict(list) # 遍历所有VREF值 for vref, dq_data in data.items(): # 计算实际电压 voltage = (vref / 0x1FF) * avddq # 获取当前DQ和方向的数据 dq_info = dq_data.get(dq_index, {}).get(direction) if dq_info is None: continue # 跳过无效数据 min_point, max_point, _ = dq_info # 遍历有效延迟范围 for delay in range(min_point, max_point + 1): # 将电压添加到对应延迟位置的列表中 delay_voltage_map[delay].append(voltage) # 处理每个延迟位置 sorted_delays = sorted(delay_voltage_map.keys()) for delay in sorted_delays: ui_value = (delay / max_delay) * ui_range voltages = delay_voltage_map[delay] if voltages: min_voltage = min(voltages) max_voltage = max(voltages) # 添加到下边界和上边界 lower_boundary.append((ui_value, min_voltage)) upper_boundary.append((ui_value, max_voltage)) # 确保边界点按UI值排序 lower_boundary.sort(key=lambda x: x[0]) upper_boundary.sort(key=lambda x: x[0]) return lower_boundary, upper_boundary # 输出原始数据到新日志 - 文件操作详解 def export_raw_data(raw_data, normalization_point, log_path): """ 输出原始数据到新日志文件(按DQ划分) 参数: raw_data - 原始数据(偏移前) normalization_point - 归一化点 log_path - 原始日志文件路径 文件操作详解: 1. 创建输出目录:os.makedirs() 2. 构建文件路径:os.path.join() 3. 写入文件:open()配合write() 4. 格式化输出:f-string """ # 获取当前时间戳 timestamp = datetime.datetime.now().strftime("%Y%m%d_%H%M%S") # 获取日志文件名(不含扩展名) log_filename = os.path.basename(log_path) if '.' in log_filename: # rsplit() 从右边分割字符串,maxsplit=1表示只分割一次 log_name = log_filename.rsplit('.', 1)[0] else: log_name = log_filename # 创建输出目录 log_dir = os.path.dirname(log_path) or os.getcwd() # 获取目录或当前工作目录 output_dir = os.path.join(log_dir, "raw_data_export") # 创建输出目录路径 ########################################################## # os.makedirs() 创建目录(如果不存在) # exist_ok=True 表示目录已存在时不报错 ########################################################## os.makedirs(output_dir, exist_ok=True) # 创建输出文件路径 output_file = os.path.join(output_dir, f"{log_name}_raw_data.txt") # 写入原始数据 with open(output_file, 'w', encoding='utf-8') as f: # 写入标题信息 f.write("=" * 80 + "\n") f.write(f"DDR校准原始数据报告 (归一化点: 0x{normalization_point:X})\n") f.write(f"生成时间: {datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')}\n") f.write(f"原始日志: {log_path}\n") f.write("=" * 80 + "\n\n") # 按vref排序 sorted_vrefs = sorted(raw_data.keys()) for vref in sorted_vrefs: # 写入vref标题 f.write(f"VREF: 0x{vref:03X}\n") # :03X表示3位十六进制大写,不足补0 f.write("-" * 60 + "\n") # 按DQ索引排序 sorted_dq = sorted(raw_data[vref].keys()) for dq_index in sorted_dq: # 写入DQ标题 f.write(f" DQ{dq_index}:\n") # 处理读方向数据 if 'read' in raw_data[vref][dq_index]: rd = raw_data[vref][dq_index]['read'] f.write(f" 读方向:\n") f.write(f" 原始最小值: {rd['min']}\n") f.write(f" 原始最大值: {rd['max']}\n") # 计算并写入窗口大小 window_size = rd['max'] - rd['min'] + 1 f.write(f" 窗口大小: {window_size}\n") # 处理写方向数据 if 'write' in raw_data[vref][dq_index]: wr = raw_data[vref][dq_index]['write'] f.write(f" 写方向:\n") f.write(f" 原始最小值: {wr['min']}\n") f.write(f" 原始最大值: {wr['max']}\n") # 计算并写入窗口大小 window_size = wr['max'] - wr['min'] + 1 f.write(f" 窗口大小: {window_size}\n") f.write("\n") # DQ间空行 f.write("\n") # VREF间空行 print(f"原始数据已导出至: {output_file}") return output_file # 眼图绘制函数 - 数据可视化详解(修改后) def plot_eye_diagrams(log_content, data_rate, avddq, log_path, normalization_point): """ 绘制DDR眼图 参数: log_content - 日志内容 data_rate - 数据速率(Mbps) avddq - AVDDQ电压(V) log_path - 日志文件路径 normalization_point - 归一化点 主要修改: 1. 分组统计信息移到图顶部显示 2. 顶部显示两行分组统计信息 """ # 设置中文字体支持 plt.rcParams['font.sans-serif'] = ['SimHei', 'Arial Unicode MS', 'Microsoft YaHei', 'WenQuanYi Micro Hei'] plt.rcParams['axes.unicode_minus'] = False # 计算UI时间(皮秒) ui_ps = (1 / (data_rate * 1e6)) * 1e12 # 解析日志文件 data, raw_data = parse_log_file(log_content, normalization_point) # 导出原始数据到新日志 raw_data_file = export_raw_data(raw_data, normalization_point, log_path) # 检查数据有效性 if not data: print("错误: 无法从日志中解析出有效数据") return None, None, None # 创建图表对象 fig_write, axes_write = plt.subplots(4, 4, figsize=(20, 20)) fig_read, axes_read = plt.subplots(4, 4, figsize=(20, 20)) # 设置标题 norm_title = f" (Normalized to 0x{normalization_point:X}, Raw Data: {os.path.basename(raw_data_file)})" fig_write.suptitle(f'DDR Write Eye Diagram (Data Rate: {data_rate} Mbps, UI: {ui_ps:.2f} ps){norm_title}', fontsize=18) fig_read.suptitle(f'DDR Read Eye Diagram (Data Rate: {data_rate} Mbps, UI: {ui_ps:.2f} ps){norm_title}', fontsize=18) # 展平坐标轴数组 axes_write = axes_write.flatten() axes_read = axes_read.flatten() # 创建图例元素 legend_elements = [ Line2D([0], [0], marker='o', color='w', label='Pass', markerfacecolor='green', markersize=10), Line2D([0], [0], marker='o', color='w', label='Fail', markerfacecolor='red', markersize=10), Line2D([0], [0], color='orange', linestyle='-', label='Post-Norm Boundary'), Line2D([0], [0], color='orange', linestyle='--', label='Pre-Norm Boundary') ] # 存储分组中心点数据(读眼图) group1_center_vrefs = [] # DQ0-DQ7 group1_center_delays = [] # DQ0-DQ7 group2_center_vrefs = [] # DQ8-DQ15 group2_center_delays = [] # DQ8-DQ15 # 遍历16个DQ通道 for dq_index in range(16): # 计算写眼图指标(不计算中心点) write_width, write_height, _, _, _, _ = calculate_eye_metrics(data, avddq, dq_index, 'write') # 生成写眼图数据点 write_pass, write_fail = generate_eye_diagram(data, avddq, ui_ps, dq_index, 'write') # 计算读眼图指标和中心点 read_width, read_height, read_center_ui, read_center_voltage, read_center_delay, read_center_vref = calculate_eye_metrics( data, avddq, dq_index, 'read' ) # 生成读眼图数据点 read_pass, read_fail = generate_eye_diagram(data, avddq, ui_ps, dq_index, 'read') # 生成归一化后的边界(实线) norm_lower, norm_upper = generate_eye_boundaries(data, avddq, dq_index, 'read', is_normalized=True) # 生成归一化前的边界(虚线) pre_norm_lower, pre_norm_upper = generate_eye_boundaries(raw_data, avddq, dq_index, 'read', is_normalized=False) # ================= 写眼图处理 ================= # 绘制写眼图 if write_fail: x_fail, y_fail = zip(*write_fail) axes_write[dq_index].scatter(x_fail, y_fail, s=1, c='red', alpha=0.1, zorder=1) if write_pass: x_pass, y_pass = zip(*write_pass) axes_write[dq_index].scatter(x_pass, y_pass, s=1, c='green', alpha=0.5, zorder=2) # 添加写眼图标注(仅显示最大眼宽和眼高) write_text = f"Max Eye Width: {write_width:.3f} UI\nMax Eye Height: {write_height:.3f} V" axes_write[dq_index].annotate( write_text, xy=(0.98, 0.02), xycoords='axes fraction', fontsize=9, ha='right', va='bottom', bbox=dict(boxstyle='round', facecolor='white', alpha=0.8) ) # 设置写眼图轴属性 axes_write[dq_index].set_title(f'DQ{dq_index} Write Eye', fontsize=12) axes_write[dq_index].set_xlabel('Delay (UI)', fontsize=10) axes_write[dq_index].set_ylabel('Voltage (V)', fontsize=10) axes_write[dq_index].set_xlim(0, 4) # 写眼图0-4UI axes_write[dq_index].set_ylim(0, avddq) axes_write[dq_index].grid(True, linestyle='--', alpha=0.6) axes_write[dq_index].legend(handles=legend_elements, loc='upper right', fontsize=9) axes_write[dq_index].tick_params(axis='both', which='major', labelsize=9) # ================= 读眼图处理 ================= # 绘制读眼图 if read_fail: x_fail, y_fail = zip(*read_fail) axes_read[dq_index].scatter(x_fail, y_fail, s=1, c='red', alpha=0.1, zorder=1) if read_pass: x_pass, y_pass = zip(*read_pass) axes_read[dq_index].scatter(x_pass, y_pass, s=1, c='green', alpha=0.5, zorder=2) # 绘制归一化后的边界(实线) if norm_lower and norm_upper: norm_lower_x, norm_lower_y = zip(*norm_lower) norm_upper_x, norm_upper_y = zip(*norm_upper) axes_read[dq_index].plot(norm_lower_x, norm_lower_y, 'orange', linewidth=1.5, linestyle='-', zorder=3) axes_read[dq_index].plot(norm_upper_x, norm_upper_y, 'orange', linewidth=1.5, linestyle='-', zorder=3) # 绘制归一化前的边界(虚线) if pre_norm_lower and pre_norm_upper: pre_norm_lower_x, pre_norm_lower_y = zip(*pre_norm_lower) pre_norm_upper_x, pre_norm_upper_y = zip(*pre_norm_upper) axes_read[dq_index].plot(pre_norm_lower_x, pre_norm_lower_y, 'orange', linewidth=1.5, linestyle='--', zorder=4) axes_read[dq_index].plot(pre_norm_upper_x, pre_norm_upper_y, 'orange', linewidth=1.5, linestyle='--', zorder=4) # 添加读眼图标注 read_text = f"Max Eye Width: {read_width:.3f} UI\nMax Eye Height: {read_height:.3f} V" axes_read[dq_index].annotate( read_text, xy=(0.98, 0.02), xycoords='axes fraction', fontsize=9, ha='right', va='bottom', bbox=dict(boxstyle='round', facecolor='white', alpha=0.8) ) # 设置读眼图轴属性 axes_read[dq_index].set_title(f'DQ{dq_index} Read Eye', fontsize=12) axes_read[dq_index].set_xlabel('Delay (UI)', fontsize=10) axes_read[dq_index].set_ylabel('Voltage (V)', fontsize=10) axes_read[dq_index].set_xlim(0, 2) # 读眼图0-2UI axes_read[dq_index].set_ylim(0, avddq) axes_read[dq_index].grid(True, linestyle='--', alpha=0.6) axes_read[dq_index].legend(handles=legend_elements, loc='upper right', fontsize=9) axes_read[dq_index].tick_params(axis='both', which='major', labelsize=9) # 绘制读眼图中心点和辅助线 if read_center_ui is not None and read_center_voltage is not None: # 绘制中心点 axes_read[dq_index].scatter( [read_center_ui], [read_center_voltage], s=100, marker='*', c='yellow', edgecolors='black', zorder=10 ) # 计算原始Vref值 original_vref = int(round((read_center_voltage * 0x1FF) / avddq)) # 添加中心点标注 center_text = f"Center: ({read_center_ui:.3f} UI, {read_center_voltage:.3f} V)\n" \ f"Raw: Vref=0x{original_vref:X}, Delay={read_center_delay}" axes_read[dq_index].annotate( center_text, xy=(read_center_ui, read_center_voltage), xytext=(read_center_ui + 0.1, read_center_voltage + 0.05), arrowprops=dict(facecolor='black', shrink=0.05), fontsize=8, ha='left' ) # 绘制辅助线:最大眼宽竖线(蓝色虚线) axes_read[dq_index].axvline( x=read_center_ui, color='blue', linestyle='--', alpha=0.7, label=f'Max Width Line' ) # 绘制辅助线:最大眼高横线(蓝色虚线) axes_read[dq_index].axhline( y=read_center_voltage, color='blue', linestyle='--', alpha=0.7, label=f'Max Height Line' ) # 添加辅助线图例 line_legend = [ Line2D([0], [0], color='blue', linestyle='--', label='Max Width Line'), Line2D([0], [0], color='blue', linestyle='--', label='Max Height Line') ] axes_read[dq_index].legend(handles=legend_elements + line_legend, loc='upper right', fontsize=9) # 根据DQ索引分组存储中心点数据 if dq_index < 8: group1_center_vrefs.append(original_vref) group1_center_delays.append(read_center_delay) else: group2_center_vrefs.append(original_vref) group2_center_delays.append(read_center_delay) # 计算分组统计值 def calculate_group_stats(vrefs, delays): """计算一组中心点的统计值""" if not vrefs: return None, None, None, None # 计算Vref平均值和中位数 avg_vref = sum(vrefs) / len(vrefs) sorted_vrefs = sorted(vrefs) mid = len(sorted_vrefs) // 2 if len(sorted_vrefs) % 2 == 0: median_vref = (sorted_vrefs[mid-1] + sorted_vrefs[mid]) / 2 else: median_vref = sorted_vrefs[mid] # 计算延迟平均值和中位数 avg_delay = sum(delays) / len(delays) sorted_delays = sorted(delays) mid = len(sorted_delays) // 2 if len(sorted_delays) % 2 == 0: median_delay = (sorted_delays[mid-1] + sorted_delays[mid]) / 2 else: median_delay = sorted_delays[mid] return avg_vref, median_vref, avg_delay, median_delay # 计算第一组(DQ0-DQ7)的统计值 stats1 = calculate_group_stats(group1_center_vrefs, group1_center_delays) # 计算第二组(DQ8-DQ15)的统计值 stats2 = calculate_group_stats(group2_center_vrefs, group2_center_delays) # 在图像顶部添加分组汇总信息(两行) if stats1[0] is not None: avg_vref1, median_vref1, avg_delay1, median_delay1 = stats1 # 第一组文本(DQ0-DQ7) summary_text1 = f"DQ0-DQ7 Center Points: " \ f"Avg Vref=0x{int(round(avg_vref1)):X}, " \ f"Median Vref=0x{int(median_vref1):X}, " \ f"Avg Delay={avg_delay1:.1f}, " \ f"Median Delay={median_delay1:.1f}" # 位置:0.95(顶部) fig_read.text(0.5, 0.95, summary_text1, ha='center', fontsize=12, bbox=dict(facecolor='white', alpha=0.8)) if stats2[0] is not None: avg_vref2, median_vref2, avg_delay2, median_delay2 = stats2 # 第二组文本(DQ8-DQ15) summary_text2 = f"DQ8-DQ15 Center Points: " \ f"Avg Vref=0x{int(round(avg_vref2)):X}, " \ f"Median Vref=0x{int(median_vref2):X}, " \ f"Avg Delay={avg_delay2:.1f}, " \ f"Median Delay={median_delay2:.1f}" # 位置:0.92(在上一行下方) fig_read.text(0.5, 0.92, summary_text2, ha='center', fontsize=12, bbox=dict(facecolor='white', alpha=0.8)) # 调整布局 fig_write.tight_layout(rect=[0, 0, 1, 0.96]) # 为读眼图顶部留出空间 fig_read.tight_layout(rect=[0, 0, 1, 0.90]) # 文件路径处理(添加时间戳) log_dir = os.path.dirname(log_path) or os.getcwd() timestamp = datetime.datetime.now().strftime("%Y%m%d_%H%M%S") log_filename = os.path.basename(log_path) log_name = log_filename.rsplit('.', 1)[0] if '.' in log_filename else log_filename # 构建输出文件路径(写眼图只加时间戳) write_filename = os.path.join(log_dir, f"{log_name}_ddr_write_eye_{timestamp}.png") # 构建读眼图文件名(包含两组VREF平均值) group1_avg_vref = int(round(stats1[0])) if stats1[0] is not None else 0 group2_avg_vref = int(round(stats2[0])) if stats2[0] is not None else 0 read_filename = os.path.join( log_dir, f"{log_name}_ddr_read_eye_{timestamp}_G1Vref_0x{group1_avg_vref:X}_G2Vref_0x{group2_avg_vref:X}.png" ) # 保存图像 fig_write.savefig(wwrite_filename, dpi=300, bbox_inches='tight') fig_read.savefig(read_filename, dpi=300, bbox_inches='tight') # 关闭图像释放内存 plt.close(fig_write) plt.close(fig_read) # 打印结果 print(f"写眼图已保存至: {write_filename}") print(f"读眼图已保存至: {read_filename}") return write_filename, read_filename, raw_data_file # 主函数 - 程序入口点详解 def main(): """ 主函数,程序入口点 功能: - 获取用户输入 - 读取日志文件 - 解析数据 - 生成眼图 - 导出结果 用户交互详解: 1. 使用input()获取用户输入 2. 使用循环处理无效输入 3. 使用try-except捕获异常 """ # 打印欢迎信息 print("=" * 50) print("DDR眼图生成器(带原始数据导出)") print("=" * 50) # 用户输入DataRate(带异常处理) while True: try: data_rate = float(input("请输入DataRate (Mbps/Pin): ")) break except ValueError: print("错误: 请输入有效的数字") # 用户输入AVDDQ电压(带异常处理) while True: try: avddq = float(input("请输入AVDDQ电压值 (V): ")) break except ValueError: print("错误: 请输入有效的数字") # 归一化点输入处理(带错误检查) while True: norm_input = input("请输入归一化点(十六进制值,如0x40或40): ").strip() if not norm_input: print("错误: 输入不能为空,请重新输入") continue try: # 处理十六进制前缀 if norm_input.startswith(("0x", "0X")): hex_str = norm_input[2:] else: hex_str = norm_input # 字符串转整数(16进制) normalization_point = int(hex_str, 16) break except ValueError: print(f"错误: '{norm_input}' 不是有效的十六进制数,请重新输入") # 日志文件路径输入(带文件存在检查) while True: log_path = input("请输入日志文件路径: ").strip() # 检查文件是否存在 # os.path.exists() 判断路径是否存在 if not os.path.exists(log_path): print(f"错误: 文件 '{log_path}' 不存在,请重新输入") else: # 获取绝对路径 log_path = os.path.abspath(log_path) break # 读取文件内容 log_content = robust_read_file(log_path) if log_content is None: print("无法读取日志文件") return # 尝试生成眼图(带异常处理) try: # 调用眼图生成函数(返回三个值) write_file, read_file, raw_data_file = plot_eye_diagrams( log_content, data_rate, avddq, log_path, normalization_point ) print("\n眼图生成成功!") print(f"原始数据文件: {raw_data_file}") except Exception as e: # 捕获所有异常并打印错误信息 print(f"眼图生成失败: {e}") # 异常对象:e.args 获取异常参数 print(f"错误详情: {e.args}") # Python特殊检查 - 模块执行控制 if __name__ == "__main__": """ __name__ 是Python的内置变量 当脚本直接运行时,__name__ 等于 "__main__" 当脚本被导入时,__name__ 等于模块名 这种结构允许: 1. 直接运行脚本时执行测试代码 2. 作为模块导入时不执行测试代码 """ main() # 调用主函数 ``` ### 主要修改说明: 1. **新增边界生成函数**: ```python def generate_eye_boundaries(data, avddq, dq_index, direction, is_normalized=True): """ 生成眼图边界点 参数: data - 解析后的日志数据(字典) avddq - AVDDQ电压值(浮点数) dq_index - DQ索引(0-15,整数) direction - 方向('read'或'write',字符串) is_normalized - 是否归一化后的数据(用于确定线型) """ ``` 这个函数遍历所有VREF值和延迟位置,收集每个延迟位置对应的电压值,然后计算每个延迟位置的最小和最大电压值,形成上下边界。 2. **图例元素更新**: ```python legend_elements = [ Line2D([0], [0], marker='o', color='w', label='Pass', markerfacecolor='green', markersize=10), Line2D([0], [0], marker='o', color='w', label='Fail', markerfacecolor='red', markersize=10), Line2D([0], [0], color='orange', linestyle='-', label='Post-Norm Boundary'), Line2D([0], [0], color='orange', linestyle='--', label='Pre-Norm Boundary') ] ``` 添加了两个新的图例元素:橙色实线表示归一化后的边界,橙色虚线表示归一化前的边界。 3. **边界绘制逻辑**: ```python # 生成归一化后的边界(实线) norm_lower, norm_upper = generate_eye_boundaries(data, avddq, dq_index, 'read', is_normalized=True) # 生成归一化前的边界(虚线) pre_norm_lower, pre_norm_upper = generate_eye_boundaries(raw_data, avddq, dq_index, 'read', is_normalized=False) # 绘制归一化后的边界(实线) if norm_lower and norm_upper: norm_lower_x, norm_lower_y = zip(*norm_lower) norm_upper_x, norm_upper_y = zip(*norm_upper) axes_read[dq_index].plot(norm_lower_x, norm_lower_y, 'orange', linewidth=1.5, linestyle='-', zorder=3) axes_read[dq_index].plot(norm_upper_x, norm_upper_y, 'orange', linewidth=1.5, linestyle='-', zorder=3) # 绘制归一化前的边界(虚线) if pre_norm_lower and pre_norm_upper: pre_norm_lower_x, pre_norm_lower_y = zip(*pre_norm_lower) pre_norm_upper_x, pre_norm_upper_y = zip(*pre_norm_upper) axes_read[dq_index].plot(pre_norm_lower_x, pre_norm_lower_y, 'orange', linewidth=1.5, linestyle='--', zorder=4) axes_read[dq_index].plot(pre_norm_upper_x, pre_norm_upper_y, 'orange', linewidth=1.5, linestyle='--', zorder=4) ``` 这段代码在绘制每个DQ的读眼图时,添加了两组边界线:归一化后的实线边界和归一化前的虚线边界,都使用橙色。 4. **边界生成逻辑**: - 对于每个VREF值,计算对应的电压 - 对于每个延迟位置,收集所有包含该延迟位置的VREF对应的电压值 - 计算每个延迟位置的最小和最大电压值,形成上下边界 - 按延迟位置排序后返回边界点列表 这些修改保持了原有功能不变,同时添加了新的边界可视化功能,使用橙色实线表示归一化后的边界,橙色虚线表示归一化前的边界。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值