孟子E章打印的修改版

博客展示了一段HTML代码,包含表格和打印按钮的设置。设置了打印时隐藏输入框,表格有每页都显示的表头和表尾,还对表格行数进行判断,超过一定行数进行分页处理,最后添加了打印按钮。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


<style>
@media print{
INPUT {display:none}
}
</style>
<TABLE border="0" style="font-size:9pt;" width="300px" align="center">
<THEAD style="display:table-header-group;font-weight:bold">
<TR><TD colspan="2" align="center" style="font-weight:bold;border:3px double red">每页都有的表头</TD></TR>
</THEAD>
<TBODY style="text-align:center">
<%for i=1 to 3'默认情况下,行数47行,就到底了,所以需要判断记录数,若超过46,则
response.write "<TR><TD>表格内容"&i&"</TD><TD>表格内容"&i&"</TD></TR>"
   if (i mod 46)=0 then
   response.write "<TR style=page-break-after:always;><TD>表格内容--</TD><TD>表格内容-</TD></TR>"
   end if
next
%>
<TR style="page-break-after:always;"><TD>表格内容r</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR style="page-break-after:always;"><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR><TD>表格内容</TD><TD>表格内容</TD></TR>
<TR style="page-break-after:always;"><TD>表格内容</TD><TD>表格内容</TD></TR>
</TBODY>
<TFOOT style="display:table-footer-group;font-weight:bold">
<TR>
<TD colspan="2" align="center" style="font-weight:bold;border:3px double blue">每页都有的表尾</TD>
</TR>
</TFOOT>
</TABLE>
<input type=button value=" 打  印 " onclick="window.print()">

 

 

### 孟子中文T5预训练生成模型概述 孟子预训练模型技术涵盖了多种架构,其中包括类似于T5的生成式预训练模型[^1]。这类模型不仅继承了原始T5架构的优势——即通过编码器-解码器结构实现强大的文本生成能力,还特别针对汉语语境进行了优化调整。 #### 特殊设计与优势 为了更好地服务于特定行业需求,如金融领域,该类模型采用了专门的数据集进行微调处理。这意味着,在面对诸如合同解析、财经新闻摘要等任务时,其表现尤为出色。此外,考虑到实际应用中的成本效益问题,“孟子”团队采取了一系列措施来降低资源消耗并提高效率,例如仅用约10亿参数便实现了卓越的成绩,在CLUE评测体系内名列前茅[^3]。 #### 应用实例展示 下面给出一段简单的Python代码片段用于加载并测试一个基于Transformers库封装好的孟子-T5模型: ```python from transformers import AutoModelForSeq2SeqLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("langboat/mengzi-t5-base") model = AutoModelForSeq2SeqLM.from_pretrained("langboat/mengzi-t5-base") input_text = "解释一下什么是区块链?" inputs = tokenizer(input_text, return_tensors="pt").input_ids outputs = model.generate(inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 这段程序会读取输入字符串`"解释一下什么是区块链?"`作为提示词,并尝试利用预先训练过的孟子-T5基础版模型生成相应的回答内容。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值