qq群邮件html背景音乐,群发HTML格式邮件基础知识

2010-1-26 17:25:3

群发HTML格式邮件基础知识

群发图文并茂的电子邮件开展网络营销,比单纯的文字邮件内容更能体现出广告商的水平和品位,合理的在邮件中嵌入图片,改变文字大小和颜色,可以让群发出去的邮件内容在短时间内给阅读者深刻的印象,从来极大提高邮件群发营销的效果。

要实现发送图片和文字混合格式的Email,在爱博邮件群发系统中,邮件格式选项中必须选择“HTML格式邮件”,对应的邮件内容也要相应的使用HTML代码;如果对HTML代码的语法不熟悉,可以使用爱博邮件群发系统自带的图文编辑器(需要Windows操作系统中有.Net Framework 2.0组件,自动更新的Windows系统应该都自动安装了该组件),具体操作请参考《如何用爱博邮件群发系统发送带图片的Email》,网址是 http://qunfa.abot.cn/post/59.html。

HTML一种为普通文件中某些字句加上标示的语言,其目的在于运用标记(tag)使文件达到预期的显示效果。HTML基本结构:

一个HTML文档是由一系列的元素和标签组成.元素名不区分大小写.HTML用标签来规定元素的属性和它在文件中的位置,

HTML超文本文档分文档头和文档体两部分,在文档头里,对这个文档进行了一些必要的定义,文档体中才是要显示的各种文档信息。

下面是一个最基本的html文档的代码:1-1.html

---------------------------------------- 开始标签

一个简单的HTML示例 | 头部标签

--------------------------------------

|

欢迎光临我的主页

|


|


| 文件主体

|

这是我第一次做主页 |

|

|

---------------------------------------

--------------------------------------- 结尾标签

在文档的最外层,文档中的所有文本和html标签都包含在其中,它表示该文档是以超文本标识语言(HTML)编写的。事实上,现在常用的Web浏览器都可以自动识别 HTML文档,并不要求有 标签,也不对该标签进行任何操作,但是为了使HTML文档能够适应不断变化的Web浏览器,还是应该养成不省略这对标签的良好习惯。

和是嵌套在头部标签中的,标签之间的文本是文档标题,它被显示在浏览器窗口的标题栏。

上面的这几对标签在文档中都是唯一的,HEAD标签和BODY标签是嵌套在HTML标签中的。

HTML只是标示语言,基本上你只要明白了各种标记的用法便算学懂了 html,html 的格式非常简单,只是由文字及标记组合而成。在编辑方面,任何文字编辑器都可以,只要能将文件另存成 ascii 纯文字格式即可,当然以专业的网页编辑软件为佳,如Macromedia Dreamweaver, Microsoft FrontPage等。

参考知识:

百度百科-HTML语言 http://baike.baidu.com/view/115411.htm?fr=ala0_1_1

如何用爱博邮件群发系统发送带图片的Email http://qunfa.abot.cn/post/59.html

用文本编辑器也可以嵌入图片发送多媒体邮件 http://qunfa.abot.cn/post/40.html

出处 http://qunfa.abot.cn

分类:邮件群发 | 浏览:

爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响检索结果的不必要的特殊字符,如:“%,*,&,的,啊,http,www”等。 爱博汉语分词系统同时具有英文单词的分词识别功能。 爱博汉语分词系统具有强大的词性标注的词性查询功能。可以将一句话中每个词语在这句话中的意思标注出来;可以通过词语查询接口,查询一个词语的所有可能出现的词性 软件系统采用ANSI标准C++开发,可广泛应用于Linux和Win32等操作系统平台。 爱博汉语分词系统采用高效特殊的算法引擎结构,每秒钟拆分可达数万字中文文本(具体根据计算机性能而定。),在对搜索关键词进行拆分情况下,其响应时问均在数毫秒之内,为搜索提供强劲动力。 采用特殊的词组拆分识别算法,可有效消除汉语词组中汉语歧义,并可识别各个行业内的特殊用语、专用词汇、公司名、地名等,并具有汉语成语、汉语短语识别功能。 ACWPS含盖了IT、化工、金融、贸易、纺织、电子、制造、冶金等各行各业以及日常生活用语中的汉语词组。 可自行定义干扰字、无意义字、敏感词过滤列表。如:啊、唉、个、了等无意义的以及煸动、反动、黄色和侵害他人的汉字、词组及英文。 本人已经测试可用。 注意两点: 1、没有注册的版本只支持25个字以内的分词。 2、必须安装在C盘默认的路径下才能使用
.Net中有不少开源的爬虫工具,abot就是其中之一。Abot是一个开源的.net爬虫,速度快,易于使用和扩展。项目的地址是 https://github.com/sjdirect/abot 对于爬取的Html,使用的分析工具是CsQuery, CsQuery可以算是.net中实现的Jquery, 可以使用类似Jquery中的方法来处理html页面。CsQuery的项目地址是https://github.com/afeiship/CsQuery一. 对Abot爬虫配置1. 通过属性设置先创建config对象,然后设置config中的各项属性:CrawlConfiguration crawlConfig = new CrawlConfiguration();  crawlConfig.CrawlTimeoutSeconds = 100;  crawlConfig.MaxConcurrentThreads = 10;  crawlConfig.MaxPagesToCrawl = 1000;  crawlConfig.UserAgentString = "abot v1.0 http://code.google.com/p/abot";  crawlConfig.ConfigurationExtensions.Add("SomeCustomConfigValue1", "1111");  crawlConfig.ConfigurationExtensions.Add("SomeCustomConfigValue2", "2222");2. 通过App.config配置直接从配置文件中读取,但是也任然可以在修改各项属性:CrawlConfiguration crawlConfig = AbotConfigurationSectionHandler.LoadFromXml().Convert(); crawlConfig.CrawlTimeoutSeconds = 100;  crawlConfig.MaxConcurrentThreads = 10;3. 应用配置到爬虫对象PoliteWebCrawler crawler = new PoliteWebCrawler(); PoliteWebCrawler crawler = new PoliteWebCrawler(crawlConfig, null, null, null, null, null, null, null);二,使用爬虫,注册各种事件爬虫中主要是4个事件, 页面爬取开始、页面爬取失败、页面不允许爬取事件、页面中的链接不允许爬取事件。下面是示例代码:crawlergeCrawlStartingAsync  = crawler_ProcessPageCrawlStarting;//单个页面爬取开始  crawler.PageCrawlCompletedAsync  = crawler_ProcessPageCrawlCompleted;//单个页面爬取结束  crawler.PageCrawlDisallowedAsync  = crawler_PageCrawlDisallowed;//页面不允许爬取事件  crawler.PageLinksCrawlDisallowedAsync  = crawler_PageLinksCrawlDisallowed;//页面链接不允许爬取事件 void crawler_ProcessPageCrawlStarting(object sender, PageCrawlStartingArgs e) {   PageToCrawl pageToCrawl = e.PageToCrawl;   Console.WriteLine("About to crawl link {0} which was found on page {1}", pageToCrawl.Uri.AbsoluteUri, pageToCrawl.ParentUri.AbsoluteUri); } void crawler_ProcessPageCrawlCompleted(object sender, PageCrawlCompletedArgs e) {   CrawledPage crawledPage = e.CrawledPage;   if (crawledPage.WebException != null || crawledPage.HttpWebResponse.StatusCode != HttpStatusCode.OK)     Console.WriteLine("Crawl of page failed {0}", crawledPage.Uri.AbsoluteUri);   else     Console.WriteLine("Crawl of page succeeded {0}", crawledPage.Uri.AbsoluteUri);   if (string.IsNullOrEmpty(crawledPage.Content.Text))     Console.WriteLine("Page had no content {0}", crawledPage.Uri.AbsoluteUri); } void crawler_PageLinksCrawlDisallowed(object sender, PageLinksCrawlDisallowedArgs e) {   CrawledPage crawledPage = e.CrawledPage;   Console.WriteLine("Did not crawl the links on page {0} due to {1}", crawledPage.Uri.AbsoluteUri, e.DisallowedReason); } void crawler_PageCrawlDisallowed(object sender, PageCrawlDisallowedArgs e) {   PageToCrawl pageToCrawl = e.PageToCrawl;   Console.WriteLine("Did not crawl page {0} due to {1}", pageToCrawl.Uri.AbsoluteUri, e.DisallowedReason); }三, 为爬虫添加多个附加对象Abot应该是借鉴了Asp.net MVC中的ViewBag, 也为爬虫对象设置了对象级别的CrwalBag和Page级别的ViewBag.PoliteWebCrawler crawler = new PoliteWebCrawler(); crawler.CrawlBag.MyFoo1 = new Foo();//对象级别的 CrwalBagcrawler.CrawlBag.MyFoo2 = new Foo(); crawler.PageCrawlStartingAsync  = crawler_ProcessPageCrawlStarting; ...void crawler_ProcessPageCrawlStarting(object sender, PageCrawlStartingArgs e) {   //获取CrwalBag中的对象   CrawlContext context = e.CrawlContext;    context.CrawlBag.MyFoo1.Bar();  //使用CrwalBag    context.CrawlBag.MyFoo2.Bar();      //使用页面级别的    PageBag  e.PageToCrawl.PageBag.Bar = new Bar(); }四,启动爬虫启动爬虫非常简单,调用Crawl方法,指定好开始页面,就可以了。CrawlResult result = crawler.Crawl(new Uri("  if (result.ErrorOccurred)         Console.WriteLine("Crawl of {0} completed with error: {1}",          result.RootUri.AbsoluteUri, result.ErrorException.Message         );          else         Console.WriteLine("Crawl of {0} completed without error.", result.RootUri.AbsoluteUri);五,介绍CsQuery在PageCrawlCompletedAsync事件中, e.CrawledPage.CsQueryDocument就是一个CsQuery对象。这里介绍一下CsQuery在分析Html上的优势:cqDocument.Select(".bigtitle > h1")这里的选择器的用法和Jquery完全相同,这里是取class为.bittitle下的h1标签。如果你能熟练的使用Jquery,那么上手CsQuery会非常快和容易。 标签:网络爬虫  网络蜘蛛
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值