是《Node.js实战》的读书笔记啦
Node在数据流和数据流动上很强大。我们可以把数据流看成特殊的数组,只不过数组中的数据分散在空间上,而数据流中的数据是分散在时间上的。通过将数据一块一块的传送,开发人员可以收到每一块数据就开始处理,而不用等到所有的数据都到全了再做处理。
如下代码:
var fs = require('fs')
var stream = fs.createReadStream('./resource.json')
stream.on('data',function (chunk) {
console.log(chunk)
})
stream.on('end',function () {
console.log('finished')
})
当有新的数据块准备好,就会激发data事件,当所有的数据块都加载完之后,会激发一个end事件。由于数据类型不同,数据块的大小可能也会发生变化。有了对读取流的底层访问,程序可以边读取,边处理,着比等到所有的数据都缓存到内存中再处理的效率高很多。
Node也可以写数据流,可以向其中写数据块,对其响应的res对象就是可写数据流的一种。
可读可写数据流可以连起来形成管道,就像shell脚本中的|(管道)操作符一样。
var http = require('http')
var fs = require('fs')
http.createServer(function (req,res) {
fs.createReadStream('./1.jpg').pipe(res)
}).listen(3000)
console.log('Server running at http://localhost:3000/');
在 fs.createReadStream(‘./1.jpg’).pipe(res)代码中,数据从文件中读取进来,然后数据随着进来就被送到(.pipe)客户端(res),在数据流动时,事件轮询还可以处理其他事件。