学习python的朋友都知道文件读写的基本操作,通常我们读写文本的姿势是这个样子的:
f = open(file_name)
...
f.close()
每次定义一个文件读写对象,在操作完成后,我们都需要进行关闭操作,如果你一不小心忘记了,恭喜你中奖了?你的程序很可能发生内存泄露,然后内存溢出,然后就挂了。
这样的事情发生的概率挺高的,我以前就总是这样,因为打开文本后,很可能一顿操作,代码写得很开心,自然忘记风险,忘记f.close …那么怎么避免类似的事情发生呢?这时候with就该出场了。
我们只需要:
with open(file_name) as f:
...
with作用的代码块执行结束后,会自动进行资源释放,自动啊,妈妈再也不用担心我的内存!!!
后来学了tensorflow 1.0 发现了with的妙用,上下文管理,简单来说,利用
with tf.name_scope(name, reuse=...):
balaba
我们可以把with下的所有变量都定义到name命名空间下,然后呢?后续可以重复使用。帮助我们实现网络参数共享。不过到了tensorflow2.0 这个功能不美丽了,你只要定义网络layer类似于函数对象,后续想要调用几次就几次,参数都是共享的。
今天就分享到这,希望大家进行文件读写时养成使用with的好习惯!
参考:

使用with关键字优化Python文件操作与TensorFlow资源共享
本文介绍了Python中使用with关键字进行文件读写操作的优势,它能确保资源在使用完毕后自动释放,避免内存泄露。此外,还讨论了在Tensorflow1.0中,with用于管理上下文,实现变量命名空间和参数共享,但在Tensorflow2.0中,这一功能不再必要,因为直接定义网络层即可实现参数共享。作者建议开发者养成使用with的习惯,以提高代码的健壮性和易维护性。
1798

被折叠的 条评论
为什么被折叠?



