Only one SparkContext may be running in this JVM
今天在学习spark读取java文件时,学习了遇到了Only one SparkContext may be running in this JVM的错误。错误的原因是因为在调用mapper.readValue函数时传入了带有SparkContext的类,导致SparkContext被加载两次。于是又回头看了看class的概念。对象类的.class保存了类的所有信息,在装载的同时会自动创建
原创
2016-12-21 11:14:41 ·
3473 阅读 ·
0 评论