org.apache.spark maven依赖

本文汇总了Apache Spark项目中多个模块的不同版本及其在Maven中央仓库中的被引用次数。覆盖了从早期incubating阶段到稳定版本的spark-core、spark-streaming等关键组件的版本历史。

org.apache.spark maven依赖

org.apache.spark/spark-core_2.10共有6个版本,总共被引用了23次

被引用次数最多的版本是1.1.0,其被引用次数为8,查看引用次数柱状图

org.apache.spark/spark-core_2.9.3共有2个版本,总共被引用了22次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为13,查看引用次数柱状图

org.apache.spark/spark-streaming_2.9.3共有2个版本,总共被引用了9次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为6,查看引用次数柱状图

org.apache.spark/spark-streaming_2.10共有6个版本,总共被引用了8次

被引用次数最多的版本是0.9.0-incubating,其被引用次数为4,查看引用次数柱状图

org.apache.spark/spark-bagel_2.9.3共有2个版本,总共被引用了6次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为3,查看引用次数柱状图

org.apache.spark/spark-mllib_2.9.3共有2个版本,总共被引用了6次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为3,查看引用次数柱状图

org.apache.spark/spark-sql_2.10共有4个版本,总共被引用了3次

被引用次数最多的版本是1.2.1,其被引用次数为2,查看引用次数柱状图

org.apache.spark/spark-repl_2.10共有3个版本,总共被引用了2次

被引用次数最多的版本是0.9.1,其被引用次数为1,查看引用次数柱状图

org.apache.spark/spark-repl_2.9.3共有2个版本,总共被引用了2次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为1,查看引用次数柱状图

org.apache.spark/spark-core_2.11共有1个版本,总共被引用了1次

被引用次数最多的版本是1.2.1,其被引用次数为1。

org.apache.spark/spark-streaming_2.11共有2个版本,总共被引用了0次

被引用次数最多的版本是1.2.2,其被引用次数为0。

org.apache.spark/spark-catalyst_2.10共有1个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-mllib_2.10共有5个版本,总共被引用了0次

被引用次数最多的版本是1.2.2,其被引用次数为0。

org.apache.spark/spark-streaming-twitter_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-tools_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-streaming-kafka_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-examples_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-streaming-mqtt_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-assembly_2.10共有1个版本,总共被引用了0次

被引用次数最多的版本是0.9.0-incubating,其被引用次数为0。

org.apache.spark/spark-tools_2.9.3共有2个版本,总共被引用了0次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为0。

org.apache.spark/spark-yarn_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-yarn_2.9.3共有2个版本,总共被引用了0次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为0。

org.apache.spark/spark-streaming-zeromq_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-streaming-flume_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-examples_2.9.3共有2个版本,总共被引用了0次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为0。

org.apache.spark/spark-assembly_2.9.3共有2个版本,总共被引用了0次

被引用次数最多的版本是0.8.1-incubating,其被引用次数为0。

org.apache.spark/spark-graphx_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-bagel_2.10共有3个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-ganglia-lgpl_2.10共有2个版本,总共被引用了0次

被引用次数最多的版本是1.0.0,其被引用次数为0。

org.apache.spark/spark-hive_2.10共有2个版本,总共被引用了0次

被引用次数最多的版本是1.2.1,其被引用次数为0。

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf at java.lang.Class.getDeclaredConstructors0(Native Method) at java.lang.Class.privateGetDeclaredConstructors(Class.java:2671) at java.lang.Class.getConstructors(Class.java:1651) at org.apache.spark.sql.hive.client.IsolatedClientLoader.createClient(IsolatedClientLoader.scala:317) at org.apache.spark.sql.hive.HiveUtils$.newClientForMetadata(HiveUtils.scala:488) at org.apache.spark.sql.hive.HiveUtils$.newClientForMetadata(HiveUtils.scala:376) at org.apache.spark.sql.hive.HiveExternalCatalog.client$lzycompute(HiveExternalCatalog.scala:68) at org.apache.spark.sql.hive.HiveExternalCatalog.client(HiveExternalCatalog.scala:67) at org.apache.spark.sql.hive.HiveExternalCatalog.$anonfun$databaseExists$1(HiveExternalCatalog.scala:224) at scala.runtime.java8.JFunction0$mcZ$sp.apply(JFunction0$mcZ$sp.java:23) at org.apache.spark.sql.hive.HiveExternalCatalog.withClient(HiveExternalCatalog.scala:99) at org.apache.spark.sql.hive.HiveExternalCatalog.databaseExists(HiveExternalCatalog.scala:224) at org.apache.spark.sql.internal.SharedState.externalCatalog$lzycompute(SharedState.scala:146) at org.apache.spark.sql.internal.SharedState.externalCatalog(SharedState.scala:140) at org.apache.spark.sql.internal.SharedState.globalTempViewManager$lzycompute(SharedState.scala:176) at org.apache.spark.sql.internal.SharedState.globalTempViewManager(SharedState.scala:174) at org.apache.spark.sql.hive.HiveSessionStateBuilder.$anonfun$catalog$2(HiveSessionStateBuilder.scala:70) at org.apache.spark.sql.catalyst.catalog.SessionCatalog.globalTempViewManager$lzycompute(SessionCatalog.scala:124) at org.apache.spark.sql.catalyst.catalog.SessionCatalog.globalTempViewManager(SessionCatalog.scala:124) at org.apache.spark.sql.catalyst.catalog.SessionCatalog.setCurrentDatabaseWithNameCheck(SessionCatalog.scala:340) at org.apache.spark.sql.connector.catalog.CatalogManager.setCurrentNamespace(CatalogManager.scala:119) at org.apache.spark.sql.execution.datasources.v2.SetCatalogAndNamespaceExec.$anonfun$run$2(SetCatalogAndNamespaceExec.scala:36) at org.apache.spark.sql.execution.datasources.v2.SetCatalogAndNamespaceExec.$anonfun$run$2$adapted(SetCatalogAndNamespaceExec.scala:36) at scala.Option.foreach(Option.scala:407) at org.apache.spark.sql.execution.datasources.v2.SetCatalogAndNamespaceExec.run(SetCatalogAndNamespaceExec.scala:36) at org.apache.spark.sql.execution.datasources.v2.V2CommandExec.result$lzycompute(V2CommandExec.scala:43) at org.apache.spark.sql.execution.datasources.v2.V2CommandExec.result(V2CommandExec.scala:43) at org.apache.spark.sql.execution.datasources.v2.V2CommandExec.executeCollect(V2CommandExec.scala:49) at org.apache.spark.sql.execution.QueryExecution$$anonfun$eagerlyExecuteCommands$1.$anonfun$applyOrElse$1(QueryExecution.scala:107) at org.apache.spark.sql.execution.SQLExecution$.$anonfun$withNewExecutionId$6(SQLExecution.scala:125) at org.apache.spark.sql.execution.SQLExecution$.withSQLConfPropagated(SQLExecution.scala:201) at org.apache.spark.sql.execution.SQLExecution$.$anonfun$withNewExecutionId$1(SQLExecution.scala:108) at org.apache.spark.sql.SparkSession.withActive(SparkSession.scala:900) at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:66) at org.apache.spark.sql.execution.QueryExecution$$anonfun$eagerlyExecuteCommands$1.applyOrElse(QueryExecution.scala:107) at org.apache.spark.sql.execution.QueryExecution$$anonfun$eagerlyExecuteCommands$1.applyOrElse(QueryExecution.scala:98) at org.apache.spark.sql.catalyst.trees.TreeNode.$anonfun$transformDownWithPruning$1(TreeNode.scala:461) at org.apache.spark.sql.catalyst.trees.CurrentOrigin$.withOrigin(origin.scala:76) at org.apache.spark.sql.catalyst.trees.TreeNode.transformDownWithPruning(TreeNode.scala:461) at org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.org$apache$spark$sql$catalyst$plans$logical$AnalysisHelper$$super$transformDownWithPruning(LogicalPlan.scala:32) at org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning(AnalysisHelper.scala:267) at org.apache.spark.sql.catalyst.plans.logical.AnalysisHelper.transformDownWithPruning$(AnalysisHelper.scala:263) at org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning(LogicalPlan.scala:32) at org.apache.spark.sql.catalyst.plans.logical.LogicalPlan.transformDownWithPruning(LogicalPlan.scala:32) at org.apache.spark.sql.catalyst.trees.TreeNode.transformDown(TreeNode.scala:437) at org.apache.spark.sql.execution.QueryExecution.eagerlyExecuteCommands(QueryExecution.scala:98) at org.apache.spark.sql.execution.QueryExecution.commandExecuted$lzycompute(QueryExecution.scala:85) at org.apache.spark.sql.execution.QueryExecution.commandExecuted(QueryExecution.scala:83) at org.apache.spark.sql.Dataset.<init>(Dataset.scala:220) at org.apache.spark.sql.Dataset$.$anonfun$ofRows$2(Dataset.scala:100) at org.apache.spark.sql.SparkSession.withActive(SparkSession.scala:900) at org.apache.spark.sql.Dataset$.ofRows(Dataset.scala:97) at org.apache.spark.sql.SparkSession.$anonfun$sql$4(SparkSession.scala:691) at org.apache.spark.sql.SparkSession.withActive(SparkSession.scala:900) at org.apache.spark.sql.SparkSession.sql(SparkSession.scala:682) at org.apache.spark.sql.SparkSession.sql(SparkSession.scala:713) at org.apache.spark.sql.SparkSession.sql(SparkSession.scala:744) at DDL_hive.main(DDL_hive.java:36) Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at org.apache.spark.sql.hive.client.IsolatedClientLoader$$anon$1.doLoadClass(IsolatedClientLoader.scala:274) at org.apache.spark.sql.hive.client.IsolatedClientLoader$$anon$1.loadClass(IsolatedClientLoader.scala:263) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) ... 58 more
11-11
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值