yarn执行的错误

本文分享了在服务器上使用Yarn安装NodeJS依赖时遇到的错误及解决过程。通过修改yarn.lock文件中capture-stack-trace的版本,从1.0.0升级到1.0.1,成功解决了安装过程中出现的问题。

今天给服务器添加nodejs依赖执行命令:SASS_BINARY_SITE=http://npm.taobao.org/mirrors/node-sass yarn

但是中间执行到第三步的时候就突然报错了报错截图如下:

在这里插入图片描述

解决方法:
执行:vim yarn.lock
找到:capture-stack-trace
更改版本为提示的版本:我的之前是1.0.0改为1.0.1
再次执行yarn命令成功!

### 如何使用 Yarn 执行 JAR 包 #### 使用 `yarn.provided.lib.dirs` 参数执行 Flink 应用程序 当通过 YARN 提交 Flink 应用程序时,可以利用 `-Dyarn.provided.lib.dirs` 参数来指定远程 HDFS 路径中的库文件夹位置。这使得可以在不打包这些库的情况下分发它们给所有的 TaskManager 实例。 例如,下面展示了如何启动一个名为 `my-application.jar` 的应用并指定了位于 HDFS 上的一个特定目录作为额外的类路径[^1]: ```bash ./bin/flink run-application -t yarn-application \ -Dyarn.provided.lib.dirs="hdfs://myhdfs/my-remote-flink-dist-dir" \ hdfs://myhdfs/jars/my-application.jar ``` #### 解决可能遇到的问题 如果在尝试将 JAR 文件提交至 YARN 集群运行时报错,则可能是由于缺少某些必要的依赖关系或者是环境配置不当所引起的错误。对于提到的关于 `javax.x` 类型提供者缺失的情况,应该确认所有必需的服务端和客户端库都已经正确部署到了集群节点上,并且版本兼容[^2]。 #### 准备 Spark 或其他框架的应用程序 Jar 包 为了能够在 CDH 这样的环境中顺利地运行基于 Apache Spark 构建的任务,事先准备好包含自定义逻辑及其所需依赖项在内的 jar 文件是非常重要的一步。确保该 jar 已经被放置于目标服务器上的合适位置以便后续操作能够访问它[^3]. #### 设置第三方 jar 包的位置 针对需要引入外部库支持的情形下,在向 YARN 发送作业请求之前,可以通过命令行参数的形式告知系统有关附加资源的信息。具体来说就是采用 `-yt` 和 `-C` 开关配合相对路径的方式来定位那些存放在类似于 `/path/to/flink/other/` 下面的辅助组件[^4]: ```bash flink run -t yarn-per-job \ -yt /path/to/additional/libs \ -C my.custom.config.key=myValue \ /path/to/application.jar ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Yietion

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值