六月下旬全新资源上线!丨 解锁高效能实战方案

更新亮点:本次新增6大专题10项资源,更有王炸课程重磅登场,点击标题了解!(参与互动赢取麦豆,解锁更多内容)

王炸专区:场景化数据分析实战

一站式贯通数据驱动全流程,从需求洞察→数仓开发→模型构建→可视化呈现,手把手带你构建决策引擎,助你秒变企业决策智多星!

二、实战技巧分享

即席/透视的逆袭之路:从卡顿到秒出→ 性能优化实战,实现报表秒级响应!

体验中心焕新一“夏”,全新导览页及新DEMO上线!→ 抢先体验夏季更新DEMO!

速看!明细/汇总/交叉表的实现秘籍→ 高效构建复杂报表指南

三、开发技能突破

视频课《仪表盘图片鼠标提示几行代码,让你的仪表盘“会说话”!

视频课《仪表盘宏开发技巧→ 解锁宏开发技巧和注意事项

四、直播上线

直播《交互式仪表盘最佳实践解锁可视化大屏最佳实践技巧

五、AI每日一学

人工智能三驾马车:算法、算力与数据→ 深度解析AI核心支柱

通俗的讲一下神经网络模型的基本组成、工作原理、工作类型和生活应用场景→ 从基础到场景实战

六、资源上新

插件《安全检测→ 一键加固系统安全防护

麦粉社区
>
帖子详情

节点异常

数据挖掘 发表于 2022-10-25 11:27
发表于 2022-10-25 11:27:49

使用etl计算机节点异常

发表于 2022-10-25 11:30:09

提示什么异常呢?把异常现象以及节点日志发一下?

  •   鬼鬼
    “计算节点的应用程序启动异常,详情请看系统监控-实验监控-查看日志!”
    Caused by: org.apache.spark.SparkException: Invalid Spark URL: spark://HeartbeatReceiver@乐乐的本子:7777
    	at org.apache.spark.rpc.RpcEndpointAddress$.apply(RpcEndpointAddress.scala:66) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.netty.NettyRpcEnv.asyncSetupEndpointRefByURI(NettyRpcEnv.scala:140) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRefByURI(RpcEnv.scala:101) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRef(RpcEnv.scala:109) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.util.RpcUtils$.makeDriverRef(RpcUtils.scala:36) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.executor.Executor.(Executor.scala:218) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalEndpoint.(LocalSchedulerBackend.scala:64) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalSchedulerBackend.start(LocalSchedulerBackend.scala:132) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:220) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext.(SparkContext.scala:579) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2672) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.sql.SparkSession$Builder.$anonfun$getOrCreate$2(SparkSession.scala:945) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at scala.Option.getOrElse(Option.scala:189) ~[scala-library-2.12.10.jar:?]
    	at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:939) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at smartbix.datamining.engine.agent.spark.DefaultSparkSessionFactory.getOrCreate(DefaultSparkSessionFactory.java:96) ~[EngineAgent-1.0.jar:?]
    	... 5 more
     
    
    2022-10-25 11:37| 回复
  •   鬼鬼
    裂开了之前搜说是有特殊字符导致
    
    2022-10-25 11:38| 回复

回复

使用道具 举报

发表于 2022-10-25 11:53:57
大佬求教要怎么解决呢?
回复

使用道具 举报

发表于 2022-10-25 14:55:05
这种需要修改部署spark主机的主机名:https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=92079183
这个文档附上了说明方案。
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

5回帖数 0关注人数 2982浏览人数
最后回复于:2022-10-25 14:55
快速回复 返回顶部 返回列表