二月初新内容速递丨磁盘清理、图表进阶与AI探索

新春二月,学习正酣!二月上旬更新聚焦磁盘清理、图表进阶、场景深化与AI探索,助你在数据智能的道路上驰骋前行!

一、场景应用精选

酱油的数字化呼吸:当千年技艺遇上数据分析》→探索传统工艺与数据分析结合,领略数字化赋能案例。
【联合图】你的业务“双视角侦察机”使用指南》→学习联合图实战应用,提升业务分析效率。

二、二次开发视频更新

(5-2)扩展包开发知识点——知识库升级以及查询对象》→深入学习扩展包开发,掌握知识库升级与查询对象技术。

三、技术经验分享

Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→学习磁盘空间清理方法,释放存储资源,优化系统性能。

四、AI每日一学

【AI每日一学】讲一下MCP的三个场景及优势与局限性》→每日一学AI知识,快速掌握MCP的核心要点。

五、新年活动进行中

新年第③弹 | 新春祝福驰骋:马上送祝福,立马领麦豆!》→参与新春祝福活动,赢取麦豆奖励,开启新年好运。

六、任务持续上线

【BI知识闯关】Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→通过知识闯关巩固磁盘清理技巧,提升运维能力。
【行业场景】制曲环节合格率诊断实战》→深入制曲生产场景,学习合格率诊断分析方法,助力质量提升。
【图表应用】驾驭“联合图”,成为业务的双视角指挥官》→掌握联合图使用技巧,实现业务数据的多维度洞察。
【AI知识巩固】讲一下MCP的三个场景及优势与局限性》→巩固AI知识,了解MCP的典型场景及其优缺点。


磁盘清理释放空间,联合图表洞察双维,AI探索拓展认知——二月上旬,与数据共赴新春新征程!

麦粉社区
>
帖子详情

节点异常

数据挖掘 发表于 2022-10-25 11:27
发表于 2022-10-25 11:27:49

使用etl计算机节点异常

发表于 2022-10-25 11:30:09

提示什么异常呢?把异常现象以及节点日志发一下?

  •   鬼鬼
    “计算节点的应用程序启动异常,详情请看系统监控-实验监控-查看日志!”
    Caused by: org.apache.spark.SparkException: Invalid Spark URL: spark://HeartbeatReceiver@乐乐的本子:7777
    	at org.apache.spark.rpc.RpcEndpointAddress$.apply(RpcEndpointAddress.scala:66) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.netty.NettyRpcEnv.asyncSetupEndpointRefByURI(NettyRpcEnv.scala:140) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRefByURI(RpcEnv.scala:101) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRef(RpcEnv.scala:109) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.util.RpcUtils$.makeDriverRef(RpcUtils.scala:36) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.executor.Executor.(Executor.scala:218) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalEndpoint.(LocalSchedulerBackend.scala:64) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalSchedulerBackend.start(LocalSchedulerBackend.scala:132) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:220) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext.(SparkContext.scala:579) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2672) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.sql.SparkSession$Builder.$anonfun$getOrCreate$2(SparkSession.scala:945) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at scala.Option.getOrElse(Option.scala:189) ~[scala-library-2.12.10.jar:?]
    	at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:939) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at smartbix.datamining.engine.agent.spark.DefaultSparkSessionFactory.getOrCreate(DefaultSparkSessionFactory.java:96) ~[EngineAgent-1.0.jar:?]
    	... 5 more
     
    
    2022-10-25 11:37| 回复
  •   鬼鬼
    裂开了之前搜说是有特殊字符导致
    
    2022-10-25 11:38| 回复

回复

使用道具 举报

发表于 2022-10-25 11:53:57
大佬求教要怎么解决呢?
回复

使用道具 举报

发表于 2022-10-25 14:55:05
这种需要修改部署spark主机的主机名:https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=92079183
这个文档附上了说明方案。
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

5回帖数 0关注人数 3717浏览人数
最后回复于:2022-10-25 14:55

社区

指南

快速回复 返回顶部 返回列表