月下旬更新速递丨 实战场景深化、集成能力升级与开发进阶

初冬来临,一波热气腾腾的更新也准时抵达!我们聚焦实战技巧、集成增强与开发进阶,一系列新功能与新教程,助你在数据分析与系统开发的效率上再进一步。

一、实战技巧精讲

雷达图:多维度数据的“透视镜”,3步读懂数据真相》→ 聚焦雷达图核心应用场景,快速掌握多对象、多维度数据的可视化分析方法。

用图表解锁你的生活“数据密码”!》→ 探索图表在日常场景中的应用,让数据解读更直观、更具操作性。

二、直播上线

2025新特性实战解读(上)数据分析效率倍增秘籍》→ 解析2025新特性落地路径,助力实现数据分析效率成倍提升。

三、技术经验分享

【专家分享】数据排序的“权力游戏”:优先级规则决定谁先谁后》→解读高级排序的业务配置逻辑,让关键数据始终处于优先展示位置。

四、二次开发视频

扩展包开发知识点——前端改造》→从需求分析入手到最终实现的全流程讲解,帮助您快速入门上手Smartbi前端改造。

五、任务持续上线

【初级任务】解锁生活“数据密码”,可视化创意实践任务》→发起可视化创意任务,推动数据表达更生动、更具趣味性。

【初级任务】玩转雷达图解数据,200麦豆等你拿!》→推出雷达图实战任务,以激励方式提升多维数据分析技能。

六、全新素材上线

AD域(LDAP/LDAPS)登录验证V2》→扩展域账号登录支持,实现与企业Windows认证体系无缝对接。

数据模型:对接RestfulAPI接口》→打通数据模型与RestfulAPI对接通道,提升系统集成与数据获取效率。

计划任务:定时清空用户属性缓存→引入缓存自动清理机制,确保权限变更实时生效、业务数据及时更新。

用户同步:BI系统自定义用户所属组》→优化用户组同步逻辑,实现自定义组信息自动识别与补全。

审核流程:可以调用自助ETL》→增强审核流程集成能力,支持在用户任务节点直接调用自助ETL过程。

麦粉社区
>
帖子详情

节点异常

数据挖掘 发表于 2022-10-25 11:27
发表于 2022-10-25 11:27:49

使用etl计算机节点异常

发表于 2022-10-25 11:30:09

提示什么异常呢?把异常现象以及节点日志发一下?

  •   鬼鬼
    “计算节点的应用程序启动异常,详情请看系统监控-实验监控-查看日志!”
    Caused by: org.apache.spark.SparkException: Invalid Spark URL: spark://HeartbeatReceiver@乐乐的本子:7777
    	at org.apache.spark.rpc.RpcEndpointAddress$.apply(RpcEndpointAddress.scala:66) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.netty.NettyRpcEnv.asyncSetupEndpointRefByURI(NettyRpcEnv.scala:140) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRefByURI(RpcEnv.scala:101) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.rpc.RpcEnv.setupEndpointRef(RpcEnv.scala:109) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.util.RpcUtils$.makeDriverRef(RpcUtils.scala:36) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.executor.Executor.(Executor.scala:218) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalEndpoint.(LocalSchedulerBackend.scala:64) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.local.LocalSchedulerBackend.start(LocalSchedulerBackend.scala:132) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:220) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext.(SparkContext.scala:579) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2672) ~[spark-core_2.12-3.1.2.jar:3.1.2]
    	at org.apache.spark.sql.SparkSession$Builder.$anonfun$getOrCreate$2(SparkSession.scala:945) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at scala.Option.getOrElse(Option.scala:189) ~[scala-library-2.12.10.jar:?]
    	at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:939) ~[spark-sql_2.12-3.1.2.jar:3.1.2]
    	at smartbix.datamining.engine.agent.spark.DefaultSparkSessionFactory.getOrCreate(DefaultSparkSessionFactory.java:96) ~[EngineAgent-1.0.jar:?]
    	... 5 more
     
    
    2022-10-25 11:37| 回复
  •   鬼鬼
    裂开了之前搜说是有特殊字符导致
    
    2022-10-25 11:38| 回复

回复

使用道具 举报

发表于 2022-10-25 11:53:57
大佬求教要怎么解决呢?
回复

使用道具 举报

发表于 2022-10-25 14:55:05
这种需要修改部署spark主机的主机名:https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=92079183
这个文档附上了说明方案。
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

5回帖数 0关注人数 3488浏览人数
最后回复于:2022-10-25 14:55
快速回复 返回顶部 返回列表