月下旬更新速递丨 实战场景深化、集成能力升级与开发进阶

初冬来临,一波热气腾腾的更新也准时抵达!我们聚焦实战技巧、集成增强与开发进阶,一系列新功能与新教程,助你在数据分析与系统开发的效率上再进一步。

一、实战技巧精讲

雷达图:多维度数据的“透视镜”,3步读懂数据真相》→ 聚焦雷达图核心应用场景,快速掌握多对象、多维度数据的可视化分析方法。

用图表解锁你的生活“数据密码”!》→ 探索图表在日常场景中的应用,让数据解读更直观、更具操作性。

二、直播上线

2025新特性实战解读(上)数据分析效率倍增秘籍》→ 解析2025新特性落地路径,助力实现数据分析效率成倍提升。

三、技术经验分享

【专家分享】数据排序的“权力游戏”:优先级规则决定谁先谁后》→解读高级排序的业务配置逻辑,让关键数据始终处于优先展示位置。

四、二次开发视频

扩展包开发知识点——前端改造》→从需求分析入手到最终实现的全流程讲解,帮助您快速入门上手Smartbi前端改造。

五、任务持续上线

【初级任务】解锁生活“数据密码”,可视化创意实践任务》→发起可视化创意任务,推动数据表达更生动、更具趣味性。

【初级任务】玩转雷达图解数据,200麦豆等你拿!》→推出雷达图实战任务,以激励方式提升多维数据分析技能。

六、全新素材上线

AD域(LDAP/LDAPS)登录验证V2》→扩展域账号登录支持,实现与企业Windows认证体系无缝对接。

数据模型:对接RestfulAPI接口》→打通数据模型与RestfulAPI对接通道,提升系统集成与数据获取效率。

计划任务:定时清空用户属性缓存→引入缓存自动清理机制,确保权限变更实时生效、业务数据及时更新。

用户同步:BI系统自定义用户所属组》→优化用户组同步逻辑,实现自定义组信息自动识别与补全。

审核流程:可以调用自助ETL》→增强审核流程集成能力,支持在用户任务节点直接调用自助ETL过程。

麦粉社区
>
帖子详情

【AI每日一学】必须了解的与Al、大模型等相关的专业名词及解释(二)

AIChat 发表于 2025-5-28 16:09
发表于 2025-5-28 16:09:16

        解锁AI新知识,挑战超有趣小问题!每日3题,让你在紧张刺激的氛围中,手速与脑力齐飞!最快全部答对的麦粉将收获20麦豆惊喜奖励!答案就藏在上一篇【必须了解的与Al、大模型等相关的专业名词及解释(一)】的宝藏帖子里,速速翻阅,抢麦豆啦!


AI知识小问答(知识巩固)


1、以下哪项是人工智能(AI)的一个分支,能让机器从数据中学习模式和规律用于预测和决策?


A. 神经网络(NN)


B. 机器学习(ML)


C. 深度学习(DL)


D. 通用人工智能(AGI)


2、具备全面智能,可在任何智力任务上媲美人类的人工智能类型是?


A. 狭义人工智能(ANI)


B. 生成式人工智能(AIGC)


C. 通用人工智能(AGI)


D. 模型(Model)


3、通过模型生成新数据,如图像、文本、音频等的人工智能类型是?


A. 机器学习(ML)


B. 生成式人工智能(AIGC)


C. 模型(Model)


D. 深度学习(DL)


 


        经过一番紧张刺激的小问答挑战,相信大家对AI的基础知识已经有了更深刻的印象。现在,让我们暂时放下手中的“答题利器”,一同进入今天更加深入、更具挑战性的学习环节——AI模型架构类知识。在这里,我们将一起探索那些支撑AI强大功能的底层架构与机制,揭开它们神秘而精妙的面纱。准备好了吗?让我们一同踏上这场探索AI模型架构的奇妙之旅吧!


 


模型架构类(今日学习)


1.Transformer架构(Transformer Architecture):


基于注意力机制的深度学习架构,在NLP、CV等领域广泛应用。


 


2.注意力机制(Attention Mechanism):


使模型处理数据时关注重要信息。


 


3.多头注意力(Multi-Head Attention):


Transformer架构中多个注意力头并行,获取更丰富特征。


 


4.循环神经网络(Recurrent Neural Network,RNN):


处理序列数据,能记忆之前输入,但长序列处理有局限。


 


5.长短期记忆网络(Long Short-Term Memory,LSTM):


RNN变体,解决梯度消失和爆炸问题。


 


6.门控循环单元(Gated Recurrent Unit,GRU):


RNN的简单变体,计算效率高。


 


7.卷积神经网络(Convolutional Neural Network,CNN):


常用于图像数据,通过卷积、池化层提取特征。


 


8.全连接层(Fully Connected Layer):


神经网络层,输入与输出节点全连接。


 


9.混合专家模型(Mixture of Experts,MoE):


多个“专家”网络并行,门控机制选输出,平衡效率和性能。


 


10.位置编码(Positional Encoding):


Transformer中为模型提供输入序列元素位置信息


 


11.自注意力机制(Self-Attention Mechanism):


输入序列元素可互相关注,捕捉长距离依赖。


 


12.编码器-解码器架构(Encoder-Decoder Architectur e):


处理序列到序列任务,如机器翻译。


 


13.图神经网络(Graph Neural Network,GNN):


处理图形结构数据,用于社交网络分析等。

发表于 2025-5-28 18:19:25
答案是BCB
打赏人数1麦豆 +20 收起 理由
Smartbi社区管理员 + 20 骚年,我看好你哦

查看全部打赏


回复

使用道具 举报

发表于 2025-5-29 16:06:21
答案是BCB

回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

6回帖数 1关注人数 989浏览人数
最后回复于:2025-5-29 18:08
快速回复 返回顶部 返回列表