二月初新内容速递丨磁盘清理、图表进阶与AI探索

新春二月,学习正酣!二月上旬更新聚焦磁盘清理、图表进阶、场景深化与AI探索,助你在数据智能的道路上驰骋前行!

一、场景应用精选

酱油的数字化呼吸:当千年技艺遇上数据分析》→探索传统工艺与数据分析结合,领略数字化赋能案例。
【联合图】你的业务“双视角侦察机”使用指南》→学习联合图实战应用,提升业务分析效率。

二、二次开发视频更新

(5-2)扩展包开发知识点——知识库升级以及查询对象》→深入学习扩展包开发,掌握知识库升级与查询对象技术。

三、技术经验分享

Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→学习磁盘空间清理方法,释放存储资源,优化系统性能。

四、AI每日一学

【AI每日一学】讲一下MCP的三个场景及优势与局限性》→每日一学AI知识,快速掌握MCP的核心要点。

五、新年活动进行中

新年第③弹 | 新春祝福驰骋:马上送祝福,立马领麦豆!》→参与新春祝福活动,赢取麦豆奖励,开启新年好运。

六、任务持续上线

【BI知识闯关】Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→通过知识闯关巩固磁盘清理技巧,提升运维能力。
【行业场景】制曲环节合格率诊断实战》→深入制曲生产场景,学习合格率诊断分析方法,助力质量提升。
【图表应用】驾驭“联合图”,成为业务的双视角指挥官》→掌握联合图使用技巧,实现业务数据的多维度洞察。
【AI知识巩固】讲一下MCP的三个场景及优势与局限性》→巩固AI知识,了解MCP的典型场景及其优缺点。


磁盘清理释放空间,联合图表洞察双维,AI探索拓展认知——二月上旬,与数据共赴新春新征程!

麦粉社区
>
帖子详情

【AI每日一学】必须了解的与Al、大模型等相关的专业名词及解释(二)

AIChat 发表于 2025-5-28 16:09
发表于 2025-5-28 16:09:16

        解锁AI新知识,挑战超有趣小问题!每日3题,让你在紧张刺激的氛围中,手速与脑力齐飞!最快全部答对的麦粉将收获20麦豆惊喜奖励!答案就藏在上一篇【必须了解的与Al、大模型等相关的专业名词及解释(一)】的宝藏帖子里,速速翻阅,抢麦豆啦!


AI知识小问答(知识巩固)


1、以下哪项是人工智能(AI)的一个分支,能让机器从数据中学习模式和规律用于预测和决策?


A. 神经网络(NN)


B. 机器学习(ML)


C. 深度学习(DL)


D. 通用人工智能(AGI)


2、具备全面智能,可在任何智力任务上媲美人类的人工智能类型是?


A. 狭义人工智能(ANI)


B. 生成式人工智能(AIGC)


C. 通用人工智能(AGI)


D. 模型(Model)


3、通过模型生成新数据,如图像、文本、音频等的人工智能类型是?


A. 机器学习(ML)


B. 生成式人工智能(AIGC)


C. 模型(Model)


D. 深度学习(DL)


 


        经过一番紧张刺激的小问答挑战,相信大家对AI的基础知识已经有了更深刻的印象。现在,让我们暂时放下手中的“答题利器”,一同进入今天更加深入、更具挑战性的学习环节——AI模型架构类知识。在这里,我们将一起探索那些支撑AI强大功能的底层架构与机制,揭开它们神秘而精妙的面纱。准备好了吗?让我们一同踏上这场探索AI模型架构的奇妙之旅吧!


 


模型架构类(今日学习)


1.Transformer架构(Transformer Architecture):


基于注意力机制的深度学习架构,在NLP、CV等领域广泛应用。


 


2.注意力机制(Attention Mechanism):


使模型处理数据时关注重要信息。


 


3.多头注意力(Multi-Head Attention):


Transformer架构中多个注意力头并行,获取更丰富特征。


 


4.循环神经网络(Recurrent Neural Network,RNN):


处理序列数据,能记忆之前输入,但长序列处理有局限。


 


5.长短期记忆网络(Long Short-Term Memory,LSTM):


RNN变体,解决梯度消失和爆炸问题。


 


6.门控循环单元(Gated Recurrent Unit,GRU):


RNN的简单变体,计算效率高。


 


7.卷积神经网络(Convolutional Neural Network,CNN):


常用于图像数据,通过卷积、池化层提取特征。


 


8.全连接层(Fully Connected Layer):


神经网络层,输入与输出节点全连接。


 


9.混合专家模型(Mixture of Experts,MoE):


多个“专家”网络并行,门控机制选输出,平衡效率和性能。


 


10.位置编码(Positional Encoding):


Transformer中为模型提供输入序列元素位置信息


 


11.自注意力机制(Self-Attention Mechanism):


输入序列元素可互相关注,捕捉长距离依赖。


 


12.编码器-解码器架构(Encoder-Decoder Architectur e):


处理序列到序列任务,如机器翻译。


 


13.图神经网络(Graph Neural Network,GNN):


处理图形结构数据,用于社交网络分析等。

发表于 2025-5-28 18:19:25
答案是BCB
打赏人数1麦豆 +20 收起 理由
Smartbi社区管理员 + 20 骚年,我看好你哦

查看全部打赏


回复

使用道具 举报

发表于 2025-5-29 16:06:21
答案是BCB

回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

6回帖数 1关注人数 1291浏览人数
最后回复于:2025-5-29 18:08

社区

指南

快速回复 返回顶部 返回列表