|         解锁AI新知识,挑战超有趣小问题!每日3题,让你在紧张刺激的氛围中,手速与脑力齐飞!最快全部答对的麦粉将收获20麦豆惊喜奖励!答案就藏在上一篇【必须了解的与Al、大模型等相关的专业名词及解释(一)】的宝藏帖子里,速速翻阅,抢麦豆啦! 
  AI知识小问答(知识巩固)
 1、以下哪项是人工智能(AI)的一个分支,能让机器从数据中学习模式和规律用于预测和决策? 
 A. 神经网络(NN) 
 B. 机器学习(ML) 
 C. 深度学习(DL) 
 D. 通用人工智能(AGI) 
 2、具备全面智能,可在任何智力任务上媲美人类的人工智能类型是? 
 A. 狭义人工智能(ANI) 
 B. 生成式人工智能(AIGC) 
 C. 通用人工智能(AGI) 
 D. 模型(Model) 
 3、通过模型生成新数据,如图像、文本、音频等的人工智能类型是? 
 A. 机器学习(ML) 
 B. 生成式人工智能(AIGC) 
 C. 模型(Model) 
 D. 深度学习(DL) 
   
         经过一番紧张刺激的小问答挑战,相信大家对AI的基础知识已经有了更深刻的印象。现在,让我们暂时放下手中的“答题利器”,一同进入今天更加深入、更具挑战性的学习环节——AI模型架构类知识。在这里,我们将一起探索那些支撑AI强大功能的底层架构与机制,揭开它们神秘而精妙的面纱。准备好了吗?让我们一同踏上这场探索AI模型架构的奇妙之旅吧! 
   
  模型架构类(今日学习)
 1.Transformer架构(Transformer Architecture): 
  基于注意力机制的深度学习架构,在NLP、CV等领域广泛应用。
 
   
 2.注意力机制(Attention Mechanism): 
  使模型处理数据时关注重要信息。
 
   
 3.多头注意力(Multi-Head Attention): 
  Transformer架构中多个注意力头并行,获取更丰富特征。
 
   
 4.循环神经网络(Recurrent Neural Network,RNN): 
  处理序列数据,能记忆之前输入,但长序列处理有局限。
 
   
 5.长短期记忆网络(Long Short-Term Memory,LSTM): 
  RNN变体,解决梯度消失和爆炸问题。
 
   
 6.门控循环单元(Gated Recurrent Unit,GRU): 
  RNN的简单变体,计算效率高。
 
   
 7.卷积神经网络(Convolutional Neural Network,CNN): 
  常用于图像数据,通过卷积、池化层提取特征。
 
   
 8.全连接层(Fully Connected Layer): 
  神经网络层,输入与输出节点全连接。
 
   
 9.混合专家模型(Mixture of Experts,MoE): 
    多个“专家”网络并行,门控机制选输出,平衡效率和性能。
 
   
 10.位置编码(Positional Encoding): 
  Transformer中为模型提供输入序列元素位置信息
 
   
 11.自注意力机制(Self-Attention Mechanism): 
  输入序列元素可互相关注,捕捉长距离依赖。
 
   
 12.编码器-解码器架构(Encoder-Decoder Architectur e): 
  处理序列到序列任务,如机器翻译。
 
   
 13.图神经网络(Graph Neural Network,GNN): 
  处理图形结构数据,用于社交网络分析等。
 |