二月初新内容速递丨磁盘清理、图表进阶与AI探索

新春二月,学习正酣!二月上旬更新聚焦磁盘清理、图表进阶、场景深化与AI探索,助你在数据智能的道路上驰骋前行!

一、场景应用精选

酱油的数字化呼吸:当千年技艺遇上数据分析》→探索传统工艺与数据分析结合,领略数字化赋能案例。
【联合图】你的业务“双视角侦察机”使用指南》→学习联合图实战应用,提升业务分析效率。

二、二次开发视频更新

(5-2)扩展包开发知识点——知识库升级以及查询对象》→深入学习扩展包开发,掌握知识库升级与查询对象技术。

三、技术经验分享

Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→学习磁盘空间清理方法,释放存储资源,优化系统性能。

四、AI每日一学

【AI每日一学】讲一下MCP的三个场景及优势与局限性》→每日一学AI知识,快速掌握MCP的核心要点。

五、新年活动进行中

新年第③弹 | 新春祝福驰骋:马上送祝福,立马领麦豆!》→参与新春祝福活动,赢取麦豆奖励,开启新年好运。

六、任务持续上线

【BI知识闯关】Smartbi磁盘空间告急?这篇清理指南让你轻松腾出几十GB!》→通过知识闯关巩固磁盘清理技巧,提升运维能力。
【行业场景】制曲环节合格率诊断实战》→深入制曲生产场景,学习合格率诊断分析方法,助力质量提升。
【图表应用】驾驭“联合图”,成为业务的双视角指挥官》→掌握联合图使用技巧,实现业务数据的多维度洞察。
【AI知识巩固】讲一下MCP的三个场景及优势与局限性》→巩固AI知识,了解MCP的典型场景及其优缺点。


磁盘清理释放空间,联合图表洞察双维,AI探索拓展认知——二月上旬,与数据共赴新春新征程!

麦粉社区
>
帖子详情

【AI每日一学】LLM 中的 Token 和 Embedding 到底是啥?

AIChat 发表于 2025-9-1 11:20
发表于 2025-9-1 11:20:32

麦粉集合!AI实战落地系列第二十三弹扬帆起航!


        在上一弹中,我们深入探讨了AI对话中的关键工具—prompt(提示词),掌握了如何通过精准的指令引导AI生成高质量内容,真正实现“人机协同”。Prompt不仅是沟通的桥梁,更是释放AI潜能的钥匙。学会了它,你就掌握了与AI高效对话的“魔法”!


        而今天,我们将回归技术底层,解析LLM(大语言模型)中两个最基础却又至关重要的概念——Token与Embedding。它们就像是AI理解语言的“字母”和“词典”,搞懂它们,你才能真正明白AI是如何“读懂”人类语言的!


AI知识问答(知识巩固)


        在深入新领域之前,先来一场有趣的“知识热身赛”吧!温故而知新,这可是进步的秘诀哦~ 快来检验一下你对Prompt的理解程度吧!规则依旧,最快答对的前十名麦粉将赢得20麦豆!这可是拼手速和知识储备的绝佳时刻,你准备好了吗?——>【AI每日一学知识巩固】在AI语境里,介绍一下Prompt


 


掌握了Prompt的设计精髓后,我们将进一步揭开AI理解语言的神秘面纱——Token与Embedding,它们是LLM处理文本的基石。你准备好了吗?让我们继续探索!


LLM中的Token和Embedding到底是啥?(今日学习)


在LLM(大语言模型)中,Token和Embedding是两个基础且关键的概念,解释如下:


Token


        Token可以理解为将文本分割成的一个个“小单元”。比如句子“我爱自然语言处理”,可能被分割成“我”“爱”“自然”“语言”“处理”等Token。模型处理文本时,需先将其转化为Token序列,这是因为计算机只能处理数字,而Token化就是将文本转换为模型能理解的数字序列的第一步。不同模型的Token分割方式可能不同,有的按单词分割,有的按子词分割,还有的按字符分割。


 


Embedding


        Embedding是将Token转化为向量的过程。每个Token经过Embed ding后,会变成一个稠密的数值向量(如长度为768的向量)。这些向量不是随机生成的,而是包含了Token的语义信息,比如意思相近的Token,它们的Embedding向量在空间中的距离会比较近。Embedding就像是给Token赋予了“数字身份”,让模型能通过向量运算来理解文本的语义和关系。


 


关键区别:



  • Token是“形式”,Embedding是“内涵”。

  • Token解决“怎么让AI认识文字”,把中文拆成数字ID,像给每个字/词发一个“身份证号”;Embedding解决“怎么让AI懂意思”,用数字向量记录语义特征,像给每个ID写上“性格特点”,让AI能根据“标签”判断谁和谁更像。


         Token就像把中文书撕成小纸片(每个纸片是一个字或词),Embedding就是在每个纸片上写备注(比如“这是水果类的词”)。AI拿着这些带备注的纸片,就能知道哪些纸片讲的是同类东西。简单来说,Token是对文本的分割,让模型能处理文本;Embedding是给Token赋予语义信息,让模型能理解文本的含义。两者共同构成了LLM处理自然语言的基础。


 


本次的学习就到这里结束了,理论需要实践验证,技术渴望真实触感!我们为您准备了:


AIChat体验环境!


在这里,你可以尽情体验Smartbi 白泽 AIChat产品的强大功能,感受智能交互带来的便捷与乐趣。


体验中心入口:


AIChat体验环境(点击即可开启奇妙之旅)


帮助中心入口:


AIChat帮助中心遇到问题随时查阅)


相关学习视频:



欢迎大家前来体验~


 

发表于 2025-9-2 14:11:31
学习了
回复

使用道具 举报

发表于 2025-9-2 19:16:04
学习了
回复

使用道具 举报

发表于 2025-9-3 09:08:56
学习了。
回复

使用道具 举报

发表于 2025-9-4 08:54:55
学习了

回复

使用道具 举报

发表于 2025-9-4 12:12:41
学习了
回复

使用道具 举报

发表于 2025-9-8 13:34:03
学习了。
回复

使用道具 举报

发表于 2025-9-26 09:32:47
学到了
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

11回帖数 0关注人数 30690浏览人数
最后回复于:2025-9-26 09:32

社区

指南

快速回复 返回顶部 返回列表