四月上旬新内容速递丨技术深潜、图表进阶与AI热词

春意正浓,学习升温!四月上旬更新聚焦技术拓展、图表新解、AI热点与实战任务,助你在数据探索之路上步步为营,智取未来!

一、场景应用精选

【热力图】数据的“温度计”与分布探测器》→热力图在业务分布与浓度识别中的实战应用。
【数析课堂】排序法:业务人员的“数据理线器”》→排序法助力业务数据梳理,提升分析效率。
【关系图】解锁数据背后的“隐形网络”与关联密码》→关系图在复杂关联分析中的深度应用。
【数析课堂】让数据开口说话:职场人的“图形法”生存指南》→图形法职场实战指南,轻松驾驭数据表达。

二、技术经验分享

降维打击!Smartbi仪表盘隐藏ECharts玩法大揭秘》→解锁仪表盘高阶玩法,用ECharts实现可视化降维创新。
“数”转乾坤:数据转换规则变形记》→深入数据转换规则,掌握数据变形与流转的核心技巧。

三、AI知识更新

【AI每日一学】简要介绍一下最近AI圈很火的“养龙虾”话题》→每日一学,快速理解AI圈热门话题“养龙虾”。
【AI每日一学】讲一下最近AI圈很火的“养龙虾”话题中一直被提及的skill》→深度解析“养龙虾”中的关键技能概念,紧跟AI前沿。

四、全新素材上线

指标元素动态图(二)》→新增指标动态图素材,丰富仪表盘视觉表现力。

五、官方通知更新

2026年「月更日志」社区更新合集 3.1 - 3.31》→回顾三月社区更新动态,掌握平台最新进展。
春日如约而至:2026年第一季度任务通关排行榜请查收!》→揭晓Q1任务通关榜单,激励持续学习与挑战。

六、任务持续上线

【AI知识巩固】简要介绍一下最近AI圈很火的“养龙虾”话题》→追踪AI圈最新热词,轻松入门“养龙虾”现象。
【图表应用】热力图:数据的“温度计”与分布探测器》→学习热力图制作,让数据热度一目了然。
【BI知识闯关】降维打击!Smartbi仪表盘隐藏ECharts玩法大揭秘》→实战闯关,巩固仪表盘隐藏技能。
【数析课堂】排序法知识巩固》→掌握排序分析法,梳理数据层级关系。
【图表应用】关系图:挖掘数据背后的“隐形关系网”》→学习关系图绘制,发现数据间的隐秘关联。
【BI知识闯关】重生之如何找SQL看数据不对问题(上)》→SQL排错实战,提升数据校验能力。
【BI知识闯关】“数”转乾坤:数据转换规则变形记》→闯关巩固数据转换规则应用。
【AI知识巩固】讲一下最近AI圈很火的“养龙虾”话题中一直被提及的skill》→深入“养龙虾”背后的技能概念,拓展AI认知。
【数析课堂】图形法知识巩固》→强化图形化分析方法,让数据表达更直观。

麦粉社区
>
帖子详情

[AIChat] 【AI每日一学】LLM 中的 Token 和 Embedding 到底是啥?

动态中心 发表于 2025-9-1 11:20
发表于 2025-9-1 11:20:32

麦粉集合!AI实战落地系列第二十三弹扬帆起航!


        在上一弹中,我们深入探讨了AI对话中的关键工具—prompt(提示词),掌握了如何通过精准的指令引导AI生成高质量内容,真正实现“人机协同”。Prompt不仅是沟通的桥梁,更是释放AI潜能的钥匙。学会了它,你就掌握了与AI高效对话的“魔法”!


        而今天,我们将回归技术底层,解析LLM(大语言模型)中两个最基础却又至关重要的概念——Token与Embedding。它们就像是AI理解语言的“字母”和“词典”,搞懂它们,你才能真正明白AI是如何“读懂”人类语言的!


AI知识问答(知识巩固)


        在深入新领域之前,先来一场有趣的“知识热身赛”吧!温故而知新,这可是进步的秘诀哦~ 快来检验一下你对Prompt的理解程度吧!规则依旧,最快答对的前十名麦粉将赢得20麦豆!这可是拼手速和知识储备的绝佳时刻,你准备好了吗?——>【AI每日一学知识巩固】在AI语境里,介绍一下Prompt


 


掌握了Prompt的设计精髓后,我们将进一步揭开AI理解语言的神秘面纱——Token与Embedding,它们是LLM处理文本的基石。你准备好了吗?让我们继续探索!


LLM中的Token和Embedding到底是啥?(今日学习)


在LLM(大语言模型)中,Token和Embedding是两个基础且关键的概念,解释如下:


Token


        Token可以理解为将文本分割成的一个个“小单元”。比如句子“我爱自然语言处理”,可能被分割成“我”“爱”“自然”“语言”“处理”等Token。模型处理文本时,需先将其转化为Token序列,这是因为计算机只能处理数字,而Token化就是将文本转换为模型能理解的数字序列的第一步。不同模型的Token分割方式可能不同,有的按单词分割,有的按子词分割,还有的按字符分割。


 


Embedding


        Embedding是将Token转化为向量的过程。每个Token经过Embed ding后,会变成一个稠密的数值向量(如长度为768的向量)。这些向量不是随机生成的,而是包含了Token的语义信息,比如意思相近的Token,它们的Embedding向量在空间中的距离会比较近。Embedding就像是给Token赋予了“数字身份”,让模型能通过向量运算来理解文本的语义和关系。


 


关键区别:



  • Token是“形式”,Embedding是“内涵”。

  • Token解决“怎么让AI认识文字”,把中文拆成数字ID,像给每个字/词发一个“身份证号”;Embedding解决“怎么让AI懂意思”,用数字向量记录语义特征,像给每个ID写上“性格特点”,让AI能根据“标签”判断谁和谁更像。


         Token就像把中文书撕成小纸片(每个纸片是一个字或词),Embedding就是在每个纸片上写备注(比如“这是水果类的词”)。AI拿着这些带备注的纸片,就能知道哪些纸片讲的是同类东西。简单来说,Token是对文本的分割,让模型能处理文本;Embedding是给Token赋予语义信息,让模型能理解文本的含义。两者共同构成了LLM处理自然语言的基础。


 


本次的学习就到这里结束了,理论需要实践验证,技术渴望真实触感!我们为您准备了:


AIChat体验环境!


在这里,你可以尽情体验Smartbi 白泽 AIChat产品的强大功能,感受智能交互带来的便捷与乐趣。


体验中心入口:


AIChat体验环境(点击即可开启奇妙之旅)


帮助中心入口:


AIChat帮助中心遇到问题随时查阅)


相关学习视频:



欢迎大家前来体验~


 

发表于 2025-9-2 14:11:31
学习了
回复

使用道具 举报

发表于 2025-9-2 19:16:04
学习了
回复

使用道具 举报

发表于 2025-9-3 09:08:56
学习了。
回复

使用道具 举报

发表于 2025-9-4 08:54:55
学习了

回复

使用道具 举报

发表于 2025-9-4 12:12:41
学习了
回复

使用道具 举报

发表于 2025-9-8 13:34:03
学习了。
回复

使用道具 举报

发表于 2025-9-26 09:32:47
学到了
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

11回帖数 0关注人数 87971浏览人数
最后回复于:2025-9-26 09:32

社区

指南

AI

搜索

快速回复 返回顶部 返回列表