GoForum🌐 V2EX

预测下一个词的大语言模型为什么会涌现出智能

snowhere · 2026-03-16 16:37 · 0 次点赞 · 12 条回复

几年前和 ChatGPT 对话聊天时感慨它什么都知道。现在深入使用 cursor 完成工作感慨它什么都会,更不要说各式各样的 Agent 。 我对 LLM 理解不是很多,只是疑惑大语言模型本质不是预测下一个词吗,为什么感觉现在 AI 涌现出了智能。

12 条回复
wysnxzm · 2026-03-16 16:37
#1

一堆神经元组成的大脑为什么会有意识

kera0a · 2026-03-16 16:37
#2

大力出奇迹!

另外我有个另外的问题 V 友普遍都认为 AI 的能力还会和过去几年一样维持爆炸性增长。 但我怎么觉得现在快到瓶颈了,毕竟怼规模已经快到上限了,是什么会维持这种增长性呢?

Rickkkkkkk · 2026-03-16 16:42
#3

一个现象可以窥探这里面是究竟如何工作的

llm 是会把词都映射到高维的向量去,比如男人、女人分别是 x1,x2 ,国王、王后分别是 y1,y2

那么会发现 x1-y1 和 x2-y2 的值是高度相似

我理解在最初的数据集训练(也就是把词映射到高维向量的过程)中,整个模型实际上是有学习到真正知识的

PalenessIb · 2026-03-16 16:47
#4

本质上不是一种“赛博算命”吗,用户给出问题(提示词),然后 AI 来推测、计算出最佳答案,过程中需要平衡到用户和客观现实等多个层面。

kaixinyidian · 2026-03-16 16:47
#5

人为什么会有智能?

skydcnmana · 2026-03-16 17:02
#6

最近有一个实验,把果蝇的神经元结构复制到虚拟世界里,不需要预编程和训练,它自己就能在虚拟世界里驱动身体进行果蝇的行为,就像《万神殿》里的意识上传一样。

skydcnmana · 2026-03-16 17:02
#7

类似蚂蚁和蜜蜂,简单的个体,组织起来就拥有了群体智能,神经元也是一样,规模化能带来质变。

shadowyue · 2026-03-16 17:07
#8

有没有别的技术路线,现在这个模式总感觉不是正解

penisulaS · 2026-03-16 17:12
#9

科学家也想知道

HFX3389 · 2026-03-16 17:17
#10

大概是因为原本人类的词元就是有逻辑的,不然人不可能看懂以及相互交流,现在就算是 gpt-5.4 也有语料污染的问题,就是证据之一,人类为了绕过审核发明的各种词被 LLM 认为这些词之间有逻辑,所以纳入了数据之一。

183387594 · 2026-03-16 17:17
#11

现在停下来 用大脑思考一个问题,是否也是按顺序的一个字一个字的来的

ttsh · 2026-03-16 17:22
#12

同意 2 楼,力大飞砖

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: snowhere
发布: 2026-03-16
点赞: 0
回复: 0