切换到宽版
  • 9阅读
  • 2回复

[数码讨论]架构胜过数据:人工智能科学家提出AI或许并不需要海量训练数据 [复制链接]

上一主题 下一主题
在线jjybzxw

UID: 551814

 

发帖
217542
金币
656626
道行
2006
原创
2444
奖券
3260
斑龄
41
道券
1203
获奖
0
座驾
设备
摄影级
在线时间: 47352(小时)
注册时间: 2008-10-01
最后登录: 2026-01-10
只看楼主 倒序阅读 使用道具 楼主  发表于: 昨天 10:32

文 | 钱钱

编辑 | 阿景

硅谷的科技大佬们最近跟商量好了似的,一个个往数据中心里砸钱,几千亿跟流水似的花出去。

大家都觉得只要算力够强、数据够多,AI就能越来越聪明。

可谁也没细算过账,2026年AI训练的耗电量可能比日本全国一年用的还多,这可不是闹着玩的。

就在这时候,约翰霍普金斯大学的研究团队扔出个"炸弹",不用训练的类脑AI系统,居然能直接模拟人脑活动。

这下不少人开始嘀咕,AI这路是不是走偏了?

从"堆数据"到"学大脑",约翰霍普金斯的实验戳破了AI圈的"肌肉崇拜"

约翰霍普金斯大学的认知科学助理教授米克·邦纳早就看不过去了。

他常说,人类学东西多省事儿,学个新单词看两眼就会,可现在的AI呢?没个几百万张图、几万亿参数根本学不会认猫。

为了弄明白问题出在哪,他们团队做了个实验。

他们挑了AI圈最火的三种架构,Transformer、全连接网络、卷积神经网络,又捣鼓出几十种变体。

最绝的是,这些模型根本没经过训练,直接拉去做图像识别测试。

结果让人大跌眼镜,Transformer和全连接网络不管加多少神经元,活动模式都跟人脑差着十万八千里,反倒是卷积神经网络,稍微调整一下,活动模式居然跟人脑反应越来越像。

更离谱的是,这个没训练过的卷积模型,识别图片的本事居然能跟传统AI学了几百万张图的效果打个平手。

这研究发在《自然机器智能》上,可不是随便瞎说的。

这结果就像告诉健身狂"你练的都是死肌肉",AI圈那些沉迷"堆参数"的大佬们,估计得失眠好几天。

大脑的"省钱秘籍",神经科学给AI上了堂"架构课"

为啥卷积网络这么给面子?还得从咱们自己的大脑说起。

人脑看东西的时候,可不是一下子全塞进脑子里。

初级皮层先抓点边缘、颜色这些简单特征,再往上一层一层汇总,最后才认出"这是只猫"。

这种层级化处理,效率高得离谱。

卷积网络刚好学了这手。

它搞"局部连接",每个神经元只看一小块图像,又搞"权重共享",重复用一套特征模板。

这么一来,空间信息编码得又快又准,跟大脑视觉系统简直是亲戚。

反观Transformer,搞"全局注意力",啥都想关注,结果跟人脑那种"该看哪就看哪"的选择性注意完全不是一回事。

全连接网络更惨,神经元跟神经元全连一起,乱成一锅粥,根本找不到生物学上的对应物。

研究团队还发现个有意思的事儿,1100多个神经网络的权重,最后都挤在一个16维的子空间里。

这说明啥?架构本身的"骨架"比往里面填多少"肉"(参数)更重要。

以前AI圈总觉得"数据越多算力越强就越智能",现在看来,这想法跟"只要吃得够多就能长高"一样天真。

AI圈以前总觉得"大力出奇迹",算力往上堆就完事儿了。

可现在问题来了,算力是上去了,电费也跟着飞。

ChatGPT查个问题,耗电量是普通搜索引擎的10倍,生成式AI的电力需求,一年能涨75%。

更坑的是,模型训好了之后用起来,耗电量居然是训练时的30倍。

这么烧下去,怕是以后AI公司得先建个发电站才敢开工。

类脑设计倒是给了条新思路。

不用海量数据,不用巨量算力,照样能干活。

数据少的领域,比如一些冷门科研、小众语言翻译,以前AI插不上手,现在说不定能派上用场。

新一代的深度学习框架,估计得往"生物学启发+简单学习方法"上靠。

毕竟进化生物学摆在那儿,大脑几亿年优化出来的架构,本身就是本现成的"设计圣经"。

AI想再往前迈一步,光靠砸钱堆算力肯定不行。

科技公司得学着平衡工程创新和生物启发,别老盯着参数表较劲。

说不定哪天,类脑AI真能带来一场技术革新,让智能不再跟"高能耗"划等号。

毕竟,当硅谷还在沉迷"算力军备竞赛"的时候,藏在生物学里的AI进化密码,可能正等着被人发现呢。

山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线jjybzxw

UID: 551814


发帖
217542
金币
656626
道行
2006
原创
2444
奖券
3260
斑龄
41
道券
1203
获奖
0
座驾
设备
摄影级
在线时间: 47352(小时)
注册时间: 2008-10-01
最后登录: 2026-01-10
只看该作者 沙发  发表于: 昨天 10:32
从“堆算力”到“学大脑”:类脑AI正在颠覆传统路径

参考文献:约翰霍普金斯大学《自然机器智能》研究 + 图像资料分析
一、现象级转折:当硅谷沉迷“算力军备竞赛”,科学界悄然转向
🌐 当前AI发展的主流范式:数据驱动 + 算力堆叠
科技巨头(如谷歌、Meta、微软)持续投资千亿级数据中心。
模型参数突破万亿,训练数据以EB为单位。
核心理念:“大力出奇迹”——更多数据、更强算力 → 更强智能。

但代价惊人:
预计到2026年,全球AI训练耗电量将超过日本全国年用电量(约1万亿千瓦时)。
ChatGPT单次查询能耗是传统搜索引擎的10倍。
推理阶段耗电甚至达到训练阶段的30倍。

这引发一个根本性质疑:
我们是否在用“蛮力”模仿智能,而忽略了真正的智能本质?
二、引爆点:约翰霍普金斯大学的“类脑AI实验”
🔬 实验核心发现(发表于《自然机器智能》)
研究团队由认知科学助理教授米克·邦纳(Mikail Burrner)领导,提出一个颠覆性问题:

“如果AI的目标是模拟人类智能,那它的工作方式应该和人脑相似吗?”
✅ 实验设计
| 模型类型 | 是否训练 | 测试任务 |
|--------|---------|--------|
| Transformer | 否 | 图像识别 |
| 全连接网络(Fully Connected) | 否 | 图像识别 |
| 卷积神经网络(CNN)及变体 | 否 | 图像识别 |

👉 所有模型未经任何训练,直接测试其神经活动模式与人脑fMRI数据的匹配度。
🧪 关键结果
1. 未训练的卷积神经网络(CNN),其内部激活模式与人脑视觉皮层反应高度相似;
2. CNN在图像识别准确率上,接近经过百万张图训练的传统AI模型;
3. Transformer 和 全连接网络无论增加多少参数,都无法拟合人脑活动模式;
4. 超过1100个不同架构的神经网络权重最终都落入一个16维子空间——说明架构决定上限,而非参数数量。

💡 结论:  
“架构先于训练”、“结构决定功能” —— 类似生物进化中的“身体蓝图”。
三、深层解读:为什么CNN能“天生像人脑”?
🧠 人脑视觉处理机制 vs AI架构对比

| 特征 | 人脑视觉系统 | CNN | Transformer | 全连接网络 |
|------|---------------|-----|------------|-------------|
| 层级化处理 | ✅ 初级→高级特征逐层抽象 | ✅ 模仿该结构 | ❌ 全局注意力跳跃 | ❌ 无层级逻辑 |
| 局部感受野 | ✅ 只关注局部视野 | ✅ 权重共享+滑动窗口 | ❌ 注意力覆盖全局 | ❌ 全连接混乱 |
| 生物可解释性 | 自然进化产物 | ⭕ 高度类比 | ❌ 无对应机制 | ❌ 无对应机制 |
| 能效比 | 极高(20瓦运行整个人脑) | 较高 | 极低 | 极低 |
🔍 CNN成功的关键:“生物学骨架”
局部连接:每个神经元只响应图像的一小部分 → 类似视网膜感光细胞;
权重共享:同一滤波器扫描整张图 → 类似大脑使用通用特征检测器(边缘、角点等);
层级抽象:从线条 → 纹理 → 部件 → 物体 → 类别,逐层整合信息。

✅ 这正是人脑“高效学习”的秘诀:不需要看几百万张猫,只需几次接触即可泛化。
四、视觉证据支持:从图片资料看“类脑AI”的意象表达

结合提供的10幅科技图像,我们可以从中提炼出两条并行的AI发展隐喻:
🖼️ A组:代表“传统AI路径”——算力崇拜、数据洪流、中心化控制

| 图片编号 | 内容描述 | 隐喻意义 |
|--------|--------|--------|
| 图片2 | 地球轮廓被数据线包围,“AI”字样孤立存在 | 数据全球化监控、技术霸权 |
| 图片3 | 数字瀑布、代码流充斥画面 | “数据即燃料”的暴力计算美学 |
| 图片7 | 服务器机房背景 + 中央AI标识 | 数据中心为中心的技术帝国 |
| 图片8 | 手机显示ChatGPT图标 | 大模型落地终端,依赖云端算力 |
| 图片10 | 两个机器人对坐饮茶,“ChatGPT” vs “API” | AI系统的制度化、程序化交流 |

⚠️ 这些图像共同构建了一个机械、冰冷、资源密集型的AI未来图景。
🖼️ B组:代表“类脑AI路径”——生物启发、内在结构、动态模拟

| 图片编号 | 内容描述 | 隐喻意义 |
|--------|--------|--------|
| 图片1 | 紫色透明立方体含“AI”,下方光晕波纹 | 意识涌现、信息扩散、非线性传播 |
| 图片5 | 手托举AI芯片,周围环绕神经状线条 | 人工系统与自然智能的融合尝试 |
| 图片6 | 人脑内嵌电路板,“AI”置于前方白框 | 直接对接人脑结构的设计哲学 |
| 图片9 | 男士站在屏幕前演讲,手势开放 | 科学家主导、以人为本的技术叙事 |
| 图片4 | 手机旁有彩色长条图标与芯片图案 | 多模态感知、微型化、低功耗可能 |

✅ 这些图像传递出一种有机、流动、节能、贴近生命本质的新AI愿景。
五、范式转移:AI未来的三大变革方向
🔄 1. 从“训练优先”转向“架构优先”
当前主流:拼命优化损失函数、调参、扩数据。
新趋势:重新设计网络结构,使其先天具备类人认知能力。
案例:Neuromorphic Computing(神经形态计算)、Spiking Neural Networks(脉冲神经网络)
🔋 2. 从“高能耗”转向“低功耗类脑芯片”
IBM TrueNorth、Intel Loihi 等类脑芯片已实现:
功耗仅为传统GPU的千分之一;
支持实时边缘推理(如无人机、可穿戴设备);
应用场景:医疗监测、野外科研、小语种翻译等数据稀缺领域。
🧬 3. 从“工程思维”转向“生物启发设计”
借鉴进化数亿年的神经系统结构:
稀疏编码(Sparse Coding)
自组织映射(SOM)
注意力机制(源于心理学而非Transformer)
下一代框架或将命名为:“Bio-DL”(Biologically-inspired Deep Learning)
六、结语:一场静默的革命正在发生

📌 过去十年的AI进步,靠的是工程师的算力;  
未来十年的突破,或将来自神经科学家的大脑。

硅谷仍在追逐“更大、更快、更强”的模型,但真正的突破口或许藏在以下问题中:
大脑为何能用20瓦功率完成如此复杂的认知?
我们能否复制这种“极简主义智能”?
AI的终极目标,是成为另一个“超级人类”,还是理解“人类如何成为自己”?

正如那幅手托AI芯片的图像所暗示的:

👉 不是我们创造了AI,而是我们终于开始学会向生命本身学习。
🎯 总结观点(多角度归纳)

| 角度 | 核心观点 |
|------|--------|
| 技术层面 | 卷积网络因结构类脑而天然高效,无需海量训练即可逼近性能上限 |
| 能源层面 | 当前AI发展模式不可持续,类脑AI提供低能耗替代路径 |
| 科学哲学 | 智能不应仅通过“拟合数据”获得,更应通过“模仿机制”生成 |
| 产业影响 | 科技公司需调整战略:从建数据中心转向联合神经科学研究 |
| 社会意义 | 让AI走出“巨模型垄断”,进入普惠、绿色、去中心化新时代 |
🌱 启示录时刻:当AI开始学习人脑,也许人类才真正开始理解自己。

如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
166839
金币
485660
道行
20030
原创
766
奖券
359
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 20512(小时)
注册时间: 2012-06-21
最后登录: 2026-01-09
只看该作者 板凳  发表于: 昨天 12:09
当前人工智能研究领域确实涌现出突破性观点,认为优化模型架构可能比依赖海量数据更重要,以下为关键进展及技术逻辑的深度分析:

一、架构创新如何突破数据依赖
预测式世界模型(如V-JEPA 2)

Meta开发的V-JEPA 2通过抽象状态预测替代传统像素生成,仅需观察视频即可理解物理规律。
其效率达传统模型的30倍以上(如对比英伟达Cosmos),在机器人抓取任务中成功率超70%,且无需针对性的海量训练数据,仅通过抽象推理即可泛化至新场景19。
元能力对齐框架(演绎-归纳-溯因)

模仿人类推理心理学,让模型通过自生成数据循环提升能力:
演绎:基于规则生成假设问题;
归纳:从解决结果总结规律;
溯因:反向验证逻辑一致性。
实验证明,该方法在数学、编程任务中显著提升模型泛化性,且无需人工标注数据11。
语言自我对弈(LSP)

Meta提出的LSP技术将单一模型拆分为“挑战者”与“解决者”角色:
挑战者生成高难度问题(如反常识逻辑题);
解决者尝试回答并反馈错误;
两者博弈推动模型自主进化,实现无外部数据输入的持续优化20。
二、架构优势的核心逻辑
从“记忆”转向“推理”

传统模型依赖数据统计规律,而新型架构(如JEPA)构建因果推理引擎,通过预测状态变化理解世界运行机制,类似人类婴儿的观察学习模式19。
数据效率的质变

自洽训练框架(如LSP)使模型可无限生成高质量合成数据,突破真实数据枯竭限制。例如,模型通过自我提问生成专业领域难题,驱动解决能力螺旋上升

安全与可控性提升
预测式架构避免生成模型“一本正经胡说八道”的风险(如AI幻觉),因其输出基于逻辑链而非概率拼接16。
三、应用前景与挑战
应用场景

机器人领域:无需百万次试错,通过世界模型预判物理交互结果;
教育医疗:自主生成个性化训练方案,降低数据收集成本;
企业决策:动态推演市场变量,替代传统数据拟合模型1819。
现存挑战

复杂架构对算力要求更高;
合成数据可能放大偏见(需设计更严谨的验证机制);
跨模态推理(如视觉+语言)仍需突破1720。
结语:架构主导的AI进化路径
模型架构正成为AI发展的新杠杆——通过模拟人类认知机制(预测、推理、自我博弈),减少对数据规模的依赖,并解决生成式AI的幻觉、能耗问题。未来,轻量化、高泛化、自主进化的架构将推动AI从“数据密集型”转向“智能密集型”,为通用人工智能(AGI)提供更可行的技术路径
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个