从2023年初算起,使用大模型已经两年多了,最近有很多祛魅,甚至完全不信任和否定这个方向的言论。
首先我们先列出这项技术的不足。
自动驾驶例子:
自动驾驶依赖对图像雷达识别,通过识别到的道路情况,进行和神经网络的样本,决策前后左右加减速,但很明显,有明显的缺陷,忽略了人类社会背景,比如有时候,情人节我着急去见女神会快速开,前面有学校,马上到放学时间,我就知道在这条路上需要减速了,雨季山路需要先关察山体情况再谨慎通行,这些都需要考虑到事件背景和环境背景,目前的自动驾驶是做不到的。
大模型幻觉例子:
首先要知道大模型的本质是预测,根据海量数据的样本,预测最大概率的答案,无论是写文档,还是码代码,你提的这个问题,都是在海量数据库中预测出最接近你这个问题的答案,仅仅只是概率,概率的高低,依靠模型样本数量和问题提示词的表述,你可以理解为,大模型是根据海量数据去猜答案,正儿八经的纸上谈兵,而不是真的走一遍流程给你经过实践的答案。
他们有个共同的短板,空谈误国,实际上我们需要的ai,肯定不是仅仅通过文字或者单一类型样本训练出来的,无论当下的文字、语音、图像、视频的模型,都过于片面,是,通过海量数据训练,能做到一个不错的单应用工具,比如模仿说话,写文档,做视频,但始终缺少了灵魂,和理想中的ai相差甚远。
ai需要理解物理世界中的意义,而不仅只是空谈,它或许需要一个可以直接连接物理空间的奖惩反馈机制,来让它真实的体会到物理世界。
同样的感受,才会有和你同样的思想理解,才会更好的成为你想象中的ai,曾经有本书说,不一样的身高、体重、性别、血型,虽然在同一空间,但感受的却是不同的世界,ai理解不了你,和当下发展的局限,就在于此,无论chatgpt、Gemini、grok,他们只是大语言模型啊,它们只是纯文字样本训练出来的,它们和碳基生物不一样,碳基生物是通过感触,耳鼻眼口触等这些训练出来的。
但无论怎么说,大模型技术方向毋庸置疑,证明了一件事,智慧是可以量化的可以被逆向工程,智慧就是基于历史样本的预测,但当下,大语言模型的发展已经到极限了,需要一种更宽泛的大模型,是有奖惩机制的,是要和物理空间进行直接接触的,能感触到不仅是视觉听觉触觉嗅觉味觉等等,大模型技术需要一个综合性的样本来突破当下短板,文字训练应该改为直接和物理接触的,事件训练、空间训练、时间训练、与人类相处训练等,它的记忆样本是要和人类记忆样本相似的。
当下更需要探索如何量化事件、空间、时间、情感、伦理、创造力等更复杂的智慧维度。真正的智能必须能感受到世界的冷暖疼痛。
当下是大模型之后第一个ai低谷,也不算低谷吧,算是一个泡沫膨胀期,需要后浪的接力了,哈哈哈。
太喜欢chatGPT写的这段: "斗争与跃迁,螺旋式上升,波浪式前进。每次阻力,都是适配与进化的机会。每次战争,都是加速器与试验场。每次技术崩溃,都是下一次迭代的起点。"
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...