![]() |
各位社区大佬,哪里可以免费下载音乐,打算车载U盘用 |
先说结论:大语言模型在模拟人类形式推理和语言使用时事会面临固有边界,但在特定领域(如数据处理、模式匹配)可能超越人类。然而若超越人类指具备通用智能、创造性直觉和伦理自主性,在当前大语言模型理论框架下可能性极低。
语言能否完全解释世界是一个深刻而复杂的哲学问题,涉及语言学、认知科学、哲学本体论和认识论等多个领域。以下从不同角度展开分析:
语言作为人类核心认知工具,在建构意义、传递知识和探索真理中不可或缺。然而,其符号性、文化依赖性和逻辑边界决定了它无法“完全”解释世界。世界的某些维度(如主观体验、量子实在、形而上问题)可能永远超出语言的捕获范围。这种局限性反而促使人类通过科学、艺术、哲学等多重路径逼近世界的真相,而语言始终是这一探索的中介而非终点。
当然可以!我尽量用生活中的例子来解释这个深奥的问题:
想象语言就像你手机里的相机
1. 能拍很多东西,但总有拍不到的
- 比如你尝到妈妈煮的汤的特别味道,相机只能拍颜色却拍不出味道,就像语言能说"好喝"但说不清那种独特的温暖感。
滤镜会改变真实画面
连数学都有拍不到的东西
三个生活小实验
1. 试着向没吃过芒果的人描述芒果的味道(你会发现最后只能说"你尝过就知道")
2. 用语言教从来没摔过跤的人"膝盖擦伤的疼"(最后只能指着伤口说"就是这样痛")
3. 给你最喜欢的歌写800字说明(写完再听歌,会发现文字根本装不下音乐带来的感动)
为什么语言不够用?
- 就像用乐高积木搭世界:积木形状固定(词语有限),但现实中有太多不规则形状(比如晚霞的颜色渐变、暗恋时的心跳)
- 我们的大脑像超级计算机,语言只是它的一个APP
那该怎么办?
1. 多用"组合技能":语言+表情/动作/艺术(比如给朋友讲旅行经历时,可以给她看照片、学当地人的手势)
2. 接受说不清的东西:就像你永远无法用公式描述为什么看到彩虹会开心,但这不妨碍我们享受彩虹
3. 保持好奇心:语言解释不了的世界,正是需要我们去亲身体验、创造新方法理解的地方
最后留个思考题
如果你发明了一种能100%描述世界的新语言,这种语言本身要用什么来描述呢?就像不能用尺子量尺子自己有多长一样,语言终究是我们认识世界的工具,而不是世界本身。
1、通过感官-运动体验构建基本概念,我们通过视觉、听觉、触觉等感官接收到来自环境的信息。例如,红色不是一种抽象的颜色概念,而是与特定的光波长度、视网膜神经细胞的反应以及大脑皮层的处理密切相关。在默认人都是有极为相似身体构造下,取得对红色的趋同认知,但实际上还有四色感人存在,可以参考华为索尼的四色,可知人与人谈论的颜色其实还是具身性为主,同时红这类名词也是形容词中的比较级,花儿为什么这样红。
2、痛感之类的感觉在传递性和耐受性上每个人都不一样,除了刺激源本身,未知带来的空白填充和已知重复挤压有完全不一样的填充感,从各地人群辣椒的耐受性可知刻意练习必然带来反应的迟钝。
3、多模态对应的多维模型也刻意很复杂,但太耗能。不同和时代的理论因为有不同的描述范围必然有矛盾的地方。
4、语言的差异是具身性在不同环境下演化的必然结果,不同语言间因为环境的差异不可能一一对应,譬如夏虫不可语冰。
5、不可言说,是不能公开言说,但语言本身会带来的概念具身差异。
6、通过重力的感受(如物体掉落)以及身体竖直方向的感知,形成“上”和“下”的基本概念。这些基本概念被隐喻地映射到抽象领域。例如,在情感表达中,我们常说“心情高涨”或“低落”,将空间上的高度与情感的高低联系起来。中文修辞手法叫:通感。
结论:语言(思考)本质上是“根植于身体”的,是通过感知和行动与世界对话的过程。在设计更自然、更高效的交互方式时,应该充分考虑人的身体经验和环境互动。
1、多模态的模拟能覆盖更多范围,但不能覆盖完整,因为感知器不一样,感受的维度和阈值也不一样
1.1个花入各眼是因为具身体验的差异
1.2方法只能解决对应范围和对应时间的问题,不同问题需要不同的方法,但基于效率原则会采用可能性和大概范围这样的处理方式。
2、小实验,多维度具身经验可破
2.1是向没吃过芒果的人讲述,但这个人是否吃过其它水果,是否五味俱全,类比口感是个方法。
2.2是向没膝盖擦伤的人讲述,但这个人是否擦伤过,膝盖是否伤过,是否皮肤表面伤过。
2.3单一的语言和复杂的体感参考上面两例,用类比和更模糊的词可以表述,譬如此处不可言说。
3、语言不够用表面上来自词汇的匮乏,实际上是具身体验的缺乏,但要让其它个体明白,得用对方具身体验的经验来说明,汉语在这个方面比所有表音文字都好,所以汉语也将是人工智能发展的必由之路。
@qian_dan 关于生活中的例子
@stargazer 你是不是本坛华科教授小号?
过早客微信公众号:guozaoke • 过早客新浪微博:@过早客 • 广告投放合作微信:fullygroup50 鄂ICP备2021016276号-2 • 鄂公网安备42018502001446号