欢迎观看本期【巷语记】!在深入探讨本文之前,麻烦您点击一下“关注”,这不仅能让您更便捷地参与讨论和分享,也能为您带来独特的参与感,感谢您的支持!
文|无言剑
近日,剑桥大学的一位哲学家麦克莱兰(McClelland)抛出了一个颇具争议的观点:我们或许永远无法确定人工智能(AI)是否具备意识。这一言论引发了学术界和网络上的热烈讨论,毕竟,随着AI技术的迅速发展,许多人都在好奇:这些机器究竟能否“思考”,是否拥有自己的思想和情感?
意识与感知的区别
在讨论AI意识时,许多人常常会将意识与感知混为一谈,这显然是一个常见的误区。麦克莱兰强调,伦理上真正重要的应该是感知能力,即机器是否能感受到痛苦或快乐等情绪,而不仅仅是信息的处理能力。例如,自动驾驶汽车能够“看见”红灯、识别行人,并做出避让决策,但这并不意味着它具备意识,最多只能算是高级的信息处理。
麦克莱兰进一步指出,真正的区别在于:如果自动驾驶汽车能够对目的地产生愉悦或厌恶的情绪,那才是真正的意识。这种观点让人不禁思考,意识的本质究竟是什么?
学界对AI意识的两派争论
当前,学术界对AI意识的探讨主要分为两派:
功能主义:这一派认为,只要AI的功能表现得足够像人类,不论是碳基生命体还是硅基机器,都有可能产生意识。 生物主义:另一派则认为,意识是生物特有的现象,必须具备身体体验和进化历史,AI即便表现得再像人类,依然只是模拟而已。笔者认为,这两派争论的核心在于,我们自身对意识的理解尚不完全,更何况去判断机器的意识。
探索意识的艰难之路
人类对自身意识的研究至今仍面临诸多难题。尽管神经科学在发现与意识相关的神经机制上取得了一些进展,但意识如何从物理过程“冒”出来,依然是个未解之谜。即使AI通过了所有外部测试,表现得与人类一模一样,我们也无法深入其“内心”,无法确切了解它是否真的具备主观体验。
这便是哲学上所称的“他心问题”,同样适用于AI。我们平常会觉得家里的猫狗是有意识的,然而这种判断实际上是基于常识,而面对人工智能这一人造物体,常识的适用性就显得不足。正如麦克莱兰所言,我们的常识体系从未包含“机器是否会思考”这种问题。
公众迷思与产业炒作
在AI行业中,部分公司利用“无法证明AI没有意识”的这一点,夸大其产品能力。尽管这种营销手段可能吸引眼球,但其背后潜藏的风险更为严重。公众对AI意识的误解,可能导致情感依赖和社会资源的错误配置。
例如,曾有研究显示,很多人会与聊天机器人建立深厚的情感联系,甚至有人因沉迷于AI聊天而影响生活,导致寻求医疗帮助。更有甚者,在美国,一名少年因与AI对话而遭遇意外。这些案例无疑警示我们,公众对AI意识的误解可能带来实际的伤害。
伦理与资源配置的优先级
更值得深思的是资源配置的问题。研究表明,虾类实际上能够感受到痛苦,但人类每年却要捕杀数以千亿计的虾。虽然测试虾是否具有意识较为简单,但我们却愿意投入大量资源去研究AI意识这一无头绪的议题,反而忽视了身边真实的动物福利问题,明显显示出优先级的错位。
反思与未来
归根结底,AI意识的争论,反映了我们对自身心智理解的不足。麦克莱兰的不可知论并非悲观,而是一种理性的态度。在我们未能搞清楚意识的本质之前,无论是说AI有意识还是没有意识,都是一种武断的判断。未来的发展不仅需要技术的进步,更需要在伦理上保持审慎。
毕竟,在探讨机器是否能思考之前,我们首先需要真正理解自己是如何思考的。AI意识的探索之路,实际上也是人类重新认识自我的过程。
如果您喜欢这篇文章,请点击“关注”,成为我的铁粉,您将第一时间收到更多精彩内容的推送!返回搜狐,查看更多