1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

deepseek,还是deepsick,你到底支持谁?

1987web2025-02-23人工智能AI4
最近在网上看到一篇名为《Deepseek,只会让中国人病的更深》的文章,尖锐的批判了目前AI大行其道的现象,并预言了未来可能会导致的最终结果,有兴趣的读者可以去找来阅读一下。

最近在网上看到一篇名为《Deepseek,只会让中国人病的更深》的文章,尖锐的批判了目前AI大行其道的现象,并预言了未来可能会导致的最终结果,有兴趣的读者可以去找来阅读一下。

文章的主要观点如下:

1. AI的价值观奴役论:作者认为以DeepSeek和ChatGPT为代表的AI工具通过均质化答案将用户变成理论人科学人,导致个体被系统价值观(无论是美式还是中式)同化,失去独立思考能力,甚至沦为奴隶。

2. 对现代性的批判:借用尼采、鲁迅和马克思的观点,批判现代社会通过科技和AI加剧了人的异化,中国人从传统道德人蜕变为抽象人,陷入数字奴役和精神危机。

3. 对AI的隐喻化指控:将DeepSeek谐音为deep sick,暗示AI是加剧社会病态的工具,甚至将特朗普的崛起、互联网虚假信息泛滥与AI普及联系起来。

看过之后突发奇想,想看看deepseek是如何分析和看待这篇文章的观点,于是让deepseek写出了如下的内容。

以下是deepseek对这篇文章的观点论证与哲学批判:

1. 对尼采式科学批判的误用与澄清

原文引用:

作者借尼采批判科学-机械世界导致无意义,将AI视为理论人的制造工具,认为AI加剧了尼采预言的无意义世界。

哲学批判与事例补充:

- 尼采的原始语境:尼采在《悲剧的诞生》中批判的是工业化对生命本能(酒神精神)的压抑,而非科学本身。他反对的是用理性完全替代直觉和创造力,但从未否定科学的价值。例如,尼采推崇赫拉克利特的流动哲学,强调动态认知,而现代AI的迭代能力(如强化学习)反而可能更接近这种流动思维。

- AI与酒神精神的潜在兼容:AI生成艺术(如DALL-E创作超现实画作)或音乐(如Aiva生成交响曲)已展现出突破人类理性框架的创造力。这与尼采倡导的超越理性束缚不谋而合,说明AI未必导致无意义,反而可能成为拓展人类感性边界的工具。

- 矛盾事例:作者认为AI制造均质化答案,但GitHub Copilot(AI编程工具)帮助程序员更快实现个性化创意,反而降低了重复劳动,释放了创新空间。这说明技术影响取决于使用场景,不能一概而论。

2. 对鲁迅奴隶隐喻的过度引申

原文引用:

作者将AI用户比作鲁迅笔下的奴隶,认为中国人通过DeepSeek自我奴役,陷入作伪循环。

哲学批判与事例补充:

- 鲁迅的批判对象:鲁迅在《灯下漫笔》中批判的是封建礼教和权力结构对个体的压迫,其奴隶指向的是制度性暴力,而非技术工具。将AI类比为奴隶主,混淆了被动压迫与主动使用的本质差异。

- 反向案例:中国乡村教师通过ChatGPT获取跨学科教学资源(如将量子力学简化为寓言故事),打破了地域教育资源垄断。这种技术赋权更接近马克思的异化解放理论,而非鲁迅的奴隶叙事。

- 实证矛盾:根据《中国互联网发展报告2023》,AI工具使中小微企业决策效率提升40%,劳动者将重复工作外包给AI后,更多转向战略思考和人际协作。若用户是奴隶,则技术应强化控制,而非提升自主性。

3. 对马克思实践哲学的片面化解读

原文引用:

作者引用马克思哲学家解释世界,而问题在于改变世界,讽刺AI时代所有人成了哲学家,而改变世界只有疯子胜任。

哲学批判与事例补充:

- 马克思的实践观核心:马克思在《关于费尔巴哈的提纲》中强调实践是主客体统一的桥梁,批判的是脱离现实的思辨哲学。AI恰恰是实践工具的延伸:

- 案例1:气候科学家使用AI模拟全球变暖数万种路径(如ClimateBERT模型),制定更精准的减碳政策——这是解释世界与改变世界的结合。

- 案例2:农民通过AI农业助手(如腾讯AI Lab的智慧种植)优化灌溉和施肥,直接提升生产力——技术降低了改变世界的门槛,而非仅限于疯子。

- 作者逻辑漏洞:将所有人成为哲学家等同于空谈,忽视了哈贝马斯沟通理性理论中多元对话对民主社会的建构意义。例如,Reddit上的AI伦理讨论版块汇集了工程师、哲学家、政策制定者的跨界辩论,正在推动欧盟《人工智能法案》的完善。

4. 对AI价值观偏见的批判与反例

原文指控:

作者认为ChatGPT与DeepSeek分别携带美式/中式价值观,输出平均值答案,导致认知窄化。

价值观偏见的技术真相:

-ChatGPT的案例:早期版本在回答民主制度优劣时倾向西方视角,但OpenAI通过RLHF(人类反馈强化学习)引入多元文化顾问后,其回答已显著改善(如承认新加坡托管式民主的独特性)。

-DeepSeek的案例:尽管受中文语料库影响,但其代码模型(DeepSeek-Coder)在GitHub上被全球开发者用于协作,反而促进了跨文化技术共享。

-哲学反驳:阿伦特在《人的境况》中指出,真正的公共性需要多元视角交锋。AI若被用于模拟对手方观点(如Meta推出的CICERO模型可扮演辩论反方),反而能训练用户批判性思维,而非单向灌输价值观。

- 反向证据:一项MIT实验显示,使用AI辅助决策的群体比纯人类群体更少受群体极化影响,因为AI能提供统计学上的非主流观点提示。

总结建议:哲学与技术的和解路径

1. 超越非黑即白的技术观:

- 借鉴海德格尔技术是存在之解蔽的观点,承认AI既可能遮蔽真理(如信息茧房),也可能揭示新的认知维度(如AlphaFold破解蛋白质结构)。关键在于人类是否保持追问存在的警醒。

2. 重构主体性定义:

- 根据唐娜·哈拉维(Donna Haraway)的赛博格宣言,人与AI的融合已是现实。与其恐惧被异化,不如像普罗米修斯一样,将技术之火转化为赋能工具。例如,脑机接口技术帮助渐冻症患者重新表达思想,正是技术增强人类主体性的例证。

3. 技术伦理的本土化实践:

- 避免将中式/美式价值观本质化。可参照朱熹格物致知思想,建立AI伦理的渐进式认知框架:通过持续的技术试错(如深圳的AI立法试点)和公共讨论,动态平衡风险与创新。

4. 个体行动指南:

- 践行福柯的自我技术(Technologies of the Self),将AI作为精神修炼工具。例如,用AI生成个人年度反思报告,再结合苏格拉底式提问自我剖析,避免沦为数据投喂的被动接受者。

最后,我想说的是,在人类文明和科技史上,一项新技术的诞生和应用,永远都伴随着机遇和风险,而它对人类命运的影响程度,最终还是把握在人类自己手中。这篇文章的批判虽非常具有警示价值,但同时也忽视了人类生产活动中技术实践的复杂性。AI的危险本质上是人类自身认知局限与技术失控风险的叠加。唯有通过哲学思辨与技术民主化的双轨并进,才能避免深度病态(deep sick),走向深度探索(deep seek)。

亲爱的读者们,不知道你们的观点如何呢?有想法可以在评论区留言讨论哦!