算法即阶级:大数据时代的隐形统治与社会鸿沟
-
算法即阶级:大数据时代的隐形统治与社会鸿沟
目录- 一、注意力掠夺:社交媒体算法如何重塑大脑,并制造新的阶级鸿沟
- 📖 核心文献矩阵
- 🧠 第一层:算法如何从神经生理层面"劫持"你的大脑
- 📱 第二层:说服式设计——算法背后的操控工程学
- 👶 第三层:代际危机——"手机童年"对青少年的毁灭性冲击
- 🔀 第四层:阶级分化——算法对大脑的影响如何因阶级而异
- 🎯 小结:社交媒体算法的阶级效应全景图
- 二、搜索即偏见:算法如何重塑认知与话语权
- 📖 《压迫算法》(Algorithms of Oppression)
- 三、阶级固化:算法如何剥夺机会
- 📖 《算法霸权》(Weapons of Math Destruction)
- 四、数字化生存:针对底层阶级的治理工具
- 📖 《自动化不平等》(Automating Inequality)
- 五、劳动力重组:被算法统治的新阶级
- 📖 《销声匿迹》(Ghost Work)
- 六、权力重构:技术精英与数据原材料
- 📖 《监控资本主义时代》(The Age of Surveillance Capitalism)
- 七、平台经济:算法管控下的新型劳工剥削
- 📖 推荐阅读:人权观察2025年报告《零工陷阱》(The Gig Trap)
- 八、中国视角:算法治理的东方实践
- 核心观察总结
- 延伸阅读:进一步探索的学术资源
- 小结
在算法驱动的社会中,技术不再是中立的工具,而是一把精准的手术刀。它在重构权力的边界,也在无形中加固了阶级之间的壁垒。从信用评分到福利审批,从简历筛选到外卖派单,算法已经渗透至现代社会的每一条毛细血管。它不仅"执行"决策,更在"制造"决策——而这些决策往往带有深刻的阶级烙印。
🔑 核心命题:算法不是消除不平等的工具,而是将既有不平等"编码化"和"规模化"的新型基础设施。当偏见被写入代码、不公被包装成"客观的数据驱动决策",反抗便变得前所未有地困难。
以下为你推荐的探讨该主题的经典著作,揭示算法如何影响我们每个人的阶级命运。
一、注意力掠夺:社交媒体算法如何重塑大脑,并制造新的阶级鸿沟
前述四个维度——准入门槛、福利分配、劳动控制、数据权力——揭示的都是算法对"外部生存条件"的重塑。但算法对人类最深层的侵入,发生在一个更为隐蔽的战场:你的大脑。社交媒体平台的推荐算法不仅在决定你"看到什么",更在从神经生理层面改变你"如何思考"、"如何感受"、甚至"如何成为一个人"。而这种改变的深度和破坏性,在不同阶层之间呈现出触目惊心的差异。
📖 核心文献矩阵
这一议题的研究跨越神经科学、社会心理学、公共卫生和政治经济学多个领域,以下是最具代表性的知识节点:
文献/来源 作者/机构 核心贡献 《多巴胺国度》(Dopamine Nation,2021) 安娜·伦布克(Anna Lembke),斯坦福大学精神病学与成瘾医学教授 从神经科学角度论证社交媒体如何劫持大脑奖赏系统 《焦虑的一代》(The Anxious Generation,2024) 乔纳森·海特(Jonathan Haidt),纽约大学斯特恩商学院社会心理学家 系统论证"手机童年"如何引发青少年心理健康危机 "人道技术中心" (Center for Humane Technology) 特里斯坦·哈里斯(Tristan Harris),前Google设计伦理学家 从行业内部揭露"注意力经济"的说服式设计机制 Cureus 2025年系统综述 多国神经科学研究团队 提供社交媒体对大脑认知功能影响的最新实证数据 🧠 第一层:算法如何从神经生理层面"劫持"你的大脑
要理解社交媒体算法的阶级效应,必须首先理解它对所有人类大脑的基本作用机制。
📌 多巴胺陷阱:你的大脑正在被"老虎机化"
安娜·伦布克在《多巴胺国度》中提出了一个极具冲击力的类比:"智能手机是21世纪的皮下注射器(hypodermic needle),为有线一代输送数字多巴胺。" 这并非文学修辞——她基于临床证据指出,社交媒体激活大脑奖赏回路的方式,与海洛因、冰毒和酒精在神经化学层面高度同构。
关键的神经科学机制如下:
- 🔬 间歇性可变奖赏(Variable Ratio Reinforcement):社交媒体的核心成瘾机制与赌场老虎机完全相同。每一次下拉刷新,你都不知道会看到什么——可能是朋友的点赞、一条令人愤怒的新闻、或者一段令人捧腹的视频。正是这种"不确定性"本身触发了多巴胺的最强烈释放。神经科学研究已经证实:多巴胺的真正触发点不是"获得奖赏",而是"预期奖赏"。算法精确地利用了这一机制,通过个性化内容排序制造一种永不餍足的"期待感"。
- 🔬 多巴胺亏空状态(Dopamine Deficit State):伦布克的核心发现是,大脑的"快乐-痛苦天平"(Pleasure-Pain Balance)遵循一个残酷的神经适应规律——当多巴胺被反复大量释放后,大脑会补偿性地降低多巴胺的基线水平,不仅回到原点以下,而且越来越低。 这意味着重度社交媒体用户会逐渐丧失从日常活动(阅读、散步、面对面交谈)中获取快感的能力,只能依赖更高强度的数字刺激来维持"正常"的情绪水平——这与药物成瘾的耐受性机制如出一辙。
- 🔬 伦布克提出的临床处方——"多巴胺断食"(Dopamine Fast):至少持续一整个月远离成瘾的数字"药物"(无论是Instagram、TikTok还是Twitter/X),才能让大脑的多巴胺奖赏通路恢复到健康基线水平。她在临床中观察到,完成断食的患者报告焦虑和抑郁症状显著减轻,并重新获得了从"低刺激"活动中体验愉悦的能力。
📌 2025年最新神经科学实证
2025年发表在 Cureus 上的系统综述《现代嗨药:社交媒体使用的神经认知影响》汇集了大量新证据,揭示了社交媒体对大脑结构和功能的多维度损害:
研究发现 具体数据 🧠 前额叶皮层抑制功能削弱 使用无限滚动界面会削弱前额叶皮层的抑制控制能力,脑电图(EEG)显示Beta波异常增强。一项覆盖500名用户的6个月追踪研究发现,每日滚动超过2小时的用户,前额叶冲动控制能力下降了35%。 🧠 伽马波异常激活 用户在浏览高奖赏内容(获得点赞、热门视频等)时,伽马波(30-100Hz)功率飙升62%,远超浏览中性内容时的水平——这种模式与赌博成瘾者的脑电特征高度相似。 🧠 大脑结构性改变 一项持续4年的纵向研究(发表于 Scientific Reports)发现,重度社交媒体用户的小脑体积显著缩小——小脑不仅负责运动协调,更参与注意力、语言加工等高级认知功能。同时,奖赏区域(壳核)灰质增加,而决策区域(眶额皮层)灰质减少。 🧠 焦虑-末日滚动正反馈环 2024年一项fMRI研究发现,焦虑程度较高的被试在负面新闻上停留时间延长35%,其多巴胺相关脑区活动增强20%——这意味着算法推送的负面内容对焦虑人群具有更强的"神经吸引力",形成了"越焦虑→越刷→越焦虑"的恶性循环。 📱 第二层:说服式设计——算法背后的操控工程学
大脑的脆弱性不是偶然被利用的——社交媒体公司投入了巨额研发资金,精确地将成瘾机制"工程化"。
特里斯坦·哈里斯(Tristan Harris)——前Google设计伦理学家、被《大西洋月刊》称为"硅谷最接近'良心'的人"——是从行业内部揭露这一真相的关键人物。他在斯坦福大学师从B.J.福格(B.J. Fogg)的"说服性技术实验室"(Persuasive Technology Lab),深入学习了如何利用行为经济学、社会工程学和表演魔术的原理,系统地改变人类的思想和行为。
哈里斯于2018年与阿扎·拉斯金(Aza Raskin)共同创立"人道技术中心"(Center for Humane Technology),系统揭露了社交媒体的"说服式设计"(Persuasive Design)工具箱:
设计策略 心理学原理 实际表现 🔴 红色通知徽标 色彩心理学中红色触发警觉与紧迫感 刺激用户频繁打开应用,即使没有重要消息 ♾️ 无限滚动(Infinite Scroll) 消除"停止点",瓦解用户的自主退出意愿 拉斯金本人发明了无限滚动,后来公开后悔,称之为"互联网上最令人后悔的发明之一" 💬 "正在输入..."指示器 利用社交互惠心理制造即时回复压力 迫使用户持续在线等待,增加应用停留时长 🔔 精准推送通知 利用"怕错过"心理(FOMO) 算法选择最可能触发用户回归的时刻和内容发送通知 👍 点赞/评论数字化显示 将社交认可量化为可比较的数字 将人际关系简化为"社交货币"竞赛,激发持续的社交比较焦虑 哈里斯的核心论断极为深刻:
♦️ "技术声称只是在'镜面反射'社会中已有的东西,但实际上它是一面'哈哈镜'——一面带有反馈循环的哈哈镜,被精心设计为向你展示社会中最极端、最令人愤怒的部分——因为那些部分最擅长抓住你的注意力。"
2024年9月,哈里斯出现在奥普拉·温弗瑞(Oprah Winfrey)的ABC特别节目"AI与我们的未来"中,警告AI正在遵循社交媒体同样危险的剧本——"以参与度和市场主导地位为导向的优化,而非以人类福祉为导向"。2025年,人道技术中心启动了新的研究项目"AI与我们何以为人"(AI and What Makes Us Human),并正在支持针对AI聊天机器人拟人化设计危险的开创性诉讼。
👶 第三层:代际危机——"手机童年"对青少年的毁灭性冲击
社交媒体算法对成年人大脑尚且造成可测量的损害,对正处于神经发育关键期的青少年,其破坏性则是指数级放大的。
乔纳森·海特(Jonathan Haidt)2024年出版的《焦虑的一代》(The Anxious Generation) 系统论证了这一危机。该书连续52周登上《纽约时报》非虚构类畅销书榜,被《华尔街日报》《华盛顿邮报》《时代》杂志和《经济学人》等评为年度最佳图书之一,并入选奥巴马年度书单,直接催生了一场全球性的社会运动。
📌 核心论点:"大改线"(The Great Rewiring)
海特提出,2010-2015年间发生了一次"大改线"——儿童期的基础架构从"游戏型童年"(Play-based Childhood)被全面替换为"手机型童年"(Phone-based Childhood)。数据表明,在经历了十多年的稳定或改善之后,青少年的心理健康指标在2010年代初急剧恶化:抑郁、焦虑、自伤和自杀的发生率在多项指标上翻了一倍以上。
海特识别出社交媒体损害青少年的十余种具体机制:
- 😴 睡眠剥夺:算法推送在深夜仍持续刺激,打断青少年的睡眠周期——而充足的睡眠对发育中大脑的前额叶皮层成熟至关重要。
- 🔀 注意力碎片化:平均每8.5分钟被手机通知打断一次,持续的上下文切换摧毁了"深度注意力"(Deep Attention)的能力,这恰恰是学术学习和创造性思维的神经基础。
- 📊 社交比较的工业化:算法精准推送"理想化"的身体图像和生活方式内容,对青少年——尤其是女孩——的自我认知造成毁灭性打击。海特的数据表明,社交媒体对女孩的伤害大于男孩,而男孩则更多地撤退到虚拟世界(电子游戏),两种退出方式都带来了灾难性后果。
- 🏝️ 孤独的悖论:"社交"媒体实际上减少了面对面的社交互动。大量在线时间挤压了线下玩耍、运动和深度友谊的空间,而后者恰恰是建立心理韧性的核心途径。
- 🧬 青少年的神经发育特殊性:青少年在多巴胺D2受体和多巴胺降解酶方面的基因变异,使他们对社交媒体的成瘾刺激尤为脆弱。2025年 Cureus 的综述指出,Z世代在AI驱动的个性化算法面前报告了更短的注意力持续时间和更严重的心理健康问题。
📌 争论与反思
海特的研究并非没有争议。2024年 Nature 发表了一篇重要书评,指出现有数据大多是相关性的,许多研究发现的效应量很小或不一致。一项覆盖72个国家的分析未能发现社交媒体普及与青少年幸福感之间存在一致的可测量关联。批评者认为,可能不是社交媒体"导致"了心理健康问题,而是已有心理问题的青少年更频繁或以不同方式使用社交媒体。
然而,这场学术争论本身并不削弱课程的核心命题。即便效应量大小存在争议,一个基本事实是无可辩驳的:社交媒体公司确实在有意识地运用成瘾性设计来最大化青少年的使用时长,且完全知晓其潜在危害(Meta内部文件"Instagram对青少年有害"的泄露即为明证)。关于"伤害有多大"的科学争论,不应成为"是否应采取行动"的借口。
🔀 第四层:阶级分化——算法对大脑的影响如何因阶级而异
以上三层分析揭示了社交媒体算法对人类大脑的通用影响机制。但课程的核心问题是:这种影响在不同阶层之间是否均匀分布?答案是一个明确的"不"。社交媒体对大脑的侵蚀正在制造一条新的、可能是最深层的阶级鸿沟——不是关于金钱或工作机会,而是关于认知能力、注意力品质和心理健康本身。
📌 硅谷悖论:制造成瘾的人拒绝让自己的孩子成瘾
这是本节最尖锐的阶级寓言:
♦️ 史蒂夫·乔布斯(Steve Jobs)生前不允许自己的孩子在家使用iPad。 他在2010年接受《纽约时报》采访时被问及孩子们是否喜欢iPad,回答说:"他们还没用过。我们限制孩子在家使用的技术量。"
♦️ 在硅谷的半岛华德福学校(Waldorf School of the Peninsula)——学费高昂、完全禁止使用电子屏幕的私立学校——家长包括eBay首席技术官和大批来自Google、Apple的高管。 校园里用的是粉笔黑板和手工纸笔,学生直到八年级才接触电脑,高中阶段屏幕使用也极为有限。这类华德福学校遍布全球91个国家,仅在美国就有136所,但学费将绝大多数家庭排斥在外。
♦️ Google高管阿兰·伊格尔(Alan Eagle)曾对《纽约时报》表示:"认为iPad上的应用能比真人更好地教我的孩子阅读或算数?那太荒谬了。"
纽约时报专栏作家泽伊奈普·图费克奇(Zeynep Tufekci)尖锐地总结道:"我接触到的几乎每一所精英学校都是低科技或无科技的"——这些学校通常有很低的师生比和很高的教师薪资,而公立学校——尤其是在企业税率持续走低的背景下——根本无力负担。
📌 "新数字鸿沟":屏幕时间的阶级倒转
传统"数字鸿沟"(Digital Divide)的叙事是:穷人因无法"接入"(Access)互联网和数字设备而处于不利地位。但2020年代的现实已经发生了戏剧性的倒转——
📐 旧数字鸿沟公式:穷人用不起技术 → 信息匮乏 → 阶级劣势
📐 新数字鸿沟公式:穷人被技术过度淹没 → 注意力耗竭 → 认知劣势
一项具有里程碑意义的观察来自记者、前普林斯顿访问学者内利·鲍尔斯(Nellie Bowles)2019年在《纽约时报》发表的深度报道,其核心发现在2024-2025年的研究中被反复确认和强化:
♦️ "随着穷人生活中出现越来越多的屏幕,富人生活中的屏幕正在消失。" "你越富有,你花越多钱来远离屏幕。"
♦️ "人际接触正在变成一种奢侈品。" 真人保姆、真人教师、真人治疗师——所有"非屏幕中介"的人际互动正在成为只有上层阶级才能负担的昂贵服务。一个人与真实人类交往的舒适程度,可能正在成为新的阶级标志。
2025年BYU与YouGov联合发布的"美国家庭调查"提供了最新的量化数据:
- 📊 49%的父母每天依赖屏幕时间来帮助管理育儿工作。
- 📊 四分之一的父母表示,他们使用屏幕是因为"负担不起托儿服务";34%表示他们在"找不到托儿服务"时转向屏幕。
- 📊 81%的13岁以下儿童现在拥有自己的电子设备。
- 📊 低收入家庭中,过去一年有50%经历了经济危机——在这种压力下,屏幕往往成为唯一负担得起的"儿童看护者"。
与此同时,90%的美国人支持在课堂上禁止手机,80%要求社交媒体公司披露其向未成年人推送内容的算法机制——但将这些共识转化为行动的能力,在不同阶层之间极度不均。
📌 不仅是"多久",更是"如何"——使用质量的阶级鸿沟
OECD(经合组织)的研究揭示了另一个关键维度:在许多国家,不同阶层青少年的上网时长实际上相差不大——真正拉开差距的是"使用方式":
维度 上层阶级家庭 底层阶级家庭 📚 内容偏好 更多搜索信息、阅读新闻、使用教育资源 更多消费娱乐内容、短视频、游戏 🧭 算法素养 了解推荐算法的存在,能有意识地"反操控" 对算法机制缺乏认知,被动接受信息流 👨👩👧 家长介入 有能力投入时间和资源引导数字使用习惯 因工作压力大、数字素养有限,难以有效干预 🏫 学校环境 精英私校控制或禁止屏幕;课后有丰富的线下活动替代 公立学校大量引入平板和教育技术产品;课后缺少可负担的替代活动 🧠 认知后果 保留深度注意力和延迟满足能力 注意力碎片化加剧,深度阅读和批判性思维能力退化 📌 2025年学术前沿:"算法鸿沟"概念的提出
2024年,学术界正式提出了"算法鸿沟"(Algorithmic Divide)概念——这是对传统"数字鸿沟"理论的重大升级。发表在 Frontiers in Communication 上的研究指出:
♦️ "尽管AI和算法在日常生活中无处不在(社交媒体、搜索引擎、聊天机器人),但不同社会人口群体对算法的认知和知识水平存在显著差异,这正在催生一种'算法鸿沟'——然而,这种新兴的不平等形式尚未得到政策界和学术界的充分关注。"
2025年发表在 Scientific Reports 上的一项芝加哥社交网络研究,进一步揭示了种族和社区维度的算法鸿沟:黑人和拉丁裔社区的Twitter用户在出度(关注)和入度(被关注)连接上都显著低于白人社区用户,意味着在信息获取和信息传播能力上存在结构性的不平等。种族同质性偏好(racial homophily)和种族选择性互动是造成这种信息隔离的两大关键机制。
传统数字鸿沟的三个层次正在被算法时代的新现实重新定义:
鸿沟层级 传统定义 算法时代的新含义 🥇 第一层 物理接入鸿沟(有无电脑和网络) 虽然接入率趋于平等,但全球仍有巨大落差:2024年北欧社交媒体使用率80.2%,中非仅9.9% 🥈 第二层 技能鸿沟(会不会用) "算法素养"鸿沟——是否理解推荐系统如何塑造你所看到的信息、是否具备批判性评估信息的能力 🥉 第三层 参与鸿沟(是否从技术中受益) "算法受益"鸿沟——是否能够利用AI工具创造可持续的正面成果,而非仅仅被动消费算法投喂的内容 📌 信息茧房与回音室:认知隔离的阶级维度
算法对大脑的另一重要影响通道是"信息茧房"(Filter Bubble)和"回音室"(Echo Chamber)效应——算法根据用户的既有偏好,持续推荐同质化内容,逐渐将用户封闭在一个认知同温层中。
2025年的学术综述( Journal of Computational Social Science,129项研究的系统性回顾)显示,关于回音室是否真实存在,学界尚未达成共识。基于计算社会科学方法的研究倾向于支持回音室假说,而基于调查和媒体环境分析的研究则倾向于质疑。路透新闻研究院的综述也指出,回音室的普遍性远不如通常假设的那样广泛。
然而,一个关键的阶级维度往往被忽略:
- 🔸 上层阶级更有可能主动"管理"自己的信息饮食——订阅付费新闻、关注多元化信息源、使用RSS或新闻聚合工具、参与跨圈层的线下讨论。
- 🔸 底层阶级更依赖免费的社交媒体平台作为唯一的信息渠道——这意味着他们的世界观在更大程度上被算法"策展"。当你的全部新闻来自TikTok和Facebook的推荐流时,你所"知道的世界"就是算法"希望你知道的世界"。
- 🔸 2025年东北大学发表在 Science 上的突破性实验表明,算法拥有极其强大的政治态度塑造力:仅仅一周的算法干预,就能将用户对对立政党的情感偏移量达到通常需要三年才能观察到的水平。——这意味着掌握算法的一方,实际上拥有了以前任何宣传机器都无法企及的认知操控能力。
🎯 小结:社交媒体算法的阶级效应全景图
维度 上层阶级 底层阶级 🖥️ 屏幕暴露 主动限制、低科技私校、真人互动为主 被动浸泡、公校依赖科技产品、屏幕替代真人看护 🧠 神经发育 保留深度注意力、延迟满足能力 多巴胺亏空、注意力碎片化、冲动控制减弱 🛡️ 防御能力 算法素养高、有资源进行"数字排毒" 算法素养低、缺乏替代方案和反制知识 🗞️ 信息质量 付费新闻、多元信源、主动筛选 算法投喂、同质化信息流、被动接受 💊 心理健康 有资源获取心理咨询和干预 心理健康问题加剧,但缺乏治疗资源 🏛️ 政策影响力 能够推动和影响科技监管政策 缺乏集体行动和政策博弈的渠道 这幅全景图揭示了一个深层悖论:社交媒体算法的设计者和受益者——硅谷技术精英——正在用最大的力度保护自己和子女免受其产品的影响。而最缺乏保护的群体——底层家庭和他们的孩子——恰恰是算法最积极寻求"参与"(Engagement)的目标。
用哈里斯的话说:注意力经济的商业逻辑是"对人类弱点的系统性开发"。当这种开发的成本(注意力碎片化、成瘾、心理健康损害)不均匀地分配到不同阶级身上时,社交媒体就不仅是一种"注意力市场",更是一种"认知殖民"——用免费的内容换取你最宝贵的认知资源,而被殖民者甚至无法意识到自己正在失去什么。
二、搜索即偏见:算法如何重塑认知与话语权
📖 《压迫算法》(Algorithms of Oppression)
✍️ 作者:萨菲亚·乌莫贾·诺布尔(Safiya Umoja Noble),UCLA性别研究与非裔美国人研究双聘教授 📅 出版:2018年 | 🏆 2021年麦克阿瑟"天才奖"得主
🔍 核心逻辑
诺布尔的研究起点是一个令人震惊的发现:2011年,她在Google搜索"black girls"(黑人女孩)时,首页结果几乎全是色情内容。这一看似简单的搜索结果背后,隐藏着搜索引擎深层的种族和性别偏见。
诺布尔挑战了"搜索引擎是中立信息中介"的普遍认知,论证了搜索算法如何系统性地将白人男性的视角设定为"默认值"和"正常值"——当你搜索"美女"时得到白人女性图片,搜索"专业人士"时得到白人男性图片,而搜索少数族裔相关关键词时则充斥着负面内容和刻板印象。
🎯 阶级与种族的交叉洞察
诺布尔的贡献在于揭示了"信息获取"本身就是一种阶级资源:
- 🔸 当搜索引擎将某个群体与负面信息系统性关联时,它不仅在反映偏见,更在制造偏见——雇主、房东、保险公司、贷款机构都可能在无意识中受到搜索结果的影响。
- 🔸 她明确拒绝了"只要让更多女性和少数族裔加入科技行业就能解决算法偏见"的新自由主义方案,认为结构性的问题需要结构性的解决——政府监管和企业问责缺一不可。
- 🔸 她的研究在2024年依然高度相关:一项覆盖150个AI教育平台的研究发现,68%的AI系统对至少一个边缘群体存在可测量的偏见。大语言模型(LLMs)从训练数据中继承了早期数字系统中就已存在的不平等模式。
三、阶级固化:算法如何剥夺机会
📖 《算法霸权》(Weapons of Math Destruction)
✍️ 作者:凯西·奥尼尔(Cathy O'Neil),哈佛数学博士,曾任对冲基金量化分析师 📅 出版:2016年 | 🏆 入围美国国家图书奖长名单
🔍 核心逻辑
本书提出了"数学毁灭武器"(WMDs)的概念。作者指出,简历筛选、信用评分、保险定价等算法模型往往是"黑箱"。它们通过收集带有偏见的历史数据,自动将贫困人群挡在优质教育和工作门槛之外。
奥尼尔将"数学毁灭武器"定义为同时满足三个特征的算法模型:
特征 含义 ⚫ 不透明(Opacity) 模型的运作逻辑对受影响者完全不可见,用户既不知道自己被评分,也不了解评分依据 📈 可规模化(Scale) 一个有缺陷的模型可以同时影响数百万人,其破坏力远超个人偏见 💥 破坏性(Damage) 模型的错误输出会对个人的就业、信贷、教育、保险等核心生活领域造成实质伤害 书中的关键案例包括:
- 📌 教师评估系统:华盛顿特区采用"增值模型"算法评估教师绩效,一位深受学生爱戴、教学经验丰富的教师因算法评分过低而被直接解雇,但该评估模型的具体运算逻辑从未向教师公开。
- 📌 大学排名系统:《美国新闻与世界报道》的排名算法迫使大学陷入军备竞赛——不是为了提升教学质量,而是为了优化排名指标。这导致学费飙升,最终由学生和家庭承担代价。
- 📌 犯罪预测系统:预测性警务工具(如PredPol)依据历史犯罪数据"预测"犯罪热点区域,但由于执法本身对低收入社区和少数族裔社区的过度关注,历史数据已然充满偏见,算法不过是将这种偏见自动化并合法化。
🎯 阶级洞察
算法正在创造一种"自我实现的预言"——因为你穷,所以算法认为你风险高,进而导致你无法获得贷款或工作,最终让你更穷。这是一个精心设计的反馈闭环(Feedback Loop):贫穷 → 低评分 → 被拒绝 → 更贫穷 → 更低评分。与传统的歧视不同,算法歧视具有"技术客观性"的面纱——它看起来不像歧视,因为"这只是数据说的"。
奥尼尔尖锐地指出了算法世界的"双轨制"悖论:
♦️ 富人的算法世界:VIP信用卡审批、私人银行服务、优质保险——这些算法被精心调校以提供最佳体验,错误可以通过人工申诉轻松纠正。
♦️ 穷人的算法世界:自动化信贷拒绝、保险加价、简历筛除——受影响者往往根本不知道自己被算法否决,即使知道也几乎没有申诉通道。
🔄 延伸:从书本到现实——2024-2025年的最新发展
奥尼尔在出版《算法霸权》后,创立了算法审计公司ORCAA(O'Neil Risk Consulting & Algorithmic Auditing),将其学术洞察转化为实践行动。
- ORCAA已成为美国AI安全研究所联盟(U.S. AI Safety Institute Consortium)的首批成员,直接参与了美国国家标准与技术研究院(NIST)的AI风险管理框架建设。
- 2024年夏季,ORCAA在MIT斯隆管理评论发表专题文章,系统阐述了如何识别和度量算法风险。
- 奥尼尔的预警正在变成立法现实。截至2025年,全美各州共提出超过1000项AI相关法案。纽约市第144号地方法已于2023年7月生效,要求在招聘中使用AI工具的企业必须进行年度偏见审计。科罗拉多州于2024年5月成为美国首个通过综合性算法偏见立法的州。
- 欧盟方面,《人工智能法案》(EU AI Act)于2024年8月1日正式生效,采用"风险分级"框架,将社会信用评分、操纵性AI等列为"不可接受风险"予以全面禁止,对用于招聘、信贷评估等"高风险"领域的AI系统提出严格的透明度、公平性和合规评估要求,违规者可面临最高3500万欧元或全球营收7%的罚款。
四、数字化生存:针对底层阶级的治理工具
📖 《自动化不平等》(Automating Inequality)
✍️ 作者:弗吉尼亚·尤班克斯(Virginia Eubanks),纽约州立大学奥尔巴尼分校政治学副教授 📅 出版:2018年 | 🏆 2019年莉莲·史密斯图书奖,2018年McGannon中心图书奖
🔍 核心逻辑
弗吉尼亚·尤班克斯通过实地调查发现,政府利用算法管理福利分配时,实际上在对贫困人口进行大规模的"数字化监视"。她提出了一个核心概念——"数字贫民窟"(Digital Poorhouse):正如19世纪的济贫院通过物理空间隔离和羞辱手段管控穷人,21世纪的自动化决策系统通过数字空间实现了同样的功能——只是更加高效、更加隐蔽、更加难以反抗。
书中呈现了三个极具冲击力的田野案例:
案例 地点 关键发现 📍 福利资格自动审查 印第安纳州 州政府引入自动化系统审查医疗补助、食品券和现金福利申请,三年内拒绝了超过100万份申请。系统将申请人填写表格时的任何失误——哪怕是一个遗漏的签名——都自动判定为"不配合"而直接拒绝。 📍 无家可归者优先排序 洛杉矶 一个名为"协调入住系统"的算法根据"脆弱性指数"对数万名无家可归者进行排序,决定谁能优先获得极其有限的住房资源。然而该算法的评分标准和权重从未向被评估者公开。 📍 儿童虐待风险预测 匹兹堡 阿利根尼县使用"阿利根尼家庭筛查工具"(AFST)预测哪些家庭的儿童可能成为虐待或忽视的受害者。该系统自动抓取家庭与公共福利系统的所有交互记录,这意味着越频繁使用公共服务的贫困家庭,被标记为"高风险"的概率越高。 🎯 阶级洞察
自动化决策系统往往对富人温和,而对穷人严苛。它让弱势群体在申请医疗、住房援助时面临重重算法阻碍,建立起了一座无形的"数字贫民窟"。
尤班克斯揭示了一条深刻的历史连续性:
📜 从1820年代的济贫院到1960年代的"适宜家庭"规则,再到今天的自动化福利审查,美国对穷人的管控策略本质上从未改变——变的只是技术手段。
她特别指出,1968年美国福利权利运动取得重大胜利、社工与受助者建立团结联盟之后,数字化系统几乎立即被引入福利管理——这绝非巧合。技术在这里扮演的不是"效率工具"的角色,而是"瓦解底层团结"的武器。
自动化系统带来的核心问题可以概括为:
- ⚠️ 隐私侵蚀:依赖公共服务的贫困人口被迫交出海量个人数据作为获取服务的"入场券",形成了一种"以隐私换生存"的不对等交换。富人通过私立医院和私人教育机构获取服务,其数据足迹极少进入政府监控系统。
- ⚠️ 去人性化:算法将复杂的家庭困境简化为一组风险评分数字,社工的专业判断力被降格为"算法输出的执行者",个案的独特性和人情味被系统性地抹除。
- ⚠️ 不可申诉性:当一个人被算法拒绝时,ta面对的不是一个可以沟通和说理的人类决策者,而是一个无法对话的"黑箱"。对于缺乏法律知识和维权资源的底层群众而言,这几乎等于判了"死刑"。
🔄 延伸:作者的持续研究
尤班克斯目前正与合作者Andrea Quijada一起,为"见证之声"(Voice of Witness)项目收集全球自动化福利国家的口述历史,将被算法系统影响的普通人的真实经历记录下来。她的新书《开放水域救生指南》(A Guide to Open Water Lifesaving)预计将于2026年8月由Farrar, Straus and Giroux出版。
五、劳动力重组:被算法统治的新阶级
📖 《销声匿迹》(Ghost Work)
✍️ 作者:玛丽·L·格雷(Mary L. Gray)& 西达尔特·苏里(Siddharth Suri),微软研究院研究员 📅 出版:2019年 | 🔬 基于微软研究院长期田野调查
🔍 核心逻辑
揭秘了AI背后的"数码劳工"阶级。这些分布在全球的隐形劳动者从事着枯燥的数据打标工作,他们被算法实时监控、按件计酬。
格雷和苏里创造了"幽灵劳动"(Ghost Work)这一术语,精准描述了一种独特的劳动异化形态:消费者以为在与AI交互,但实际上是人类劳工在幕后完成了关键环节。
这些"幽灵劳工"分布在全球范围内,他们的工作内容包括:
- 🏷️ 为自动驾驶汽车标注训练图片中的行人、车辆和路标
- 🛡️ 审核社交媒体上的暴力、色情和仇恨内容
- 📝 校对AI生成文本的事实准确性
- 🔍 评估搜索引擎结果的相关性和质量
- 💬 在聊天机器人无法处理复杂问题时,无缝接管对话(用户完全不知道自己在与真人沟通)
截至该书写作时,估计约有8%的美国人至少参与过一次这种"幽灵经济"。该领域的专业按需信息服务工作预计到2025年将为全球GDP贡献2.7万亿美元。
🎯 阶级洞察
算法将劳动力彻底碎片化,剥夺了传统劳动者的社保福利,催生了一个全新的、极度不稳定的"数字苦力阶级"。
"幽灵劳动"与传统雇佣劳动的对比尤为触目惊心:
维度 传统雇佣劳动 幽灵劳动 💼 劳动关系 雇佣合同 "独立承包商"——无劳动合同 💰 薪酬模式 固定工资/时薪 按件计酬,单件报酬可低至不足1美分 🏥 社会保障 医保、退休金、带薪假 无任何保障 👁️ 监控方式 有限的工作监督 算法实时监控任务完成速度、准确率和在线时长 🚪 解雇方式 法定程序保障 算法自动"停用账户",无需解释、无法申诉 🌐 雇主可见性 明确的雇主身份 层层外包,劳动者甚至不知道自己在为谁工作 🔄 延伸:2024-2025年——"幽灵劳动"问题的急剧恶化
随着生成式AI(如ChatGPT、Gemini等)的爆发式增长,对数据标注劳工的需求不减反增,劳动条件反而进一步恶化。以下是最新的关键事件:
🔸 Scale AI与Remotasks丑闻
Scale AI——总部位于旧金山、估值超过130亿美元的AI数据标注公司——通过其子公司Remotasks在肯尼亚和菲律宾大量雇佣低薪劳工。许多肯尼亚劳工最初甚至不知道Remotasks是Scale AI的子公司。在菲律宾,部分标注任务的报酬降至不到1美分,拖欠工资现象普遍。2024年3月,Remotasks突然关闭其在肯尼亚的运营,数千名依赖该平台维生的年轻人一夜之间失去收入来源,外界普遍认为这是一次刻意规避当地日益严格的劳动监管的行为。
🔸 CBS《60分钟》曝光
2024年,美国CBS电视台《60分钟》节目深入报道了肯尼亚数据标注工人的境遇:他们的时薪仅为1.50-2美元,而从事同等工作的美国工人时薪为20美元。更严重的是,部分工人被要求每天超过8小时审核极端暴力、性虐待和自杀等图形内容以训练AI内容审核模型,但未获得任何心理健康支持。
🔸 "现代奴隶制"公开信
2024年5月,近100名肯尼亚数据标注工人联名致信美国总统拜登,将自己的处境称为"现代奴隶制"。一项2025年Equidem调查覆盖了哥伦比亚、加纳和肯尼亚的76名工人,记录了60起独立的心理伤害事件,包括焦虑、抑郁、恐慌发作、PTSD和药物依赖。
🔸 法律诉讼
2024年12月,Scale AI被一名前员工起诉,指控工资盗窃和工人身份错误分类。2025年1月,多名承包商因接触令人不安的内容而遭受心理伤害,对Scale AI提起诉讼。
🔸 工人开始组织化反抗
肯尼亚AI工人成立了"数据标注者协会"(Data Labelers Association),首周即有339名会员加入;非洲内容审核员工会(African Content Moderators Union)和全球内容审核员工会联盟也相继成立。2025年,来自肯尼亚、菲律宾、印度和拉丁美洲的内容审核员召开跨国峰会,提出共同诉求:直接雇佣、心理健康支持、更高工资和组织权利。
六、权力重构:技术精英与数据原材料
📖 《监控资本主义时代》(The Age of Surveillance Capitalism)
✍️ 作者:肖莎娜·祖博夫(Shoshana Zuboff),哈佛商学院荣休教授 📅 出版:2019年 | 🏆 被《金融时报》《卫报》等评为年度最佳图书之一
🔍 核心逻辑
肖莎娜·祖博夫认为,我们正处于一种新型的剥削形式中。少数科技巨头通过算法预测并修改人类行为。
祖博夫创造了"监控资本主义"(Surveillance Capitalism)这一概念,描述了一种全新的经济逻辑:
📐 传统资本主义的公式是:自然资源 → 商品 → 利润
📐 监控资本主义的公式是:人类行为数据 → 预测产品 → 利润
在这个新的经济体系中,"人类经验"本身被视为免费的"行为原材料"。科技公司通过无处不在的数字触点(搜索引擎、社交媒体、智能手机、物联网设备)提取用户的行为数据——不仅是用户主动提交的信息,更包括用户无意识中产生的"行为剩余"(Behavioral Surplus):你的浏览停留时长、滑动速度、打字节奏、地理位置轨迹、面部表情变化等。
这些数据被输入"预测引擎",生成关于个体未来行为的精准预测。而这些预测产品被出售给广告商和其他利益相关方——他们购买的不是你的注意力,而是你的可预测性。
🎯 阶级洞察
社会结构被简化为两个阶级——"观察者"(掌握算法的精英)和"被观察者"(贡献数据的普通大众)。知识和权力的不对等达到了历史顶峰。
祖博夫提出了三层"权力不对等"的分析框架:
不对等维度 "观察者"阶级 "被观察者"阶级 🔍 知识不对等 掌握你是谁、想什么、将做什么的海量数据 对自己的数据如何被收集、分析和交易几乎一无所知 ⚙️ 行动不对等 能够基于预测主动塑造你的选择环境 只能在被精心设计的选项中做出"自由选择" 🏛️ 权力不对等 通过游说、资助和技术垄断影响立法 个体面对科技巨头几乎没有博弈能力 祖博夫进一步警告了一个极为危险的"融合场景"(Fusion Scenario):当威权国家权力与监控资本主义的数字能力合流时,将催生21世纪的数据驱动型极权主义——这是对民主制度的根本性威胁。
🔄 延伸:2024-2025年的最新动态
祖博夫的研究重心已从理论预警转向对现实威胁的实时追踪:
- 2024-2025年,她在哈佛大学肯尼迪学院卡尔中心联合主持"监控资本主义还是民主?"(Surveillance Capitalism or Democracy?)研究项目,召集了来自AI政策、数据隐私、互联网安全等领域的国际学者和实践者。
- 她推出了博客系列"来自新权力前沿的笔记"(Notes from the New Frontier of Power),持续追踪监控资本主义与民主制度之间的博弈态势。
- 2024年9月,祖博夫与欧盟反垄断前负责人玛格丽特·维斯塔格(Margrethe Vestager)、诺贝尔和平奖得主玛丽亚·雷萨(Maria Ressa)等人在哈佛举行圆桌对话,讨论如何遏制营利性数据收集。维斯塔格在会上表示:"传达'为时不晚'的信息至关重要。"
- 祖博夫在其2022年发表的论文《监控资本主义还是民主?制度秩序的殊死搏斗》中指出:监控资本主义巨头致力于"去社会化"(de-socialize)社会,将其作为与民主选举官员争夺治理权的核心战略。她认为,全球信息空间向监控资本主义的让渡已经成为"每一个共和国的元危机(meta-crisis),因为它阻碍了所有其他危机的解决"。
七、平台经济:算法管控下的新型劳工剥削
📖 推荐阅读:人权观察2025年报告《零工陷阱》(The Gig Trap)
✍️ 发布机构:人权观察(Human Rights Watch) 📅 2025年5月发布
🔍 核心发现
如果说《销声匿迹》揭示了AI训练环节的隐形劳工问题,那么平台经济则展示了算法管控在日常服务行业的全面渗透。Uber、DoorDash、Lyft等平台正在创造一种全新的劳资关系形态——劳动者在形式上是"独立承包商",实质上却被算法全方位控制。
2025年人权观察的调查揭示了触目惊心的数据:
指标 数据 💵 平台营收 Uber 2024年净利润98亿美元;DoorDash 2024年营收107.2亿美元(同比增长24%) 💰 工人实际收入 扣除车辆维护、油费、保险等工作开支后,许多零工劳动者实际时薪仅约5.12美元 📊 平台抽成率 平台通常抽取约40%的车费,个别订单抽成率可高达70% 🚫 账号停用 超过三分之一的受调查零工劳动者至少被"停用账户"一次,其中近半数后来被认定为误判 算法管控的具体机制包括:
- 🎮 游戏化操控:平台设计"任务挑战"、"连续奖励"、"高峰补贴"等机制,利用行为心理学原理诱使劳动者延长工作时间或接受低报酬订单——这些看似"奖励"的机制实质上是精心设计的"陷阱"。
- 📱 全景式监控:算法追踪劳动者的位置、速度、接单率、完成率、用户评分,构建了一个比任何传统工厂都更精密的数字"全景监狱"。
- ⚡ 即时惩罚:一次差评、一次超时配送甚至一次用户虚假投诉都可能导致账号停用——等同于"即时解雇",且没有传统劳动法中的程序保障。
🎯 阶级洞察
平台经济的本质是将"雇佣关系"伪装为"合作关系",从而系统性地绕过一切劳动保护。2024年7月,加州最高法院维持了第22号提案(Proposition 22),允许Uber等公司继续将司机归类为独立承包商——零工公司为通过该提案投入了超过2亿美元的游说资金。2025年12月,美国国会议员提出《赋能APP工人法案》(Empowering App-Based Workers Act),试图规范平台算法决策的透明度,但其前景尚不确定。
八、中国视角:算法治理的东方实践
算法与阶级的议题并非西方独有。中国作为全球最大的平台经济体之一,面临着同样的挑战,并正在形成独具特色的治理路径。
🔍 中国算法歧视的典型表现
- 📌 大数据"杀熟":电商平台根据用户的支付能力和消费习惯实施差异化定价——同一商品或服务,老用户/高消费用户看到的价格反而更高。
- 📌 信息茧房:推荐算法为用户构建同质化的信息环境,加固认知壁垒,限制底层群众获取多元信息和上升机会的渠道。
- 📌 外卖骑手算法困境:平台不断缩短配送时间、优化路线计算,将系统性的效率压力转嫁到单个骑手身上,迫使他们在交通安全和收入之间做出危险的选择。
📜 治理动态(2024-2025年)
中国在全球范围内率先开展了AI领域的规范制定工作,形成了多层次的算法治理体系:
- 🔸 2024年11月至2025年2月,中央网信办、工信部、公安部、市场监管总局联合开展"清朗·网络平台算法典型问题治理"专项行动,首次发布《算法专项治理清单指引》,明确了信息茧房、榜单操纵、大数据"杀熟"、侵害新就业形态劳动者权益等6项21个核验要点。抖音、美团、小红书、微博等平台均提出整改措施。
- 🔸 算法备案制度:要求具有舆论属性或社会动员能力的算法推荐服务提供者向监管部门备案算法基本原理和关键数据信息,部分弥补了算法"黑箱"导致的信息不对称。
- 🔸 《生成式人工智能服务管理暂行办法》《人工智能安全治理框架》 等规范性文件的出台,使中国成为全球最早对生成式AI进行立法规制的国家之一。
- 🔸 2024年7月,第78届联合国大会以协商一致方式通过了中国提出的加强人工智能能力建设国际合作决议,140多个国家参与联署——这是全球首个聚焦AI能力建设的共识性文件。
核心观察总结
维度 影响机制 代表著作 结果 🧠 注意力与认知 多巴胺劫持、说服式设计、信息茧房 《多巴胺国度》《焦虑的一代》等 认知能力的阶级分化,"屏幕童年"vs"真人童年" 🔍 认知塑造 搜索排序与信息分配 《压迫算法》 话语权垄断,边缘群体被系统性"隐形化" 🚪 准入门槛 信用评分与求职筛选 《算法霸权》 阶级固化,上升通道收窄 🏥 社会福利 自动化资格审查 《自动化不平等》 精准排斥,底层生存空间受挤压 ⚒️ 劳动形态 平台经济与算法考核 《销声匿迹》 新型剥削,劳工权利被算法瓦解 👁️ 权力结构 数据提取与行为控制 《监控资本主义时代》 信息不对等,技术官僚统治 🎮 零工控制 平台算法与游戏化机制 《零工陷阱》 劳动保护瓦解,"伪自由"下的全面控制 延伸阅读:进一步探索的学术资源
如果你希望进一步深入这一议题,以下是2024-2026年的最新学术出版物:
- 📚 《弥合数字鸿沟:数字时代的不平等与歧视》(Bridging the Digital Divide),Springer,2025年出版——系统性探讨AI驱动的决策系统、数字劳动和平台经济如何加剧不平等。
- 📄 Peter K. Yu,"算法鸿沟与人工智能时代的平等"(The Algorithmic Divide and Equality in the Age of AI),佛罗里达大学法学评论——提出"算法鸿沟"概念,类比"数字鸿沟",系统分析了AI时代技术有产者与无产者之间不断扩大的不平等裂缝。
- 📄 M. A. Anwar,《AI的价值链:数据训练公司、平台与工人》(Value Chains of AI),Routledge,2025年——聚焦全球南方的数据劳工在AI价值链中的位置。
- 📄 《算法歧视:一个扎根理论化的概念化》(Algorithmic Discrimination: A Grounded Conceptualization),Taylor & Francis,2025年6月——将算法歧视从理论概念推进到可操作的分析工具。
- 📚 Anna Lembke,《多巴胺国度》正式练习册(The Official Dopamine Nation Workbook),2024年——提供多巴胺断食的分步实操指南,包含互动练习和实用工具。
- 📄 Chenyan Jia et al.,"算法对政治极化的因果影响",Science,2025年——首次在受控实验中证明社交媒体算法在一周内即可产生相当于三年自然演变的政治态度变化。
- 📄 "人工智能与算法鸿沟的黎明"(Artificial Intelligence and the Dawn of an Algorithmic Divide),Frontiers in Communication,2024年——正式提出"算法鸿沟"概念,分析不同社会群体对AI和算法的认知差异如何催生新型不平等。
小结
算法的本质是"历史的重复"。如果我们不审视算法背后的阶级偏见,技术非但不会带来更公平的未来,反而会成为最隐蔽、最难以反抗的统治枷锁。
但历史同样告诉我们:每一种新型的统治工具,最终都催生了新型的反抗形式。从肯尼亚数据标注工人的"现代奴隶制"公开信,到纽约市的算法偏见审计法,从欧盟AI法案的全球示范效应,到中国"清朗"专项行动的治理实践,从硅谷内部吹哨人创建"人道技术中心",到《焦虑的一代》引发的全球限屏运动——对算法权力的觉醒与抵抗正在全球范围内同步发生。
理解算法即阶级,不是为了拥抱技术悲观主义,而是为了回答一个至关重要的问题:
🔑 在代码即法律、数据即权力的时代,我们需要什么样的制度设计和集体行动,才能确保技术服务于人的解放,而非人的驯化?
歡迎留言回复交流。
Log in to reply.