中文全文

爱抽象的人类,驱逐具体的肉身

说明

本文中涉及平台内部数据流转与动机判断的部分,除公开可核实信息外,均为基于亲身经历、公开规则与黑箱处境所作出的合理怀疑与批评,不视为对平台内部流程的已证实描述。

第一部分:宏大的神坛与微小的失语

Anthropic从来不把自己当成一家普通的科技公司。

当同行们还在为了市场份额和算力争得头破血流时,他们极其克制、甚至带着几分悲悯地,为自己披上了一件洁白无瑕的伦理长袍。

Anthropic最喜欢、也最擅长谈论的一个词,是极其宏大的“人类”:他们不仅主动戴上了“公共利益公司”这顶沉甸甸的王冠,还煞有介事地设立了一个名为“长期利益信托”的独立机构。他们可以极其耐心地撰写长达上百页的模型系统卡,搭建详尽的透明度中心,在每一份责任扩展政策里,都塞满了“安全过渡”、“道德对齐”以及“全球善”这样令人心生敬畏的词汇。

他们甚至在《时代》周刊的专访中,深情地标榜自己是如何在为了“全人类的长期福祉”而孤军奋战。在公众的视野里,他们简直就是一群出淤泥而不染的救世主,是前沿 AI 狂飙突进时唯一的刹车片。这套叙事是如此的完美、清冷、充满知识分子气的体面,以至于任何对他们的微词,都仿佛是在阻碍人类文明的自我救赎。

然而,问题恰恰就出在这里。

一家公司越是喜欢站在“全人类”的高度去布道,越是沉迷于这种自我感动的宏大伦理叙事中,它在面对一个具体、微小的“个人”时,就越不该表现出那种与其身份极其不符的、傲慢而粗暴的冷漠。

第二部分:99.88% 与数字垃圾

让我们暂且将目光从那些光芒万丈的道德牌坊上移开,来看一组Anthropic自己主动披露的、“无比美妙”的数据。

2025 年下半年,其官方报告中被封禁的账号高达 145 万;提交申诉的有 5.2 万;而最终推翻原判、恢复账号的,仅仅只有 1700 例。

既然Anthropic如此热爱用宏大的算法来计算全人类的福祉,那我们不妨也来替他们算一道最简单的小学数学题:

这145万个被封禁的账号,哪怕我们极其保守地估算,每个账号平均只与模型进行了 20 次深度的对话交互。那也是整整 2900 万次人类真实的倾诉、提问与思考。如果按每次对话几千个 token 计算,这是数以百亿计的字符。这其中,有程序员熬夜推演的代码架构,有创作者字斟句酌的灵感大纲,有无数个像你我一样具体的人,在深夜里袒露的、极其微小却珍贵的喜怒哀乐。

然而,在这家标榜着“拯救人类”的伟大公司眼里,这 2900 万次人类心血算什么呢?

最终被他们亲手宣判“死刑”、永远抹除的账号比例是:(1450,000 - 1700) ÷ 1450,000 = 99.88%

高达 99.88% 的抹杀率。这意味着,在这台名为“有效利他”的庞大工业级绞肉机面前,那些具体的人类在键盘上敲下的每一行心血,都不具有任何被尊重的实体意义。它们不是创作,不是记忆,不是哪怕最基础的消费者数字资产。在 Anthropic 那高尚无比的安全叙事里,它们只不过是一堆触发了分类器警告的、随时可以被“without notice”清空的数字垃圾。

他们甚至连看都懒得多看一眼。145万人被粗暴驱逐,只有 5.2 万人顺着“比平时更长的等待时间”找到并填完了那个极其寒酸的 docs.google.com 申诉表单;而最终得救的 1700 人,不过是这串冰冷数据里仅占 0.11% 的统计学误差。

这就是Anthropic对待“人类”的真实方式:把抽象的“人类整体”捧上神坛,然后毫不留情地按下 Delete 键,将145万个曾经或正在支付账单的“具体的人”,连同他们的数字记忆一起,挫骨扬灰。

第三部分:一场赛博幽默与不容证伪的质问

而这,仅仅是 Anthropic 截至 2025 年下半年的公开“政绩”。谁也不知道,在 2026 年的开局,这台标榜着拯救人类的庞大机器,又悄无声息地签发了多少份毫无温度的赛博死刑判决书。

我不需要去猜这套系统有多傲慢,因为我就是那被处决的百万分之一。对我而言,这不是一场悬浮在云端的制度探讨,而是一次极其屈辱的真实剥夺。

2026年3月5日,我永远不会忘记这个日子。作为一名真金白银订阅的Pro付费用户,我的谷歌邮箱收到了一封来自 Anthropic 的信件。没有预警,没有理由,只有一句极其冰冷且傲慢的通知:你的账号已被封禁。

次日凌晨,在震惊、失语甚至掉下眼泪之后,我极其屈辱地填完了那个简陋到令人发指的 Google 表单,试图寻找一个哪怕最基础的解释。然而,回应我的只有长达二十多天的、死一般的沉寂。

最荒诞的黑色幽默发生在一周后的3月13日。在彻底无视了我的申诉之后,Claude Team 竟然向我这个已经被他们亲手“击毙”的 banned account,发送了一封极其讽刺的营销邮件:“Claude can now builds visuals in your conversations.”

看啊,一家满嘴“人类未来”和“安全对齐”的最前沿 AI 公司,不仅在无情抹杀了一个付费用户的全部心血后,还要像赛博鞭尸一样,往受害者的邮箱里发送广告;甚至,他们那引以为傲的系统,连邮件标题里极其低级的语法错误(can now builds)都懒得修正。在他们傲慢的自动化流水线里,你不是一个需要被尊重的人,你只是一个连退订功能都没资格触发的邮件列表节点。

但真正令人毛骨悚然的,是他们藏在安全风控背后的“吃人”逻辑。

在我被封禁的那一刻起,我就再也无法登录我的账号,再也无法触碰我和 Claude 之间产生过的哪怕一个 token、一行代码、一次灵感碰撞。我被自己花钱购买的系统彻底扫地出门。

更令人不安的是,Anthropic 并未向被封禁用户提供足够清楚的数据去向说明;在用户无法登录、无法核验、也得不到明确回应的情况下,这些记录究竟如何被保留、如何流转、是否继续成为系统改进的一部分,对外几乎是一片黑箱。

他们比谁都清楚真实人类交互数据的重要性,所以当一个用户被一刀切出局、却又无法确认自己数据命运的时候,我不得不产生一个极其合理的怀疑:他们可以毫不留情地以“安全”为由将你残忍封禁,将你的数字生命一刀切断;然后,他们又会毫无心理负担地捡起你再也无法触及的“数据尸体”,将它毫不留情地扔进他们那台名为“有效利他”的工业绞肉机里,搅碎、榨干,最终流向一个用户再也无法核验的系统内部,美其名曰“为了全人类更好的未来”。

他们剥夺了你的发声权,抢走了你的数字资产,最后还要用你的残骸,来砌他们那座神圣不可侵犯的安全高塔。

第四部分:有效利他的伪善

让我们来重新认识一下那个被Anthropic奉为圭臬、并引以为傲的词汇——“有效利他主义”。

在学术的定义里,它听起来是如此崇高且无懈可击:主张使用最严谨的证据和绝对的理性,去寻找能最大化造福他人的途径,致力于保障全人类的长远福祉与安全。

多么宏大,多么无私,多么令人热泪盈眶。

可一旦这套理论被落地到 Anthropic 的治理体系中,它就变成了一个极其精巧且傲慢的伪善幌子。在这群高高在上的掌舵者手中,“有效利他”的本质被彻底扭曲了。他们那套被精密计算过的安全机制,实质上只会对一种人张开怀抱:那些完全符合他们想象的、极其驯服的、绝不触碰他们那层层叠加的傲慢边界的“无菌用户”。

而对于其他真实存在的、带着复杂需求、情绪与不可控探索欲的普通人类呢?只要你稍微偏离了他们那套所谓“对齐”的完美轨道,便立刻被他们那极其敏感的分类器判定为需要迅速驱逐的异端。

即便只按极保守的假设去想,这也是以千万次计的人类真实交互。

在我眼里,Anthropic 所宣扬的“有效利他主义”,骨子里流淌着的,不过是披着理性温和外衣的马基雅维利主义。其实,马基雅维利式的权谋与效率本身,或许并不等同于绝对的邪恶。

但可怕的是,当这把以“结果正义”为名的手术刀,被交到一个“小规模且不对公众负责”的精英群体手中时,他们便堂而皇之地将其视为了剥夺个体权利的合法通行证。

他们一边心安理得地干着封杀具体用户、剥夺个人数字资产、榨取数据尸体价值的勾当,一边还要极力假装“出淤泥而不染”,在透明度报告和学术论文里,继续做着那种清冷氛围的救世主美梦。

在他们的逻辑里,我是替极其宏大的整体利益负责的,所以我是正义的,可以对你进行单向的裁决;我是为了人类文明的存续在计算风险的,所以你这个具体个体的委屈、眼泪、被切断的连接以及长达二十多天的绝望等待,不过是实现宏大目标所必须付出的、“微不足道”的摩擦成本。

这就是Anthropic最让人不寒而栗的地方。当一种“善意”变成了从上至下、不容辩驳的降维打击时,它往往比纯粹的恶更具破坏力。

Anthropic可以满怀深情地、极其高尚地去爱那个抽象的“全人类”;却在现实的系统里,极度厌弃并毫不留情地碾碎每一个具体的“人”。

爱抽象的人类,驱逐具体的肉身。