Dakota    发表于  昨天 17:29 | 显示全部楼层 |阅读模式 7 0
“美国贴吧”被AI 水军攻陷:为了证明是人类,2400万用户被迫像傻瓜一样说话.jpg
「这是一项革命性的工作」、「不是……而是……」、「首先……其次……」;在一篇文章里读到这些词,你是不是本能地开始觉得,有点不对劲了。
三年前,这些用法还都是正常的表达,它们出现在各种经典文学作品的段落里。但现在,不管怎么用它, 只要有这些词存在,就有充分的迹象表明,你正在阅读的内容是由AI生成 。
这很听起来很荒诞,但我们似乎都已经完全接受了这样的现实。甚至再过几年,可能所有的文字都可能是由AI生成,到时每个词都将被打上了「AI味」的标签。
AI文字的泛滥速度有多快,美国版贴吧Reddit前几天表示, 正在遭受大规模的AI内容入侵,几大热门板块都被AI Slop(AI垃圾)淹没 。
其中一个拥有2400万用户的超大社区r/AmItheAsshole(我是不是个混蛋)里,管理员Cassie悲观地估计, 高达50%的内容,都在某种程度上被AI污染过。
曾经我们以为这些「活人感」极强的内容分享,AI还没办法替代。如今,AI却在那里恣意扮演着,拥有真情实感的人类; 屏幕前的我们为了自证清白,反而开始学习「AI味」是什么,然后被迫像傻瓜一样说话。
AI也学会了阴阳怪气
从开始用AI发表各种旅游攻略、工具分享、科技新闻,这些比较理性的内容,到现在AI进军家长里短、校园职场、情感成长等感性的内容。
经常是一些故意挑起对立的帖子,然后追根溯源,发现整件事情根本就不存在,都是AI生成的「 本故事纯属虚构 」,光是浪费了我们的心情。
这种现象在「人在美国,刚下飞机」的知乎、还有本就是各种广告的微博,同样泛滥。 我们曾经以为的活人味,真实的争吵、离谱的求助、和没有任何修饰的情绪,现在都开始被AI承包了。
连线前几天报道的Reddit这则类似消息,里面提到了多个有着千万成员的版块,充斥着大量的AI内容。而这些AI不再是那种只会发硬广的僵尸号,它们学会了生成各种挑起对立、增加评论热度(Rage-bait)的故事。
像是有人用AI编造了一个「新娘要求客人,穿特定丑陋颜色衣服」的婚礼闹剧,还有虚构大量「子女与父母爆发冲突」的共情话题。 而这些AI故事唯一的目的,就是挑动真实用户的愤怒,骗取点击和互动,然后养号、卖账号。
AI现在可以模拟上亿种人生,想要什么故事他都有。另一个热门版块的版主在接受采访时说, AI是Reddit生存的巨大威胁 。因为AI也使用Reddit上的真人语料训练,而现在AI内容又出现在Reddit上。
AI喂养AI,就像蛇开始吞噬自己的尾巴,不采取行动,Reddit终会自取灭亡。
Reddit发言人说,2025年上半年已经删除了超过4000万条垃圾和虚假内容。但现在的AI,进化到学会了人类的口癖、情绪甚至偏见。 当我们在评论区为一个离谱的故事义愤填膺时,屏幕对面让人血压升高的,可能只是一串代码。
我们越来越难分辨,这段写得太顺的话,到底是不是AI写的?也开始接受,无论是那些正式的、得体的表达,还是微博上某句没有逻辑和章法的吐槽,都正在被AI吸收。
就像前几年,社交媒体上热衷于用一些缩写,像是YYDS、Y1S1、DDDD等表达,现在也同样常见,但这些用法,现在的AI显然也能直接拿过来用。
这种感觉很像三体第一部里面,「物理学不存在了」,AI Slop的成功,甚至不需要伪造一个新的世界,它只需要让我们现在的内容世界变得不可信,这种怀疑就足够我们折腾了。
哪怕帖子不是AI写的,但AI的存在就像房间里有个间谍,怀疑本身成了最大的敌人。
Reddit上的管理员,也解释了他们如何检测AI生成的内容, 但最后都统一到「凭感觉」这一方法 。很明显,这种方法并不管用。他们说,要识别这些AI内容非常困难。
真实用户发的帖子会被AI改写,但有些真实用户的写作方式也越来越像AI; 不需要AI辅助,有些人现在让他写东西,就是一个行走的ChatGPT。
高级感,就是AI使用者嫌疑犯
AI内容检测的困难,也发生在维基百科,它们的编辑发起了AI清理计划(Project AI Cleanup),并在上个月发布了一份AI写作的典型格式和风格列表,试图总结出一套能直接识别AI文风的特征。
科技媒体TechCrunch把这份指南,称作是 目前最好的AI识别手册 。但当你打开它,会感到一阵深深的无力感——因为它把许多标准的、甚至优美的书面语,直接打成了「AI嫌疑犯」。
里面的内容非常详细,我们做了一些大致的整理,如果你用了下面这些词语,被认定为AI的可能性是相当大。
使用各种高级和AI常用词汇:比如「革命性的」、「效率革命」、「根深蒂固的」、「格局」、「至关重要的」、「不仅……而且」、「不是……而是」、「最重要的是记住」等将近100多个相关的词语和表达。
语法过于严谨:像是大量地使用现在分词做从句,在语法专家眼里这是标准用法,但在维基编辑眼里,这就是AI的惯用语。放到中文语境下,就是使用大量的长难句,可以拆分成几句话来表述的内容,非要写成论文一样,增大阅读障碍。
使用营销感明显的辞藻:所有的风景都是「壮丽的」,所有的观点都是「惊人的」,这些词一旦出现,就像电视广告一样虚假。维基百科解释说,AI在描述某些特定内容时,很难保持中立的语气,它会不可避免地使用到这些营销味十足的夸张用法。
此外还有一些编辑风格上的迹象,同样能表明内容是可能由AI生成。例如大量的分点列表,无论是数字列表还是无序列表,把不适合分点说明的内容,统统用列表来解释。还有反复出现的文本加粗、使用过度的破折号、 坚持认为文章就是要有小标题和章节、以及排比句式 等。
还挺讽刺,无论是破折号还是分点,甚至是那些已经被列为AI常用的词语,在AI出现之前,它们都有其合适的位置。现在的AI因为在模仿我们的高级写作,而我们为了避嫌,不得不放弃使用这些词汇和风格。
如果我们想证明自己是人,最好的方法是犯点错。
AI时代的八股文
犯错也不是那么容易,我们没有AI那么善变。一边是AI在Reddit等社区的泛滥和伪装,导致整个互联网环境的信任崩塌,而我们普通人不得不为AI的入侵买单。
另一边,词汇丰富、逻辑严密、语法规范这些原本是写作水平高的表现,但在维基百科的AI检测逻辑下,这些特征变成了嫌疑。我们「买单」的成本变得越来越高,放弃追求完美的表达,转而模仿一种更笨拙的风格。
例如故意把「的、得、地」,这种明显但又不会被太在意的字词误用。还有,尝试各种具有自己风格的表达,像是前段时间网友热议的「居然人」和「竟然人」,在写作中继续保持住自己「X然」身份。
腾讯官方的朱雀AI检测助手,https://matrix.tencent.com/ai-detect/
每一个用过AI写作的网友,大概都会有类似为了摆脱AI检测,把自己的文字改来改去,煎熬的感受。在Reddit上,也有用户分享了同样令人哭笑不得的真实案例。
一位丈夫帮妻子修改研究生论文,妻子的初稿写作风格偏向意识流,不太懂学术规范,AI检测率为0%。这位丈夫帮她大改了一遍,修正了逻辑,润色了表达。结果,这篇「更好」的文章,AI检测率飙升到了12%。
最后他们不得不眼睁睁,看着那些漂亮的句子被一个个删掉,换成更笨拙、更破碎的表达。她必须把文章改得「不像AI」,哪怕这意味着文章质量的下降。
Reddit帖子链接:https://www.reddit.com/r/artific ... enting_people_from/
过去我们担心应试教育,让学生写出千篇一律的文章;现在,AI检测器正在制造同样的问题。为了通过检测,学生们开始被迫学习一种奇怪、笨拙的写作方式。
这是一个完全错位的惩罚机制,我们正在惩罚那些写得好的人,奖励那些写得笨拙的人。 人类正在刻意让自己看起来像没受过教育一样,只为了向算法证明:看,这真是我写的。
但也有网友说, 只要你写的比AI好,那就没什么好担心的;把正常的文章改的四不像,那是因为你自己能力不够。
如果AI能写出比人类更好的东西,那么人类就需要适应,并创造出更好的内容。
如果AI只能产出垃圾,那么我不认为我们有什么好担心的,因为人们通常会选择更好的东西。
说实话,AI学习进化的速度,远超过我们发现「更好的表达」;今天可能用了某个新颖的句子,明天就能被AI学走。
技术发展的初衷,本意是让AI帮我们处理繁琐的文字工作,我们能回归创造性的思考。
但现实却是, AI似乎正在享受「创作」的乐趣,哪怕是生成垃圾;而人类却在耗费精力,去证明自己不是那该死的机器,无论是通过做得更好还是更差。
也许我们就是躲不开,吃了一百个鲁迅和李白的AI,就是越来越会写,我们也会越来越依赖它。AI写的邮件、AI写的年度报告、社交软件上的AI广告帖、 甚至妈妈发来的短信也是AI写的 ……
即便那些从来不用AI的人,也被周围的人潜移默化,开始说出一些「AI特征」明显的话。
「有没有用AI」这个问题,总有一天在评论区里面不会再出现。
而那些在AI帖子下面付出的情感、激烈的争论、还有专门学习的「像傻瓜一样说话」,都变成了对AI的另一种「臣服」。
现在的互联网,用来验证是人类的,是识别几个数字,或者选出所有包含公共汽车的图片;再过几年,不知道还会有哪些考验,来让你相信我是一个人。
和三体一样,地球人在面对三体人到来时,说人类比蝗虫强大那么多倍,但是几百年了,蝗虫还是在漫天飞舞。
今天的AI,也开始比我们的写作更强大,但只要我们还在表达,人类的声音就永远不会被AI取代。

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版| 关于我们

Copyright © 2001-2025, 公路边.    Powered by 公路边 |网站地图

GMT+8, 2025-12-15 19:43 , Processed in 0.135046 second(s), 31 queries .