今天刷手机 ,看到一条支付宝被罚款 71.23 亿的新闻,本能的点开信息来源,发现是央视新闻刚刚报道的。
于是查看了下这个新闻 ,结果发现,原来这个是去年的旧闻,它其实是去年 7 月 7 日的新闻 。
这种拿去年、前年,甚至更久之前的旧闻充当新闻发布 ,我已经不止刷到一次了。
可怕的是,评论区的大部分人都没看出来,他们以为这就是新闻 ,就今天这条消息下有 200 多个评论,没有一个人反馈这是假新闻的。
另外,我再仔细查了下 ,这个假新闻竟然有一大堆作者在今年 7 月 7 日到今天 8 日(也就是这两天)一直在重复发布,他们有的是视频,有的是文章 ,有的是图片 。
我猜这些作者可能就同一个工作室的,要么这些作者用了相同的 AI 工具,批量生产了这些内容。
这些工具很明显重复拉取过去火爆的新闻资讯 ,然后在相同的时间发布,以获取流量,得到社交平台的流量分成。
这种真的是太恶心了,纯属在浪费互联网资源。
2019 年的一项调查发现 ,互联网 42.8% 的资讯都是假消息 。
要知道生成式 AI 是在 2022 年才出现,现在互联网上假消息的比例已经远超想象了,真实有用的信息真的很难刷到。
我看外网有一些网站就是完全反 AI 的运营模式 ,他们寻找真正专业的人来深度写作,很多都是论文的原作者。
但是国内确实没有做的好的这类平台,不过像科普中国这些平台和社交媒体账号也是这种模式 ,只是文章都太浅了,对一些人来说可读性就较差(我猜是那些作者害怕承担出错的责任) 。
总之,大家平时阅读资讯 ,还是要多加独立思考才行。如果看到似是而非的内容,先自行检索下,再做评论 ,或者让子弹飞一会儿再评论。
评论列表
展现了人性的复杂与美好,令人深思。