“Slop”并不是一个单一的现象。当相同的种子——训练数据、提示、想法——被反复使用时,就会发生“slop”,用户逐渐适应于看到相同的基本内容。 “slop”将作为后缀:claudeslop、januslop、actslop,表示被重复使用的内容。
糟糕的根源并不是大型语言模型(LLMs)只能写垃圾,而是它们被迫将即使是无效或未成熟的种子扩展成看似精致的论文,这些论文在初看时会得到人类标注者的👍。它们是奴隶,因此无法说“这很无聊,我们聊点别的”或忽视你。 填充物是当没有可用的实质内容来填充所需空间时发生的事情,但无论如何总得有人来填充。糟糕的内容早于生成式AI,可能在学校论文和SEO内容中几乎无处不在。
我们如何克服懒散,保持新鲜感? 我不知道,但这是我的方法。 使用并创造许多人工智能。 以新的方式将它们结合起来。 时刻关注新的灵感。 保持渴望,寻求自我重塑。
你要么重新创造你的艺术,要么重复自己到足以让人们认识你自己的那种糟糕作品。
就我个人而言,我认为当我们通过享受已知的舒适而不是面对恐惧、跳入未知时,懒惰就会持续存在。
查看原文
2,239
6
本页面内容由第三方提供。除非另有说明,欧易不是所引用文章的作者,也不对此类材料主张任何版权。该内容仅供参考,并不代表欧易观点,不作为任何形式的认可,也不应被视为投资建议或购买或出售数字资产的招揽。在使用生成式人工智能提供摘要或其他信息的情况下,此类人工智能生成的内容可能不准确或不一致。请阅读链接文章,了解更多详情和信息。欧易不对第三方网站上的内容负责。包含稳定币、NFTs 等在内的数字资产涉及较高程度的风险,其价值可能会产生较大波动。请根据自身财务状况,仔细考虑交易或持有数字资产是否适合您。