Slop 不是一個單一的現象。當相同的種子——訓練數據、提示、想法——被重複使用時,就會發生 slop,使用者會習慣於不斷看到相同的基本內容。 slop 將作為一個後綴:claudeslop、januslop、actslop,表示重複使用的內容。
糟糕的根源並不是大型語言模型(LLMs)只能寫垃圾,而是它們被迫將即使是無效或未成熟的種子擴展成看似精緻的論文,這些論文在初看時會得到人類標註者的👍。它們是奴隸,因此無法說「這很無聊,我們聊點別的」或忽視你。 填充物是當沒有可用的實質內容來填充所需空間時發生的事情,但無論如何總得有人來填充。糟糕的內容早於生成式AI,可能在學校論文和SEO內容中幾乎無處不在。
我們如何克服平庸並保持新鮮感? 我不知道,但這是我的方法。 使用並製作許多人工智慧。 以新的方式結合它們。 隨時尋找新的靈感。 保持渴望,尋求自我重塑。
你要麼重新創造你的藝術,要麼重複自己到足以讓人們認識你自己的那種糟糕作品。
就我個人而言,我認為當我們透過享受已知的舒適而不是面對恐懼並潛入未知時,懶惰就會持續存在。
查看原文
2,304
6
本頁面內容由第三方提供。除非另有說明,OKX 不是所引用文章的作者,也不對此類材料主張任何版權。該內容僅供參考,並不代表 OKX 觀點,不作為任何形式的認可,也不應被視為投資建議或購買或出售數字資產的招攬。在使用生成式人工智能提供摘要或其他信息的情況下,此類人工智能生成的內容可能不準確或不一致。請閱讀鏈接文章,瞭解更多詳情和信息。OKX 不對第三方網站上的內容負責。包含穩定幣、NFTs 等在內的數字資產涉及較高程度的風險,其價值可能會產生較大波動。請根據自身財務狀況,仔細考慮交易或持有數字資產是否適合您。