細思極恐!DeepSeek的胡編亂造正淹沒互聯網:真實性是當下AI最大的槽點
3月6日消息,細思以DeepSeek為代表的極恐AI大模型,正在以前所未有的胡當下的槽點速度進入人們的日常生活和工作。但你有沒有發(fā)現,編亂當你在使用AI時候,造正最它會胡編亂造,淹沒憑空捏造細節(jié)?
事實上,互聯在大家沉浸在AI帶來的實性效率和便利的同時,杜撰和造假已經成為當下AI最大的細思槽點。
知名互聯網評論人、極恐知名媒體人闌夕認為,胡當下的槽點DeepSeek的編亂胡編亂造,正在淹沒中文互聯網。造正最
他表示,淹沒最近一個星期以來,互聯自己看到的刷屏文章,至少有三例都是DeepSeek-R1生成出來的、充滿了事實錯誤的內容,卻因其以假亂真的迷惑性,讓很多朋友信以為真,情緒激動的分享傳播。
比如知乎的這條高贊回答,就是DeepSeek“一本正經胡說八道”的最典型的例證,而且由于輸出的提示詞到位,文風也接近人類,一般人還真不容易看出來。
比如,文章說哪吒電影里的敖丙變身鏡頭在法國昂西動畫節(jié)上轟動業(yè)界。
問題是,法國是有一個昂西動畫節(jié),哪吒的電影也是送去參展過,但那是追光動畫出品的《哪吒重生》,而不是餃子導演的《哪吒》。
而且因為審核原因,這部送展的《哪吒重生》宣傳片實際上是一部品牌概念片,內容是在一個現代都市里的賽車動作演示,哪吒根本就沒出現,更不存在敖丙的變身。
另外,關于文章提到的哪吒的制片方給員工分成都房子、攻克水下流體特效之類的描述,全都是DeepSeek為了完成這篇命題作文“腦補”出來的,壓根不存在。
這樣的例子,可太多了。之前筆者也嘗試用DeepSeek寫過一篇命題稿件,就發(fā)現DeepSeek為了迎合你的要求,會自己加戲,從而憑空想象出很多不存在,或者還未發(fā)生的細節(jié),直接當成真實事件嵌入到文章里。
而如果一旦這樣的內容多了,這些看似真實的內容甚至會被AI重新咀嚼回去訓練,再被下一次輸出時引用。這時候,真真假假就更難以分辨了。
事實上,兩會期間,全國人大代表、科大訊飛董事長劉慶峰就提到了“AI幻覺”的話題。他擬提交一份《預防大模型生成“幻覺數據”充斥互聯網帶來的危害,從技術研發(fā)和管理機制上構建可信的信息環(huán)境》的建議。
劉慶峰提到,中國互聯網絡信息中心(CNNIC)發(fā)布的《生成式人工智能應用發(fā)展報告(2024)》顯示,我國生成式人工智能產品的用戶規(guī)模已達2.49億人。
生成式人工智能存在幻覺,特別是深度推理模型的邏輯自洽性提升,使得AI生成內容真假難辨。帶有算法偏差的虛假信息會被新一代AI系統循環(huán)學習,形成惡性循環(huán),影響公眾信任和社會穩(wěn)定。
劉慶峰建議,應構建安全可信數據標簽體系,提升內容可靠性。通過建立安全可信、動態(tài)更新的信源和數據知識庫,對不同類型數據的可信度和危害程度建立標簽體系,降低人工智能幻覺出現概率,提升生成內容可靠性。
另一方面,要研發(fā)AIGC幻覺治理技術和平臺,定期清理幻覺數據。通過研究幻覺自動分析的技術和軟件平臺,開展幻覺自動分析、AIGC深度鑒偽、虛假信息檢測、有害內容識別以及互聯網傳播溯源,由相關部門定期清理幻覺數據,為公眾提供AIGC幻覺信息檢測工具與服務。
闌夕也認為,AI當然可以創(chuàng)造內容,但前提一定要是注明它由AI生成,不能魚目混珠,讓它以一種不可辨識的方式成為互聯網的原生信息。
此外,大模型廠商和內容平臺也有義務,把類似數字水印那種兜底方案同步推進起來。
如果放任自流,眼前的信息是真是假,我們可能很難再辨別了。