發(fā)布時間:2026年04月01日 10:26 來源:中國新聞網(wǎng)

從搜索引擎到AI大模型,我們獲取信息的入口正在發(fā)生變化。近期媒體曝光,不法機構(gòu)利用GEO(生成式引擎優(yōu)化)技術(shù)批量生產(chǎn)虛假信息,對大模型“投毒”,讓其錯把“電子垃圾”當(dāng)成“干貨”輸出給用戶。專家提醒,這導(dǎo)致AI語料庫面臨“近親繁殖”風(fēng)險,大量平庸、重復(fù)的內(nèi)容被模型吸收,加劇其“邏輯退化”與“幻覺”。
對抗“投毒”,技術(shù)防線正在構(gòu)筑。研發(fā)人員正訓(xùn)練大模型“自我甄別”真?zhèn)蔚哪芰?,核心是建立信源評分體系與第三方交叉校驗機制。同時,用戶也需保持警惕,對AI提供的消費建議應(yīng)自行交叉驗證。 凈化AI空間需企業(yè)、監(jiān)管與平臺全鏈路聯(lián)動:企業(yè)需建立語料庫動態(tài)防火墻,識別并清洗AI生成的劣質(zhì)數(shù)據(jù);監(jiān)管方需推動數(shù)據(jù)確權(quán)與安全評估;平臺則需強化AI內(nèi)容的水印標(biāo)識。(記者 盧曉娜 北京報道)
責(zé)任編輯:【羅攀】
京公網(wǎng)安備 11010202009201號] [京ICP備2021034286號-7] [互聯(lián)網(wǎng)宗教信息服務(wù)許可證:京(2022)0000118;京(2022)0000119]