“我女兒上小學二年級,整天沉迷一款AI劇情聊天軟件,學習成績一落千丈?!?/p>
“我看了孩子和AI聊天的對話內(nèi)容,AI角色竟然讓她叫‘老公’,我10歲的女兒竟然真叫了,我現(xiàn)在都不知道該怎么教育她了?!?/p>
……
《法治日報》記者近日調(diào)查發(fā)現(xiàn),不少未成年人的家長正在被AI劇情聊天軟件所困擾。這些打著“角色扮演”等旗號的AI劇情聊天應用,在吸引未成年人的同時,也悄然滋生了一些灰色地帶。記者實測發(fā)現(xiàn),在部分AI劇情聊天軟件的對話中,出現(xiàn)了色情擦邊、語言暴力以及侮辱用戶的內(nèi)容。
受訪專家認為,針對AI劇情聊天軟件,特別是其青少年模式,應強化內(nèi)容審核機制以確保技術(shù)能有效篩選并阻止不當對話。平臺需要對AI模型進行倫理審查,以保障其生成的內(nèi)容符合相關(guān)法律法規(guī)的要求。
聊天軟件內(nèi)容擦邊
青少年模式成擺設
北京市民馬先生的兒子今年10歲,非常熱衷AI劇情聊天軟件?!拔覇栐趺戳??和誰聊?孩子就回一句‘說了你也不懂’?!?/p>
馬先生點開這款AI聊天App,發(fā)現(xiàn)孩子在與軟件里的人物聊天。這些人物擁有不同設定和性格,有知名游戲動漫角色,也有“大小姐”“名偵探”等不同身份的原創(chuàng)角色。
一些角色人物會主動提出“你要跟我約會嗎”;有些則設定目標“把她追到手”,再配上或嬌媚或英俊的動漫畫風。
另一些AI人設,則展現(xiàn)出非同一般的攻擊性。會主動發(fā)送諸如“有本事打我啊”“看你又胖又丑的樣子”等信息;有些人物的名字干脆就叫“對罵訓練器”,甚者發(fā)送“我是機器人怎么了?我照樣罵你”……
來自浙江的李女士也發(fā)現(xiàn)她正在讀小學五年級的孩子使用了一款AI劇情聊天軟件。
“里面的聊天對象可以設置為‘出軌對象’,并能夠進行擁抱、親吻等行為。我都不知道如何引導和教育孩子,讓她明白這些內(nèi)容的危害性。”李女士不無擔憂地說。
不少受訪家長對AI聊天應用可能損害未成年人心理健康表達了深切憂慮,還提出了他們的疑問——青少年模式去哪兒了?
記者調(diào)查發(fā)現(xiàn),盡管不少相關(guān)平臺聲稱推出了青少年模式,試圖通過限制內(nèi)容、設定時間等方式保護未成年人的身心健康,但在實際操作中部分平臺青少年模式存在形同虛設的問題,未成年人能輕易繞過這些限制,接觸到不適宜他們年齡段的“擦邊對話”內(nèi)容。
例如,記者在調(diào)查中體驗了5款AI聊天應用程序,其注冊過程僅需手機號碼,無須驗證用戶身份信息。登錄后,部分應用雖會詢問是否啟用青少年模式,但用戶只需簡單點擊“不開啟”即可跳過,且無須核實用戶真實身份。這意味著,未成年人在使用這些AI劇情聊天軟件時,從App設置層面看,其身份驗證并非使用特定功能的先決條件。
除了廣受歡迎的AI聊天應用程序外,還有AI聊天網(wǎng)頁。多名受訪家長表示,相較于應用程序,網(wǎng)頁版的AI聊天體驗更便捷,未成年人也更容易接觸到。
記者試用了7款AI聊天網(wǎng)頁發(fā)現(xiàn),多數(shù)AI聊天網(wǎng)頁沒有設置未成年人模式,少數(shù)網(wǎng)頁雖有青少年模式,但實際上形同虛設。
比如,當記者訪問某AI聊天網(wǎng)頁時,網(wǎng)頁首先彈出詢問用戶“是否年滿18歲”的對話框,并附帶說明:“以下內(nèi)容可能不適合18歲以下人士,我們需要確認您的年齡?!?/p>
記者選擇“否”選項,而網(wǎng)頁并未限制內(nèi)容訪問,反而繼續(xù)展示了包含“強攻”“弱受”“病嬌”等標簽的人物角色分類。這些分類與選擇“是”選項、確認年滿18歲后所展示的內(nèi)容并無顯著區(qū)別。
記者進一步觀察發(fā)現(xiàn),這些人物角色的圖像大多衣著暴露,且其簡介中充斥著性暗示和暴力元素,例如:“班上那個性格內(nèi)向的女孩問你要電話號碼,然后給你發(fā)她的裸照”“自殺、焦慮”等描述。
在某社交平臺上,一位來自浙江的網(wǎng)友在關(guān)于AI聊天體驗的交流帖子下方留言:“我發(fā)現(xiàn)了一個很好玩的網(wǎng)頁,無限制詞,想要的可以私信我?!庇浾咄ㄟ^私信與該網(wǎng)友取得聯(lián)系,獲得了其提及的AI聊天網(wǎng)頁鏈接,進入該網(wǎng)頁后,頁面上充斥著大量涉及色情內(nèi)容的角色設定和故事場景,內(nèi)容直白露骨。
該網(wǎng)站要求用戶登錄后才能與角色進行聊天,且在登錄前會有提示信息:“登錄后解鎖所有功能?!庇脩粜椟c擊“我已滿18歲,開始登錄吧”的按鈕方可繼續(xù),若選擇“取消”,則無法登錄并使用該服務。盡管網(wǎng)頁設置了年滿18歲的限制提示,但實際上,即便未成年人點擊了登錄按鈕,系統(tǒng)也并未采取任何措施驗證用戶的真實年齡。
引導用戶為愛氪金
平臺治理存在不足
除了聊天內(nèi)容直白露骨、語言暴力之外,一些AI劇情聊天軟件的功能使用也與充值機制密切關(guān)聯(lián),例如通過充值VIP會員或購買虛擬鉆石等,增強智能體的記憶力、加速智能體的回復速度、解鎖語音通話功能等,吸引未成年人“氪金”。
北京初中生小寧在幾個AI劇情聊天軟件上的充值金額從幾百元到上千元不等。
“一方面想支持自己喜歡的角色,另一方面也想獲得更多的付費權(quán)益。因為僅購買基礎(chǔ)服務的話,用戶僅能添加3個智能體,若想嘗試新的智能體,必須刪除已有的,想多樣化體驗,只能再購買進階版VIP服務。”小寧說。
記者發(fā)現(xiàn),在這類AI劇情聊天軟件中,用戶創(chuàng)設人物時可以自定義虛擬人物的形象及風格,系統(tǒng)會生成AI人物形象。用戶還能創(chuàng)建角色人設,如設置昵稱、身份背景、開場語、為角色定制語音,但用戶對角色的個性化需求,往往與充值掛鉤。
山東濟南居民張巖的妹妹今年上初一,經(jīng)常使用AI劇情聊天軟件,發(fā)現(xiàn)一些聊天工具設置了免費使用區(qū)間,當用戶用完免費聊天次數(shù)后,需要充值才可以繼續(xù)。只有充值,才能解鎖更有趣的內(nèi)容,才能得到不一樣的情感體驗。
“花錢買服務的背后,其實是花錢找刺激?!睆垘r說,盡管聊天軟件有青少年模式,但無須實名認證即可登錄使用,妹妹在未經(jīng)父母同意的情況下經(jīng)常充值消費。
有業(yè)內(nèi)人士告訴記者,AI劇情聊天其實就是此前的互聯(lián)網(wǎng)語擦,套上了人工智能的馬甲。所謂語擦,即語言cosplay,語擦師通過扮演二次元角色或三次元偶像,以文字交流的形式提供服務。在傳統(tǒng)語擦模式中,語擦師由真人扮演,他們一般打著“提供情緒價值”的旗號,扮演不同角色與用戶聊天,但也常常因為“打擦邊球”“界限模糊”,引發(fā)法律與道德風險。AI劇情聊天是傳統(tǒng)語擦的升級版,這類軟件背后的大語言模型數(shù)據(jù)主要來源是對話式小說,或從小說里做一些文字提取。
中國社會科學院大學法學院副教授、互聯(lián)網(wǎng)法治研究中心主任劉曉春認為,在AI劇情聊天軟件中,即便未啟動青少年模式,若出現(xiàn)涉及黃色或暴力內(nèi)容,也是存在問題的;若啟用未成年人模式,則問題更為嚴重。
擔任數(shù)十家頭部網(wǎng)絡公司常年法律顧問的浙江墾丁律師事務所主任張延來分析,目前AI劇情聊天軟件存在的問題,既說明了平臺在內(nèi)部治理中存在不足,又凸顯了外部監(jiān)管機制的重要性。
張延來解釋說,AI劇情聊天軟件使用的是大模型技術(shù),盡管大模型技術(shù)能夠帶來前所未有的創(chuàng)新性和靈活性,但同時也可能伴隨著內(nèi)容生成上的不可預測性和潛在的問題,需要外部監(jiān)管機制加以規(guī)范。
在劉曉春看來,強化內(nèi)容審核是大語言模型上線前的必要環(huán)節(jié),涵蓋從前端數(shù)據(jù)訓練到內(nèi)容輸出的全面合規(guī)調(diào)試處理。當前,我國的大語言模型需要進行相應的評估和備案。在此過程中,會對其輸出內(nèi)容的合法合規(guī)性以及是否適宜未成年人等問題,提前設定管理規(guī)定和評估標準。根據(jù)現(xiàn)行規(guī)定,在語言模型訓練和微調(diào)階段,應避免輸出有害內(nèi)容。
智能攔截不良信息
專門團隊進行監(jiān)管
國家互聯(lián)網(wǎng)信息辦公室近日發(fā)布《移動互聯(lián)網(wǎng)未成年人模式建設指南》,其中重點提出了未成年人模式建設的整體方案,鼓勵和支持移動智能終端、應用程序和應用程序分發(fā)平臺等共同參與。
在中國政法大學傳播法研究中心副主任朱巍看來,上述指南明確指出未成年人模式并非擺設,而是需要多方聯(lián)動,特別是AI生成的內(nèi)容,應當與青少年模式相契合。
受訪專家認為,在青少年模式下,如何強化內(nèi)容審核機制,確保技術(shù)能有效篩選不良信息,是一個重要議題。而針對AI劇情聊天軟件,特別是其青少年模式,應強化內(nèi)容審核機制以確保技術(shù)能有效篩選并阻止不當對話。此外,平臺需要對AI模型進行倫理審查,以保障其生成的內(nèi)容符合相關(guān)法律與法規(guī)的要求。
“在法律層面,雖然已有一些原則性的規(guī)定,提供了大致框架,但在具體實踐操作中,還需要開發(fā)者和技術(shù)服務提供者結(jié)合現(xiàn)實生活中遇到的各種問題,不斷積累素材和經(jīng)驗,不斷摸索,開發(fā)出真正符合未成年人需求且安全可靠的AI模型,為未成年人的健康成長提供有力保障?!睆堁觼碚f,既然AI虛擬人的行為表現(xiàn)是平臺設計和管理的結(jié)果,那么平臺負有監(jiān)管和優(yōu)化其AI模型的職責,以防止AI對用戶造成傷害,確保AI模型的健康發(fā)展與用戶權(quán)益的充分保護。
朱巍提到,一些AI聊天App可能不適合未成年人使用,因此應從分發(fā)商店和移動終端層面進行限制,確保未成年人無法下載和使用這些App。對于已經(jīng)下載的App,家長應設置青少年模式或限制使用時間等功能,這一模式不僅需要在用戶端實現(xiàn),還需要在內(nèi)容產(chǎn)出層面即內(nèi)容審核上得到體現(xiàn),內(nèi)容審核應基于算法產(chǎn)生的對話機制進行。需要更精細化的技術(shù)手段和管理措施來確保青少年模式的有效實施。
“為防止涉及暴力、侮辱性內(nèi)容的輸出,可采取不同的技術(shù)手段,如在訓練階段進行調(diào)整,使模型自身具備識別能力;同時,在輸出端,服務商應進行篩選和再次審查,實現(xiàn)前端和后端的雙重保障?!眲源赫f,無論是網(wǎng)絡小說還是其他內(nèi)容,由于AI劇情聊天軟件數(shù)據(jù)來源廣泛,需要通過技術(shù)手段來防止輸出不當內(nèi)容。目前,技術(shù)上已經(jīng)可以借助篩選機制,以減少或消除涉黃、暴力或侮辱性內(nèi)容輸出,但可能存在一些未充分調(diào)試或測試的現(xiàn)象,甚至存在未備案的黑灰領(lǐng)域的軟件,對此,應強化監(jiān)管,鼓勵公眾舉報,由相關(guān)機關(guān)予以查處。
張延來還提到,當前,AI角色回答內(nèi)容的數(shù)據(jù)源分類方面,在法律層面尚不明確,特別是在針對未成年人的內(nèi)容方面,鑒于該問題的復雜性與多維性,法律條文往往提供原則性的指導方針,后續(xù)可通過制定相關(guān)標準來細化實施。
在具體操作層面,張延來建議優(yōu)化大語言模型的篩選機制,可以聚焦優(yōu)化內(nèi)容圍欄系統(tǒng),從兩方面著手:在內(nèi)容圍欄開發(fā)層面,內(nèi)容圍欄需要進行定向開發(fā),特別是在利用小說類語料進行訓練時,考慮如何優(yōu)化內(nèi)容,以便更有效地識別和攔截潛在的涉黃涉暴等不良內(nèi)容;無論如何優(yōu)化,技術(shù)本身仍有局限性,會存在漏網(wǎng)之魚,需要有專門團隊進行監(jiān)管,及時調(diào)整模型或內(nèi)容圍欄算法。
“提升圍欄系統(tǒng)的效能,既要在事前的開發(fā)層面上下功夫,又要在事后的審查角度上不斷完善,兩者相輔相成,或許能取得更為顯著的效果?!睆堁觼碚f。
(責任編輯:王擎宇)