人工智能通用大模型橫空出世,全世界看到了AIGC(人工智能生成內(nèi)容)的強(qiáng)大。與此同時,AIGC的可信度、隱私保護(hù)、倫理等問題亦引發(fā)空前爭議。
我國有關(guān)部門快速反應(yīng)。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法》),提出二十一條舉措。業(yè)界認(rèn)為,這是國內(nèi)首次明確針對生成式人工智能服務(wù)征求管理意見,將有利于推動AIGC產(chǎn)業(yè)健康穩(wěn)定發(fā)展。
AIGC負(fù)面影響顯現(xiàn),行業(yè)亟待規(guī)范
當(dāng)前,人工智能越來越多地被應(yīng)用于文本、圖像、視頻等生成工作,成為繼專業(yè)生成內(nèi)容(PGC)、用戶生成內(nèi)容(UGC)后的新型內(nèi)容生產(chǎn)方式(AIGC)。
然而從AIGC走進(jìn)公眾視線的那一刻起,種種爭議就一直圍繞著它。
版權(quán)之爭首當(dāng)其沖。2023年初,商業(yè)圖庫GettyImage多次指控AI公司StabilityAI未經(jīng)授權(quán)復(fù)制和使用其圖庫中逾1200萬幅受版權(quán)保護(hù)的圖片,用以訓(xùn)練其AI圖像生成模型?!度A爾街日報(bào)》也表示美國新聞集團(tuán)正準(zhǔn)備向OpenAI、微軟和谷歌等公司提起訴訟,要求AI工具在訓(xùn)練中對使用其內(nèi)容的部分進(jìn)行費(fèi)用補(bǔ)償。
數(shù)據(jù)安全、隱私安全等問題也隨之而來。據(jù)韓國媒體報(bào)道,三星內(nèi)部已先后發(fā)生三起誤用濫用ChatGPT案例,包括兩起“設(shè)備信息泄露”和一起“會議內(nèi)容泄露”,涉及半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等機(jī)密內(nèi)容。而摩根大通、軟銀等企業(yè)已經(jīng)開始限制員工在工作場合使用ChatGPT。
更有人利用AIGC強(qiáng)大的內(nèi)容生成能力偽造信息,多次引發(fā)熱議。比如近日廣州一女子在地鐵上的照片被他人使用AI技術(shù)“一鍵脫衣”,虛假圖片在網(wǎng)絡(luò)廣泛傳播;某男網(wǎng)紅使用“AI換臉”技術(shù),替換掉電視劇中的男主角頭像,制作自己與女明星親吻的畫面;今年2月,有人用ChatGPT寫了一條“杭州市政府將取消機(jī)動車尾號限行政策”的假新聞,讓不少人信以為真……
多國已對ChatGPT展開調(diào)查。4月初,意大利個人數(shù)據(jù)保護(hù)局宣布禁止使用聊天機(jī)器人ChatGPT,限制其開發(fā)公司OpenAI處理意大利用戶信息,并開始立案調(diào)查。加拿大聯(lián)邦隱私監(jiān)管機(jī)構(gòu)也宣布對OpenAI展開調(diào)查,因其涉嫌“未經(jīng)同意收集、使用和披露個人信息”。德國聯(lián)邦數(shù)據(jù)保護(hù)專員也表示,考慮數(shù)據(jù)安全,不排除封禁ChatGPT。
AI發(fā)展正在加速,AI治理也需要提速。多位業(yè)內(nèi)專家對人民網(wǎng)記者表示,我國此次出臺《管理辦法》非常及時,如此詳細(xì)的管理規(guī)定在全球范圍內(nèi)也很鮮見。
中國信息經(jīng)濟(jì)學(xué)會副理事長、廣州大學(xué)網(wǎng)絡(luò)空間安全學(xué)院教授齊佳音說,《管理辦法》的發(fā)布距離OpenAI發(fā)布ChatGPT全球公測僅僅過去四個月,有可能成為國際上第一部規(guī)制生成式人工智能的規(guī)章制度,體現(xiàn)了我國在人工智能治理領(lǐng)域的敏捷反應(yīng)能力,對于規(guī)范和促進(jìn)AIGC的發(fā)展無疑具有重要的引領(lǐng)作用。它將為全球的AIGC監(jiān)管提供模版,有助于加快人工智能治理制度建設(shè),推動AIGC產(chǎn)業(yè)規(guī)范有序發(fā)展。
強(qiáng)調(diào)安全,是為了更好地促進(jìn)發(fā)展
業(yè)內(nèi)專家認(rèn)為,《管理辦法》強(qiáng)調(diào)權(quán)益保護(hù),主要防范濫用行為。一方面是防范平臺濫用人工智能技術(shù)手段侵害用戶隱私,另一方面是防范用戶濫用生成式人工智能侵害他人權(quán)益。
人民網(wǎng)董事長、總裁,傳播內(nèi)容認(rèn)知全國重點(diǎn)實(shí)驗(yàn)室主任葉蓁蓁認(rèn)為,主管部門出臺《管理辦法》并非要限制人工智能發(fā)展,而是通過規(guī)章制度來“系好
安全帶”,加快發(fā)展、更好發(fā)展。他強(qiáng)調(diào):“在統(tǒng)籌發(fā)展與安全的問題上,不發(fā)展才是最不安全。”
我國高度重視人工智能技術(shù)發(fā)展,將其視為一項(xiàng)驅(qū)動科技創(chuàng)新、產(chǎn)業(yè)升級和生產(chǎn)力提升的戰(zhàn)略性新興技術(shù)。近年來,有關(guān)部門陸續(xù)發(fā)布《新一代人工智能發(fā)展規(guī)劃》《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計(jì)劃》《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展的指導(dǎo)意見》《關(guān)于支持建設(shè)新一代人工智能示范應(yīng)用場景的通知》等多個政策文件,為人工智能核心技術(shù)攻關(guān)、產(chǎn)品落地應(yīng)用以及探索發(fā)展新模式新路徑提供了重要指導(dǎo)。
在今年的全國兩會上,科技部相關(guān)負(fù)責(zé)人亦專門強(qiáng)調(diào),“將把人工智能作為戰(zhàn)略性新興產(chǎn)業(yè)和新增長引擎”,在推動人工智能基礎(chǔ)研究、應(yīng)用推廣、開放合作等方面繼續(xù)給予大力支持,并同時推動建立人工智能安全可控的治理體系。
齊佳音指出,此次公布的《管理辦法》為AIGC的研發(fā)和應(yīng)用劃出了底線和紅線,即提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗。同時,明確了AIGC的“提供者”對研發(fā)和應(yīng)用負(fù)有責(zé)任,即利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人需要對包括產(chǎn)品應(yīng)用、安全評估、算法合法性、數(shù)據(jù)合法性等承擔(dān)責(zé)任。此外,《管理辦法》還為AIGC的研發(fā)和應(yīng)用提供了糾偏機(jī)制。包括持續(xù)優(yōu)化糾偏、AIGC標(biāo)識提示、可審查機(jī)制、監(jiān)管引導(dǎo)機(jī)制、終止服務(wù)機(jī)制和懲戒處罰機(jī)制。
“《管理辦法》為AIGC的研發(fā)和應(yīng)用第一次立了規(guī)矩,使得AIGC的研發(fā)和應(yīng)用有了規(guī)制框架,對于規(guī)范和引導(dǎo)這一領(lǐng)域的發(fā)展具有十分重要的積極作用?!饼R佳音說。
專家呼吁進(jìn)一步重視潛在風(fēng)險
記者注意到,此次《管理辦法》也對一些可能出現(xiàn)的衍生問題提出防范舉措,如,要求利用生成式人工智能生成的內(nèi)容“應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀”、防止各類歧視、“不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實(shí)施不公平競爭”“采取措施防止生成虛假信息“防止傷害他人身心健康”等。
“這一點(diǎn)非常值得關(guān)注?!饼R佳音解釋說,以ChatGPT為例,其具有強(qiáng)大的類人化自學(xué)習(xí)能力和交互式文字處理能力,自動化語言生成帶有強(qiáng)烈的類人化語言風(fēng)格,這讓ChatGPT有可能擺脫單一的技術(shù)身份而擁有了類人化社會角色,成為深度參與和介入社會關(guān)系的“代理”。如果不加以限制,AIGC帶來的“人-機(jī)”社會互動將有可能代替真實(shí)的“人-人”社會交往,成為干擾人類真實(shí)社會關(guān)系的核心要素,這將帶來技術(shù)的異化和人的異化,是必須要加以防范的。
葉蓁蓁指出,AI平臺是有立場的,AI生成的內(nèi)容是有導(dǎo)向的,所謂“技術(shù)中性”是不存在的。因此,無論是喂養(yǎng)人工智能的語料數(shù)據(jù),還是模型本身的算法,都必須高度關(guān)注其政治方向、輿論導(dǎo)向和價值取向問題。不能放任AI脫離人類視野,不能無視AIGC“生成即傳播”特性的潛在風(fēng)險,要積極探索AI應(yīng)用和治理之道。
在AIGC價值觀培養(yǎng)方面,清華大學(xué)教授沈陽建議:應(yīng)該有更多“人的介入”。其中關(guān)鍵是要為大語言模型提供更多的解釋性語料,這對于修正AI的價值觀偏見以及知識成見非常重要。
據(jù)了解,目前人民日報(bào)社主管、依托人民網(wǎng)建設(shè)的傳播內(nèi)容認(rèn)知全國重點(diǎn)實(shí)驗(yàn)室已初步建立了AI意識形態(tài)風(fēng)險評測體系。該體系就采用了人機(jī)協(xié)作的方式進(jìn)行測評。
為從源頭上防止“技術(shù)脫軌”,在制度建設(shè)方面,4月4日,科技部在《科技倫理審查辦法(試行)》征求意見公告中提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。
沈陽表示,每一個AIGC平臺都應(yīng)設(shè)有倫理審查委員會,以確保其在發(fā)生大規(guī)模涌現(xiàn)時,符合法律道德和倫理規(guī)則?!拔覀儸F(xiàn)在對于訓(xùn)練師、心理師、倫理師、提示師的重視程度還不夠,需要進(jìn)一步提升。”
齊佳音指出,隨著技術(shù)的快速發(fā)展,相關(guān)規(guī)章制需要持續(xù)優(yōu)化,建議后續(xù)進(jìn)一步推出AIGC安全評估規(guī)范和管理流程規(guī)范。
“應(yīng)健全研發(fā)、審核、應(yīng)用與安全等多維標(biāo)準(zhǔn)規(guī)范體系,完善AIGC技術(shù)創(chuàng)新生態(tài)?!眰鞑?nèi)容認(rèn)知全國重點(diǎn)實(shí)驗(yàn)室科技發(fā)展部主任楊松建議,應(yīng)加快構(gòu)建國家頂層規(guī)劃、龍頭企業(yè)牽頭、高校科研機(jī)構(gòu)共同支撐的創(chuàng)新鏈產(chǎn)業(yè)鏈融合體系,完善數(shù)據(jù)共享機(jī)制,大力推動數(shù)據(jù)資源匯聚。