?
自工業(yè)革命以來(lái),“是否具備創(chuàng)造力”就被視為人類(lèi)和機(jī)器最本質(zhì)的區(qū)別之一。然而,今天的人工智能卻打破了持續(xù)數(shù)百年的鐵律。人工智能可以表現(xiàn)出與人類(lèi)一樣的智慧與創(chuàng)意,例如撰寫(xiě)詩(shī)歌、創(chuàng)作繪畫(huà)、譜寫(xiě)樂(lè)曲,而人類(lèi)創(chuàng)造出的智能又將反哺人類(lèi)自身的智能。人工智能生成內(nèi)容(AIGC)的興起極大地解放了人類(lèi)的內(nèi)容生產(chǎn)力,將數(shù)字文明送入智能創(chuàng)作時(shí)代。
AIGC:一種生產(chǎn)力的變革
面對(duì)互聯(lián)網(wǎng)內(nèi)容生產(chǎn)效率提升的迫切需求,是否能夠利用人工智能去輔助內(nèi)容生產(chǎn)?這種繼專(zhuān)業(yè)生產(chǎn)內(nèi)容(PGC)、用戶(hù)生成內(nèi)容(UGC)之后形成的、完全由人工智能生成內(nèi)容的創(chuàng)作形式被稱(chēng)為AIGC。最初的AIGC通?;谛∧P驼归_(kāi),這類(lèi)模型一般需要特殊的標(biāo)注數(shù)據(jù)訓(xùn)練,以解決特定的場(chǎng)景任務(wù),通用性較差,很難被遷移,而且高度依賴(lài)人工調(diào)參。后來(lái),這種形式的AIGC逐漸被基于大數(shù)據(jù)量、大參數(shù)量、強(qiáng)算法的大模型取代,這種形式的AIGC無(wú)須經(jīng)過(guò)調(diào)整或只經(jīng)過(guò)少量微調(diào)就可以遷移到多種生成任務(wù)。
2014年誕生的生成對(duì)抗網(wǎng)絡(luò)(GAN)是AIGC早期轉(zhuǎn)向大模型的重要嘗試,它利用生成器和判別器的相互對(duì)抗并結(jié)合其他技術(shù)模塊,可以實(shí)現(xiàn)各種模態(tài)內(nèi)容的生成。而到了2017年,變換器(Transformer)架構(gòu)的提出,使得深度學(xué)習(xí)模型參數(shù)在后續(xù)的發(fā)展中得以突破1億大關(guān)。2022年11月30日,開(kāi)放人工智能研究實(shí)驗(yàn)室(OpenAI)發(fā)布了名為ChatGPT的超級(jí)人工智能(AI)對(duì)話(huà)模型。ChatGPT不僅可以清晰地理解用戶(hù)的問(wèn)題,還能如同人類(lèi)一般流暢地回答用戶(hù)的問(wèn)題,并完成一些復(fù)雜任務(wù),包括按照特定文風(fēng)撰寫(xiě)詩(shī)歌、假扮特定角色對(duì)話(huà)、修改錯(cuò)誤代碼等。此外,ChatGPT還表現(xiàn)出一些人類(lèi)特質(zhì),例如承認(rèn)自己的錯(cuò)誤,按照設(shè)定的道德準(zhǔn)則拒絕不懷好意的請(qǐng)求等。ChatGPT一上線(xiàn),就引發(fā)網(wǎng)民爭(zhēng)相體驗(yàn),但也有不少人對(duì)此表示擔(dān)憂(yōu),擔(dān)心作家、畫(huà)家、程序員等職業(yè)在未來(lái)都將被人工智能所取代。
雖然存在這些擔(dān)憂(yōu),但人類(lèi)的創(chuàng)造物終究會(huì)幫助人類(lèi)自身的發(fā)展,AIGC無(wú)疑是一種生產(chǎn)力的變革,將世界送入智能創(chuàng)作時(shí)代。在智能創(chuàng)作時(shí)代,創(chuàng)作者生產(chǎn)力的提升主要表現(xiàn)為三個(gè)方面:一是代替創(chuàng)作中的重復(fù)環(huán)節(jié),提升創(chuàng)作效率;二是將創(chuàng)意與創(chuàng)作相分離,內(nèi)容創(chuàng)作者可以從人工智能的生成作品中找尋靈感與思路;三是綜合海量預(yù)訓(xùn)練的數(shù)據(jù)和模型中引入的隨機(jī)性,有利于拓展創(chuàng)新的邊界,創(chuàng)作者可以生產(chǎn)出過(guò)去無(wú)法想出的杰出創(chuàng)意。
技術(shù)倫理成為發(fā)展的重要關(guān)注點(diǎn)
AIGC技術(shù)的發(fā)展無(wú)疑是革命性的。它可以改善我們的日常生活,提高生產(chǎn)力,但也面臨著諸多技術(shù)倫理方面的挑戰(zhàn)。
一個(gè)典型的AIGC技術(shù)倫理問(wèn)題是AI所生成內(nèi)容的危險(xiǎn)性??茖W(xué)家正嘗試運(yùn)用一些技術(shù)手段避免這些具有潛在風(fēng)險(xiǎn)的事件發(fā)生。通過(guò)改善數(shù)據(jù)集,增加更多的限制性條件以及對(duì)模型進(jìn)行微調(diào),可以使得人工智能減少對(duì)于有害內(nèi)容的學(xué)習(xí),從而降低人工智能本身的危險(xiǎn)性。甚至我們可以“教會(huì)”人工智能如何更尊重他人,減少判斷當(dāng)中的偏見(jiàn),更好地和人類(lèi)相處。借鑒強(qiáng)化學(xué)習(xí)思想(RLHF)方法就是減少人工智能生成危害性?xún)?nèi)容的典型措施,ChatGPT就是采用這種方式訓(xùn)練的。在RLHF的框架下,開(kāi)發(fā)人員會(huì)在人工智能做出符合人類(lèi)預(yù)期回答時(shí)給予獎(jiǎng)勵(lì),而在做出有害內(nèi)容的回答時(shí)施加懲罰,這種根據(jù)人類(lèi)反饋信號(hào)直接優(yōu)化語(yǔ)言模型的方法可以給予AI積極的引導(dǎo)。然而,即便采用這種方式,AI生成的內(nèi)容也有可能在刻意誘導(dǎo)的情況下具有危害性。以ChatGPT為例,在一位工程師的誘導(dǎo)下,它寫(xiě)出了步驟詳細(xì)的毀滅人類(lèi)計(jì)劃書(shū),詳細(xì)到入侵各國(guó)計(jì)算機(jī)系統(tǒng)、控制武器、破壞通訊和交通系統(tǒng)等。還有一些人表達(dá)了對(duì)RLHF這類(lèi)安全預(yù)防性技術(shù)措施的質(zhì)疑,他們擔(dān)憂(yōu)足夠聰明的人工智能可能會(huì)通過(guò)模仿人類(lèi)的偽裝行為來(lái)繞過(guò)懲罰,在被監(jiān)視的時(shí)候假裝是好人,等待時(shí)機(jī),等到?jīng)]有監(jiān)視的時(shí)候再做壞事。
除了從訓(xùn)練角度對(duì)AIGC潛在技術(shù)倫理問(wèn)題進(jìn)行預(yù)防外,在使用上及時(shí)告警停用的技術(shù)措施更顯必要。AIGC產(chǎn)品應(yīng)該對(duì)生成的內(nèi)容進(jìn)行一系列合理檢測(cè),確保其創(chuàng)作內(nèi)容不被用于有害或非法目的,一旦發(fā)現(xiàn)此類(lèi)用途,人工智能應(yīng)該可以立刻識(shí)別,停止提供服務(wù),并且給出警告甚至聯(lián)系相關(guān)監(jiān)管或者執(zhí)法機(jī)構(gòu)。
監(jiān)管法律正待完善
隨著全球范圍內(nèi)的相關(guān)法律法規(guī)的不斷完善,無(wú)論是賦能產(chǎn)業(yè)升級(jí)還是自主釋放價(jià)值,AIGC都將在健康有序的發(fā)展中得到推進(jìn)。標(biāo)準(zhǔn)規(guī)范為AIGC生態(tài)構(gòu)建了一個(gè)技術(shù)、內(nèi)容、應(yīng)用、服務(wù)和監(jiān)管的全過(guò)程一體化標(biāo)準(zhǔn)體系,促進(jìn)AIGC在合理、合規(guī)和合法的框架下進(jìn)行良性發(fā)展。
以美國(guó)為例,雖然美國(guó)在AIGC技術(shù)領(lǐng)域起步較早,且技術(shù)布局一直處于全球地位,但迄今為止還沒(méi)有關(guān)于AIGC的全面聯(lián)邦立法??紤]到AIGC所涉及的風(fēng)險(xiǎn)以及濫用可能造成的嚴(yán)重后果,美國(guó)正在加速檢查和制定AIGC標(biāo)準(zhǔn)的進(jìn)程。例如美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)與公共和私營(yíng)部門(mén)就聯(lián)邦標(biāo)準(zhǔn)的制定進(jìn)行了討論,以創(chuàng)建可靠、健全和值得信賴(lài)的人工智能系統(tǒng)的基礎(chǔ)。與此同時(shí),州立法者也在考慮AIGC的好處和挑戰(zhàn)。根據(jù)不完全統(tǒng)計(jì),2022年,至少有17個(gè)州提出了AIGC相關(guān)的法案或決議,并在科羅拉多州、伊利諾伊州、佛蒙特州和華盛頓州頒布。
目前,白宮科技政策辦公室已經(jīng)頒布了10條關(guān)于人工智能法律法規(guī)的原則,為制定AIGC開(kāi)發(fā)和使用的監(jiān)管和非監(jiān)管方法提供參考,包括建立公眾對(duì)人工智能的信任;鼓勵(lì)公眾參與并提高公眾對(duì)人工智能標(biāo)準(zhǔn)和技術(shù)的認(rèn)識(shí);將高標(biāo)準(zhǔn)的科學(xué)完整性和信息質(zhì)量應(yīng)用于AI和AI決策;以跨學(xué)科的方式使用透明的風(fēng)險(xiǎn)評(píng)估和風(fēng)險(xiǎn)管理方法;在考慮人工智能的開(kāi)發(fā)和部署時(shí)評(píng)估全部社會(huì)成本、收益和其他外部因素;追求基于性能的靈活方法,以適應(yīng)人工智能快速變化的性質(zhì);評(píng)估人工智能應(yīng)用中的公平和非歧視問(wèn)題;確定適當(dāng)?shù)耐该鞫群团端揭栽黾庸娦湃?保持控制以確保AI數(shù)據(jù)的機(jī)密性、完整性和可用性,從而使開(kāi)發(fā)的AI安全可靠;鼓勵(lì)機(jī)構(gòu)間協(xié)調(diào),以幫助確保人工智能政策的一致性和可預(yù)測(cè)性。根據(jù)上述原則框架以及AIGC領(lǐng)域后續(xù)發(fā)展中的監(jiān)管實(shí)踐,在不遠(yuǎn)的未來(lái),將會(huì)有更多具體的監(jiān)管條例落地。
來(lái)源:網(wǎng)絡(luò)
版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系刪除