|
||||||||||||||
用技術和法規防控倫理風險 為生成式AI這匹“黑馬”套上“韁繩” | ||||
![]() |
||||
發布時間: 23-02-14 08:59:25am 文章來源: 科技日報 | ||||
一方面,生成式AI固然便利了生產、生活,帶動了社會的進步;另一方面,生成式AI可能會被人們無意濫用,甚至被目的不純之人惡意利用,對社會造成危害。——閆懷志 北京理工大學網絡與安全研究所所長 談到AI領域的未來發展,就不得不提到生成式AI。如今,一經推出就迅速在各大社交媒體上走紅的、由美國人工智能公司OpenAI發布的聊天機器人ChatGPT便是一種生成式AI。 近日,OpenAI又以“區分人工編寫還是AI生成的文本”為目的,趁熱打鐵地推出了一款AI檢測器。 濫用生成式AI可能帶來哪些危害?AI檢測器對于消除此種危害有何助益?如何利用包括AI檢測器在內的多種手段,在推進生成式AI產業化的同時,促進生成式AI的規范使用?針對上述問題,科技日報記者采訪了相關專家。 生成式AI是把雙刃劍 “通常來說,生成式AI是指使用機器學習等各種AI算法,讓人工智能能夠利用數據進行學習,進而創建或生成全新的原創內容的一種技術。”北京理工大學網絡與安全研究所所長閆懷志表示,“目前,生成式AI能生成文本、圖像、音頻、視頻或代碼等多模態的原創內容。” ChatGPT作為一款人工智能技術驅動的自然語言處理工具,通過學習和理解人類的自然語言來進行對話,并能根據對話的上下文與人類進行相應的互動。與此前同類型的模型不同,ChatGPT不僅在對話的真實感與流暢性上取得了很大的提升,更在互動性上幾乎“無出其右”。 以ChatGPT的橫空出世為代表,生成式AI在技術上的不斷突破,正驅動著全球生成式AI產業的加速發展。優秀的生成式AI有望成為新一代智能助手與信息檢索工具,其不僅可以帶動科技研發、工業設計等領域的深刻變革,還能在藝術和內容創作等的過程中減少以往調色、勾畫輪廓等繁瑣的程序性工作,極大地推動各類數字化內容的生產與創造。隨著產業集群效應的進一步擴大,生成式AI正迅速成為全球科技領域最具投資價值的熱門賽道,極大地影響了全球的科技創新與產業發展格局。 然而,隨著生成式AI的爆火,其安全性也遭到了質疑。近日,一份關于ChatGPT的報告顯示,在500名IT行業決策者中近一半的人認為,2023年內,將會出現個人惡意使用ChatGPT發動的網絡攻擊。無獨有偶,此前的AI繪畫等其他生成式AI同樣遭受過相應的質疑。 “生成式AI是一個‘可怕的好東西’。”閆懷志表示,“一方面,生成式AI固然便利了生產、生活,帶動了社會的進步;另一方面,生成式AI可能會被人們無意濫用,甚至被目的不純之人惡意利用,對社會造成危害。” 閆懷志進一步解釋道,生成式AI能夠產出逼真的文本、圖像、音頻、視頻等內容,可能會被濫用于詐騙、欺詐、剽竊、造謠、偽造身份等不當甚至違法的場景。 “以AI檢測AI”避免技術濫用 ChatGPT不僅能像人一樣進行聊天對話,它還能根據用戶的要求作詩、編代碼,甚至寫論文。 正因如此,OpenAI近日還推出了AI檢測器,其目的正是為了檢測一段文本是否為AI生成,從而幫助人們更好地識別文本來源,避免AI文本生成器被濫用,造成一系列不好的影響。 “在很多場景下,對文本、圖片等是否由AI生成進行識別是必要的。而這種識別所用到的檢測工具,就是AI檢測器。”閆懷志說,“AI檢測器在技術架構上與生成式AI類似,以生成式AI創作的內容與非生成式AI創作的內容作為數據進行訓練,通過大量的訓練數據來‘培養’識別能力。” 這種“以AI檢測AI”的方式,充分發揮了AI學習的優勢。 閆懷志表示,通常來說,目前的AI檢測器并不會給出是或否的精確判斷,而是根據置信度給出“很有可能”“可能”“不清楚”“不太可能”“非常不可能”等模糊判斷,將最終評判權交由人類自身。 然而,目前AI檢測器的檢測水平并不理想。閆懷志說:“OpenAI研發的AI檢測器的檢測成功率僅為26%左右,還處于較低水平。” 據悉,OpenAI推出的AI檢測器能較輕松地區分單獨的人工編寫文本和AI生成文本。然而,當人工編寫文本與AI生成文本混合在一起時,該檢測器就難以進行準確識別了。 目前AI檢測器的檢測水平,顯然無法有效解決濫用生成式AI帶來的危害。“如果AI檢測器的檢測成功率能夠得到較大提升,必將有助于解決目前使用生成式AI所帶來的部分問題。但很顯然,目前離達到這個目標,還有很長的路要走。”閆懷志表示。 多管齊下促進生成式AI健康發展 在享受生成式AI所帶來的巨大利好的同時,我們應該采取措施來規范其使用,而這些措施里,既包括AI檢測器在內的各類技術手段,也包括制定相關規范性的政策法規。 相關專家曾提出,生成式AI是由人類設計的。因此,人類也需要在生成式AI的程序中嵌入相應的限制手段,使它的行為以保障人類安全為底線。換句話說,就是要用優先級更高的技術規則去限制其他技術。 “ChatGPT規避技術倫理風險的方案大概就是遵循了這個思路。”思必馳科技股份有限公司聯合創始人兼首席科學家、上海交通大學教授俞凱解釋道,“人類通過對一些特定的問題進行優先判斷,并以此構建具有約束力的模型,再讓這個模型在ChatGPT的整個模型訓練過程中發揮作用,以保證其回復符合人類倫理。此外,應該還有一些‘兜底技術’,讓ChatGPT對于一些敏感問題不予回復。” 閆懷志表示:“除了這些技術手段外,我們還需要明確界定生成式AI的應用場景和使用范圍,并在必要的情況下向人們告知哪些內容是通過生成式AI生成的。”通過相關的技術規范,界定生成式AI的應用場景和使用范圍,有利于保障生成式AI遵循相應的技術倫理要求。 除此之外,相關政策、法律法規的制定,也正在推動著生成式AI產業的健康有序發展。 據悉,國務院于2017年發布了《新一代人工智能發展規劃》,明確“初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”。國家新一代人工智能治理專業委員會也相繼于2019年和2021年發布了《新一代人工智能治理原則——發展負責任的人工智能》和《新一代人工智能倫理規范》。上述文件為我國目前生成式AI的發展提供了堅實的法律法規和標準保障。 “我們應該完善生成式AI的法律監管機制,堅持正義的普適價值標準、安全的核心價值目標、創新的根本目的,構建相應的倫理規范體系。”首都經濟貿易大學法學院訴訟與司法制度研究中心主任陳磊表示,“具體說來,法律監管可分為事前、事中、事后三個階段。事前應注意預防,投資者在研發生成式AI之前,應向有關部門提交申請書,將其人工智能的主要內容進行闡述和備案;事中須加強管控,在發現生成式AI侵犯他人著作權或者內容涉及倫理道德不當時,應當及時進行管控;事后要注意監督,對相關侵權行為及時進行處罰,保障他人合法權益。” “可以想見,未來生成式AI技術與監管的博弈必將展開。”閆懷志表示。
|
||||
【關閉窗口】 |
中國企業聯合會、中國企業家協會 地址:北京市海淀區紫竹院南路17號 郵編:100048 中國企業聯合會信息工作部 技術支持 京ICP證 13027772號 |