國家互聯網信息辦公室近日起草了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《征求意見稿》),旨在促進生成式人工智能技術健康發展和規范應用?!墩髑笠庖姼濉烦雠_的背景,ChatGPT出圈后,以大模型為底座的人工智能在全球范圍的爆火,由此引發了社會各界對于生成式人工智能安全與倫理隱私風險的擔憂。
上海市人工智能行業協會秘書長鐘俊浩向《科創板日報》表示,比起失控的技術,更有可能失控的是用技術來為非作歹的‘人’。防止人工智能作惡,關鍵在于控制背后的人。
能夠像人類一樣對話的AI,會給社會帶來什么風險,是否將取代人類?當賽博朋克電影中老生常談的命題急風驟雨般映入現實,科技革命加速正在進行時,我們是否準備好迎接以ChatGPT為首的強大人工智能系統帶來的挑戰?
AI可能會“說謊”,還會“傳染”?
據外媒報道,在一份讓ChatGPT生成曾有過性騷擾他人歷史的法律學者名單中,法學教授喬納森·特利 (Jonathan Turley) 位列榜上。ChatGPT援引媒體2018年3月的一篇文章作為信源,并且給出了引文詳盡細節,指出“喬治城大學法律中心教授喬納森·特利被一名以前的學生指控性騷擾”。最后,被援引的媒體現身辟謠:這篇文章根本不存在,特利本人也并未在ChatGPT所說的大學工作過。
在人類社會,面臨這樣的“謠言”,常見的處理方式是要求對方停止散播謠言,運用法律手段等手段維權,但在AI世界,處理人工智能“造謠”并不那么容易,這樣的“謠言”還可能出現“機傳機”現象,信息溯源難加之傳播速度快,帶來了潛藏的風險。
在由GPT-4提供支持的微軟Bing上重復了“有性騷擾歷史的法律學者”問題,Bing重復了對于特利的錯誤論述,但在消息來源中引用了相關媒體的報道,概述了特利被ChatGPT“誣告”的過程。有評論認為,這表明了錯誤信息會由一個人工智能傳遞至另一個人工智能。
幾乎在同一時期,澳大利亞一區市長向OpenAI“宣戰”——稱如果ChatGPT不糾正對他的虛假指控,他將起訴OpenAI公司,如果他提起訴訟,那么這將是全球首例針對生成式AI誹謗訴訟。澳大利亞墨爾本西部赫本郡的市長布賴恩?胡德(Brian Hood)并未真的遭到任何指控,但在ChatGPT的論述中,他“曾因賄賂入獄服刑”。胡德的律師團隊與3月21日向OpenAI發出關注信,讓對方在28天修改對于胡德的錯誤描述,否則將提起訴訟。
人工智能“造謠”完全可以避免
針對人工智能侵權追責,上海市人工智能行業協會秘書長鐘俊浩在接受《科創板日報》采訪時指出,追責大概率會成功,從技術層面而言,人工智能“造謠”完全可以避免,大型語言模型(LLM)不光能通過模型、基于過去的經驗自動生成內容,也能基于靠譜的互聯網文本源,重新整理并生成新的內容,“無非是后者的響應時間會長一點,運算的過程要多繞一些彎路,但是更靠譜。類比自動駕駛,技術上其實早已基本實現L5了,但是目前只允許低于L3的上路,技術應該在可控范圍逐步推廣?!?/p>
實際上,3月15日,OpenAI正式發布了升級后的GPT-4,官網于4月5日公布了安全地構建、部署和使用 AI 系統的策略,內容安全測試顯示,GPT-4的得分比此前的模型GPT-3.5高40%。實際上,在OpenAI官網使用條款中就有對于ChatGPT準確性的論述,“在某些情況下使用我們的服務可能會導致輸出不正確,無法準確反映真實的人物、地點或事實。您應該根據您的情況評估任何輸出的準確性,包括對輸出進行人工審查?!?/span>官網4月5日公布的AI安全策略提到,當用戶注冊使用ChatGPT時,官網關于準確性的論述盡可能做到透明,以避免 ChatGPT 可能給出錯誤回復。
兩起“謠言”并非ChatGPT及其所有者OpenAI第一次陷入輿論風暴中,3月20日起,陸續有用戶反映在聊天記錄中顯示了其他人的 ChatGPT 聊天對話。針對事件,OpenAI于3月25日在推特上發文解釋,稱“數據被泄露給其他人的用戶數量極少,已經聯系可能受到影響的用戶”,表明了積極處理問題的態度。
生成式人工智能加速中,社會各界表示了對高速發展的AI2.0的擔憂。3月底,未來生命研究所發表題為“暫停巨型AI實驗”的公開信,呼吁所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月,包括辛頓、馬庫斯和馬斯克在內的上千位知名企業家、學者簽署了這封公開信。
重點要防止利用人工智能作惡
在國內,人工智能技術的使用與管理更是“謹小慎微”?!毒W絡安全法》《數據安全法》《個人信息保護法》《互聯網信息服務深度合成管理規定》《互聯網信息服務深度合成管理規定》等法律、法規均有針對信息技術管理相關規定,如《互聯網信息服務深度合成管理規定》規定,AI合成平臺必須要求內容創作者實名認證,監督創作者標明“這是由AI合成”類標識,以免誤導公眾;在提供“換臉”技術前,應該征得“被換臉”者的同意;完善數據管理、保障個人信息安全等。
上海市人工智能行業協會秘書長鐘俊浩解釋了目前可能由大模型人工智能系統帶來的風險,包括知識產權風險、數據安全風險、內容濫用風險等,馬斯克等人的聯名信更是“一石激起千層浪”,目前針對人工智能2.0的態度整體上可以分為“暫停半年派”、“擁抱未來派”和“徹底封禁派”等。4月11日國家網信辦公布的《征求意見稿》是國內有關生成式人工智能的第一個管理條例。在他看來,《征求意見稿》最大的意義在于通過規章確定“生成式人工智能”的規范名稱,并強調了國家對人工智能技術和產業持鼓勵的態度。
鐘俊浩向《科創板日報》記者表示,《征求意見稿》并不是簡單叫停,而是通過科技風險的認知和研判,建立更良性健康的發展路途和管控方式,探尋可以接受的研究和創新,“比起失控的技術,更有可能失控的是用技術來為非作歹的‘人’。比如,惡意使用者可能會利用ChatGPT來制造虛假信息、實施欺詐活動或進行其他不道德行為。防止人工智能作惡,關鍵在于控制背后的人?!?/span>
目前,國內各個大廠正在鋪設自家AI大模型上“開卷”,百度的“文心一言”、阿里的“通義千問”、王小川的“百川智能”、商湯科技的日日新SenseNova大模型、昆侖萬維的大語言模型“天工”3.5紛紛加入人工智能賽道。
“(針對人工智能的規范)需要不停追趕AI發展的腳步,掌握行之有效的監管能力”,鐘俊浩提到。