中國西藏網 > 即時新聞 > 國內

      平衡科技創新與隱私保護 多國計劃加強對ChatGPT監管

      發布時間:2023-04-10 11:07:00來源: 法治日報

        平衡科技創新與隱私保護

        多國計劃加強對ChatGPT監管

        □ 本報記者 王衛

        4月3日,德國聯邦數據保護專員烏爾里希·凱爾伯稱,出于對數據安全保護的考量,德國可能會效仿意大利,暫時禁用ChatGPT。他透露,禁用該軟件的行為將屬于德國聯邦數據保護機構的職權范圍。此外,德國聯邦數據保護機構要求意大利監管機構提供有關其阻止ChatGPT的更多信息。

        專家指出,推出兩個月即擁有1億活躍用戶,ChatGPT成為歷史上增長最快的消費者應用程序。固然ChatGPT在實際使用中表現驚艷,然而囿于大規模語言模型自身、數據原因等局限,仍存在成本高昂、信息泄露等劣勢。如何平衡科技創新與隱私保護仍需各方不斷探索。

        多國跟進限制措施

        近期,多國對ChatGPT的不滿、恐慌、抵觸等負面情緒正持續發酵。

        路透社報道稱,意大利個人數據保護局(DPA)近日宣布從3月31日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。此舉引發多國監管機構和企業的關注,德國、法國、愛爾蘭等國家已開始準備效仿意大利的做法,加強對ChatGPT的監管。

        德國《商報》4月3日援引烏爾里希·凱爾伯的話稱,原則上,類似屏蔽行動在德國也是可能的。德國已要求意大利提供有關其禁令的進一步信息。

        與此同時,據英國路透社報道,法國和愛爾蘭的個人數據監管機構已經和意大利的同行取得聯系,以了解更多有關該禁令的依據。愛爾蘭數據保護機構(DPC)的一位發言人說:“我們正與意大利監管機構跟進以了解他們采取行動的依據,我們將與所有歐盟數據保護機構協調此事。”

        加拿大廣播公司(CBC)4月4日報道稱,加拿大聯邦隱私監管機構宣布,已經對OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人信息”。報道同時提到,美國總統拜登及其科技顧問委員會在當日舉行的會議上也討論了人工智能的“風險和機遇”。

        據韓國《國民日報》4月3日報道,包括三星、SK海力士、浦項制鐵公司在內的多家韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密。LG電子公司雖然未發出禁令,但要求員工進行“人工智能及數據使用”方面的培訓。

        另據日經新聞網報道,出于對信息泄露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內的日本公司已開始限制在業務運營中使用ChatGPT等交互式人工智能服務。

        但瑞典的隱私監管機構表示,目前還沒有禁止ChatGPT的計劃,也沒有與意大利的監管機構取得過聯系。西班牙的監管機構稱,尚未收到任何有關ChatGPT隱私泄露或是其他方面的投訴,不過并不排除未來展開調查的可能性。

        涉嫌信息泄露風險

        這并不是ChatGPT第一次引發爭議。自從該服務推出后,就有人擔心它會被用來作弊、傳播假消息或誤導公眾。

        ChatGPT由美國人工智能研究實驗室OpenAI于2022年11月30日推出,具備非常驚艷的語言理解、生成、知識推理能力。據報道,推出后短短幾天內,其注冊用戶超過100萬,兩個月活躍用戶數已達1億,引爆全網熱議,成為歷史上增長最快的消費者應用程序,掀起了人工智能領域的技術巨浪。但不可否認的是,當ChatGPT運用更為廣泛的同時,與之相對應的疑問和擔憂也接踵而至。

        業界認為,ChatGPT目前技術尚處于早期階段,其自身存在較多問題。首先,身為大規模語言模型,ChatGPT使用成本高昂。ChatGPT基礎大模型訓練成本高、部署困難、每次調用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數據顯示,OpenAI為了讓ChatGPT的語言合成結果更自然流暢,共用了45TB的數據、近1萬億個單詞來訓練模型。這大概相當于1351萬本牛津詞典。訓練一次的費用高達千萬美元。

        其次,人工智能技術在信息泄露等方面的社會性風險,會因為使用的龐大數據規模被進一步放大。對于司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業務相關數據,這些數據在案件未符合司法公開條件之前,不能隨意公開,一旦發生數據泄露,可能導致嚴重后果。此外,OpenAI的使用條款并未對用戶可能輸入ChatGPT的數據信息提供任何保護。

        再次,ChatGPT準確率不高的問題不容忽視。由于ChatGPT的大部分答案都是從已知內容中摘錄或搜集而來,對于未知的或者ChatGPT知識的盲區,則可能會給出錯誤或者不恰當的建議意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會效果政治效果的統一,具有一定的人性化思考,而這些往往是人工智能有所欠缺和不足的,因此,此時ChatGPT給出的建議,會存在一定程度的偏頗。

        數據安全任重道遠

        對于ChatGPT暴露出的相關風險,歐盟對個人數據的保護走在前列。據報道,歐盟即將出臺的《人工智能法案》采取了一種基于風險程度對人工智能系統進行分類管理的監管思路。但是,類似ChatGPT這樣的生成式人工智能產品對當前的風險分類方法提出了挑戰。

        事實上,歐盟委員會早在2021年便提出了《人工智能法案》條例草案,不過提案的推進并沒有預想中順利。歐洲議會議員們爭議的核心是監管是否會阻礙創新,即如何平衡數據隱私與避免扼殺人工智能的創新和投資。其中最具爭議的領域是決定哪些人工智能系統將被歸為“高風險”。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規則進行磋商。

        不僅歐洲議會議員們尚未就提案基本原則達成一致,政府內部也引發了監管ChatGPT與否的爭議。

        4月2日,意大利副總理兼基礎設施與可持續交通部長馬泰奧·薩爾維尼在社交平臺上公開發文,批評DPA暫時禁止ChatGPT的決定,稱其屏蔽行為太“過度”了。他稱該監管機構的行為“太過虛偽”,這種做法像是沒有常識一樣,“幾乎所有的在線服務都無法避免涉及隱私問題”。在他看來,這項禁令可能會損害國家的商業發展和科技創新,希望能快速找到一個解決方案,早日恢復ChatGPT在意大利的使用。德國政府發言人同樣認為沒有必要禁止ChatGPT。

        專家表示,一邊是堅決禁用,一邊是寬容放行。爭議背后也說明,如何保護公民數據隱私、規避隱私泄露風險等問題,將是人工智能與大范圍覆蓋社會生活后,各主體必須要考慮和解決的問題。過于決絕的“一刀切”做法也不值得提倡,監管政策既要有可商討的彈性空間,也要能讓企業充分釋放出創新活力,更重要的是保護好公民的個人數據隱私與信息安全。這不僅是意大利、德國如今面臨的難題,各國都需要在保護數據安全和監管防控過度之間做好平衡,用杠桿支撐起科技創新與隱私保護兩端。

      (責編:陳濛濛)

      版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。

      主站蜘蛛池模板: 精品国内片67194| 国产精品国三级国产aⅴ| 国产乱码一区二区三区爽爽爽| 中文无码字幕中文有码字幕| 麻豆狠色伊人亚洲综合网站| 抽搐一进一出gif日本| 免费人成在线观看视频高潮 | 丰满多毛的陰户视频| 男女啪啪高清无遮挡免费| 国产高清视频一区二区| 久久综合香蕉国产蜜臀AV| 美女视频一区二区| 在线中文字幕第一页| 九九视频在线观看视频23| 美女被免费视频网站a| 国语精品91自产拍在线观看二区| 久久99精品国产麻豆婷婷| 男人天堂网2017| 国产男人午夜视频在线观看 | 短篇丝袜乱系列集合嘉嘉| 国产精品福利网站| 久久天天躁狠狠躁夜夜呲| 男男强行扒开小受双腿进入文| 国产精品一区二区综合| 中文字幕版免费电影网站| 欧美人与动人物姣配xxxx| 四虎影视免费在线| 7777久久亚洲中文字幕蜜桃| 日本孕妇大胆孕交| 人人爽人人爽人人爽| 成人国产在线24小时播放视频| 成人免费看www网址入口| 亚洲国产成人91精品| 色偷偷亚洲第一综合网| 国内大片在线免费看| 两个人看的www视频免费完整版| 欧美最猛黑人xxxxx猛交| 国产乱妇乱子在线播视频播放网站 | 久久久久亚洲AV成人片| 没带罩子让他玩儿了一天| 国产免费黄色大片|