1. 中國西藏網 > 即時新聞 > 博覽

            意大利禁用ChatGPT 數據安全再次被擺上臺面

            專欄 發布時間:2023-04-04 09:44:00來源: 新京報

              ■ 專欄

              在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。

              近日,意大利宣布禁止使用ChatGPT,并限制OpenAI處理意大利用戶信息,同時,個人數據保護局開始對此前ChatGPT立案調查。這也使得以ChatGPT為代表的人工智能大模型還未全面進入普及應用,就迎頭撞上了數據安全的質疑。

              要看到,海量數據的積累帶來了人工智能的生產力質變,同時,從互聯網誕生起就始終縈繞左右的數據安全、隱私保護等問題,也成為了人工智能大模型無法回避的伴生難題。

              歐洲的個人數據保護走在前列

              從歷史來看,ChatGPT在歐洲率先遭遇數據安全的質疑幾乎是必然。

              自進入互聯網時代以來,歐洲在個人數據保護方面就始終走在全球前列,相關監管堪稱全球最早最嚴。

              1981年開始,歐洲議會就通過了世界上第一個個人數據保護條例,此后,相關的監管條例始終緊跟技術變化,甚至始終領先技術一步。例如,1995年,歐盟進一步針對個人數據隱私和流動通過了新的立法,而此時,互聯網時代也只是剛剛開啟而已。

              今時今日,關于個人數據保護的概念,多是在歐洲被率先定義,例如,數據的知情同意權、被遺忘權、數據攜帶權等等。因此,意大利援引全世界最嚴格的數據保護條例,對現在仍在測試階段的ChatGPT進行封禁,既顯得突然,同時又順理成章。

              客觀上說,當前的ChatGPT在數據隱私、合規、倫理等領域的確處在測試探索階段,用戶在使用的同時,也在不斷提供新的數據來訓練該模型。

              正因為仍處在黑盒測試之中,這些數據的合法性來源、用戶數據尤其是隱私的保護、黑盒中的數據與知識產權沖突等問題,都給法律、監管帶來了新的挑戰。因此,審慎為上的歐洲才決定采取一刀切的封殺政策。

              安全與創新之間的平衡挑戰

              如何確保數據授權、界定數據安全的責任與科技公司的義務,規避隱私泄露、知識產權等風險,這些都將是人工智能在大規模介入公共領域后,必須首先解決的問題。

              但與此同時,意大利這種一刀切的政策也并不值得鼓勵。

              過于嚴格且一刀切的監管政策,曾扼殺了歐洲在互聯網時代的科技創新能力。今天,在關于歐洲為何錯過移動互聯網時代的討論中,過于嚴苛缺少彈性的監管政策,一直被視為重要原因。

              例如,2016年歐盟通過了史上最嚴格的個人數據保護法之后,多家全球科技企業在歐洲均卷入了在數據上的反復博弈。

              2019年,美國信息技術和創新基金會下屬的數據創新中心曾發布報告指出,歐盟的數據保護條例并未產生預期的積極效果,反而增加了企業的數據合規成本、損害科技公司創新和競爭力,同時增加了消費者獲取在線服務的成本和不信任感。

              回到人工智能領域,在全球大賽跑的背景下,既要提前設定紅線和規則以保護公民數據安全,同時,又要防止監管過度帶來的創新不足問題,這是各國共同面對的政策難題,需要不斷尋找兩者之間的平衡。

              唯一可以確定的是,從人類近百年來科技創新與倫理沖突的經驗來看,在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。

              □馬爾文(互聯網從業者)

            (責編: 王東)

            版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。

            在线无码AV五月花_亚洲av一级在线观看_直接看黄网站免费无码_成 人 a v免费视频