許多企業近年將人工智能(AI)技術加入各種應用。據《華爾街日報》報道,歐洲私隱監管機構將加強審查企業使用AI的情況,聘請專家並開設新部門,調查違反歐洲保護私隱法案,即歐盟《通用數據保護條例》(GDPR)的各類行為。
報道指出,AI技術近年已在人力資源、零售、自動化生產和預防欺詐等領域投入使用。挪威數據保護局2020年起與64間不同領域企業合作,要求企業在監督下測試AI應用,局方研究、分析和政策部門負責人勞曼稱,AI技術日後會更為普及,「它正出現在所有領域。」
保證AI技術值得全球信任
歐盟監管機構據報計劃限制具有風險的AI用途,包括使用生物識別技術識別人類,或是利用AI操作關鍵基建設施等。歐盟競爭事務專員韋斯塔格早在前年已提到,如果歐洲能夠推動AI技術的使用規則,將有助於制訂「保證AI技術值得信任的全球規範。」
多個歐盟成員國已計劃自行加強監管AI。法國私隱監管機構上月表示,當局會創建一個有5名員工的AI部門,調查潛在的濫用AI技術行為。西班牙負責數碼化事務的國務秘書去年12月也稱,將在今年設立新機構來監督AI使用。荷蘭數據保護監管機構上月組建全新演算法監督部門,將與其他政府監管機構監督AI技術應用,該部門今年獲批100萬歐元(約835萬港元)預算,到2026年將增至360萬歐元(約3,048萬港元)。
AI技術平台「anch.ai」創辦人費蘭德指出,AI技術以學習歷史數據為基礎,不加監管恐帶來道德和法律挑戰。例如AI收集的個人數據可與系統內其他數據結合,讓AI演算法給出或會侵犯個人私隱的解決方案。一旦政府或企業未經審查就採納,很可能導致失去投資、聲譽受損甚至民眾個人資料外洩等後果。
費蘭德認為,各國政府當務之急就是設立專門機構,提供風險評估框架,審查使用AI技術的道德風險並加強監督。 ◆綜合報道
领取专属 10元无门槛券
私享最新 技术干货