全球掀起產生式 AI 應用熱潮,ChatGPT 短時間推出 ChatGPT Plus 版,迅速讓 AI 盈利變現,台灣使用者可每月花 20 美元,獲更快回應速度。KPMG 安侯董事總經理謝昀澤表示,產生式 AI 不只在拚演算法、功能炫技,各大廠短期的決戰重點,還是在「正確性」與「可靠性」。
目前新一代產生式 AI 大戰第一回合,Google 緊急推出 Bard 對話機器人應戰,但答錯太陽系外行星第一張照片是誰拍?落得股價大跌。謝昀澤解釋,Google 具備有強大的 AI 演算法及雲端運算平台的能量,但「照片正確」環節跌倒,其實不是第一次。
謝昀澤分享,早在 2015 年 Google 就因 AI 演算法出包,將黑人照片辨識為大猩猩,落入種族歧視爭議風暴,幾乎 Bard 上埸同時,OpenAI 立即觀察到 ChatGPT 反應速度,遠遠追不上使用者的熱情,於是推出付費訂閱版,以降低使用者暴增造成等待或停止回應時間拉長。
ChatGPT 快速導入訂閱模式,但許多付費使用者仍常遇到服務滿載卡頓。謝昀澤認為,「答案有感的機器人,會取代只是歷史讀稿的機器人」、「反應快速的機器人,會取代頁面自轉圈圈的機器人」,但如何判斷答案「正確」且「適用」將是最大挑戰。
謝昀澤分析,各大廠產生式人工智慧大對決的後續觀察重點,除了「採用訂閱營利或廣告營利?」「如何以 API 創造生態圈?」「如何與瀏覽器或辦公室軟體整合?」等「商業模式」比拚,誰能持續稱霸 AI 進化世界的關鍵,還是在有沒有足夠 AI「科技治理」能力。
謝昀澤認為,影響產生式 AI 風險,需嚴格管理的三大「暗黑情境」為「更迷離的深假(Deepfake)」、「更智慧的駭客」及「更暴露的使用者隱私」。
產生式 AI 就像雙面刃
以「深假技術」為例,謝昀澤指出,已可做到使用甲臉孔搭配乙身材與動作,自然用丙嘴型說出假內容,然而產生式 AI 技術大躍進就像雙面刃,如果駭客或犯罪組織使用相同技術,將造成重大損失。
謝昀澤說明,如駭客用 ChatGPT 針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員匯款,或駭客用產生式 AI 強大分析與歸納功能,找出企業內未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。
謝昀澤補充,因產生式 AI 具備寫基礎程式的能力,惡意程式開發門檻將大幅降低,連不會寫程式的人都能當駭客等,雖然各 AI 系統都有使用規則與迴避有害內容的功能,但還是有許多控管漏洞,都可能被有心人士繞過。
「深假技術」將造成威脅
KPMG 安侯執行副總經理林大馗預測,如果產生式 AI 連動既有深假技術,可能導致風險加乘,未來 AI 創造的假文章、假程式、假郵件、假影片將大量湧現且難以辨識,進而影響到產生式 AI 的正確性。
企業資安除了標配防火牆與防毒軟體,可能還需透過「人工+工人智慧」打假工具及內容確認工程師等協作,才能有效降低 AI 的資安風險。林大馗建議,新興風險治理工具尚未成熟前,一般企業可建立「智慧型主動式」的防護能量。
林大馗舉例,像是公開影片添加專屬雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,或在視訊會議請客戶往左或右轉頭 90 度,並維持一小段時間等,以確保來源真實性,並防止駭客暗中蒐集與惡意竄改,更可避免駭客用來欺騙其他消費者。
參考「零信任」資訊架構
林大馗說明,或擴大運用「MFA 多因子認證」讓消費者透過兩種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備,如手機取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅。
為降低駭客攻擊的的風險及提升使用者隱私安全性,林大馗認為,企業可以參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次的驗證,降低單一識別方法失效的災損程度,確保適當的風險控管。
針對「深假進化」危機,林大馗提醒網路使用者,開始要建立「眼見不為憑」的警覺,一般民眾必須理解,過去習慣的「有圖有真相」有可能會變成「看片都上當」,網路收到影片時,應該收起對內容的好奇心,選擇安全可靠的科技應用廠商或服務,避免過度揭露個人資料,並強化防護認知。
(首圖來源:Unsplash)
從這裡可透過《Google 新聞》追蹤 TechNews