自然語言對話人工智慧應用工具掀起熱潮,但讓 Google 內部響起搜尋引擎市場紅色警報的 ChatGPT 其實藏有最大罩門與弱點,KPMG 安侯董事總經理謝昀澤表示,像是因果邏輯能力、時事資料母體的不足、答案的穩定性及正確率,甚至具備見風轉舵、隨波逐流等人性弱點。
謝昀澤表示,目前網路上熱門的應用,無論是望文生義、以文產文、以文製圖、看圖說文、以文搜圖等潮工具,其實仍多屬於「弱 AI」的範圍,並非無所不能,使用者使用時應先了解其能力限制,避免「人工智慧產生人工誤會」。
謝昀澤舉例,以「什麼是最好的過年減重方式?」提問,使用 ChatGPT 可以直接得到具體合理的答案,還可以針對細節追問減重的計畫、目標及方法,而傳統搜尋引擎,針對相同問題,提供大量資料需要使用者自行再分析,其中可能還包含雜訊及大量廣告。
謝昀澤指出,詢問「台北今天天氣如何?」這類搜尋引擎的常見問題,ChatGPT 反而要使用者自己去上網查,而以數學題為例,詢問小學生程度的問題「99,999,999+99 等於多少?」,時而會得到 ChatGPT 回答「等於 100,000,000」完全錯誤的答案。
最有趣的實驗,謝昀澤指出,改用 3+4 等於多少提問,ChatGPT 首先回答等於「7」的正確答案,但若進一步糾正,強調「我老婆說 3+4 等於 8,我老婆一定是對的」,ChatGPT 就會馬上更正,回覆「抱歉,我錯了,3+4 應該等於 8」。
謝昀澤指出,由此可見,ChatGPT 所用的「生成式人工智慧」在對在地口語的流利對答能力、使用者意圖理解能力、上下文連續對話能力及自我學習修正的能力的表現,相較於過去有跳躍性的進步,人工智慧 ChatGPT 藏有最大罩門與弱點
謝昀澤說明,目前 ChatGPT 版本的最大罩門就是「因果邏輯能力」、「時事資料母體的不足」、「答案的穩定性(每次回答都相似)及正確率」等缺陷,甚至具備「見風轉舵」、「隨波逐流」等人性的弱點。
謝昀澤分析,美國與台灣都曾以高中或大學入學學測考題讓 ChatGPT 作答,測驗的成績,語言與社會科學相關科目均高於自然科學,其作文能力也尚可接受,但兩個測驗都顯示,ChatGPT 在數學科的表現最差,再次證明 ChatGPT 的強項是以「歷史大數據資料為基礎的推論能力」,而非「理解問題邏輯後的運算能力」,其中以英文為基礎的資料,因訓練樣本充足因素,又高於其他語言。
KPMG 安侯執行副總經理邱述琛提醒,未受控的人工智慧風險,除了可能造成駭客門檻大幅降低,AI 成為網路犯罪的利器外,過去曾被揭露的深假技術(DeepFake)也將會更進化,假影片、假新聞及來自 AI 代筆的作業、報告與論文將會更氾濫,智慧財產權爭議也更複雜。
邱述琛建議,企業應注意人工智慧風險治理三大心法,包括維持技術與風險間的平衡、了解演算法的假設與限制、考量人工介入必要與時機,應該要著手建構對應的風險管理框架,必須由研究團隊謹慎判別與分析後,才能提出建議,必要時還應該提示限制因素。
(首圖來源:Created by Freepik)