對企業而言,人工智慧的商業應用仍處於初步階段,這是一個需要在風險與回報之間取得平衡的課題,企業需評估兩者並探索最佳的發展方向。當然,人工智慧的應用帶來許多好處。目前,企業已能提供更優質的客戶服務,透過自然語言處理技術解析複雜資訊,並且大幅提升工作流程的效率。然而,這項技術同時也帶來一系列的安全風險,這些風險包括但不限於幻覺現象、個人資料外洩、模型架構的脆弱性以及偏見問題。
生成式人工智慧對企業而言可能帶來如此高風險的原因在於,我們目前僅僅觸及了這項技術的表面,尚不清楚它將會引領我們走向何方。儘管 ChatGPT 在首次公開上市時便獲得了破紀錄的使用量,但我們仍未見到能在企業界廣泛應用並成為“殺手級”企業生成式人工智慧應用程式。我們無法預測,真正改變遊戲規則的應用程式將來會是什麼樣子。如今,我們正處於一個未知的領域,無法確定最終會走向何方。
當領導者在努力應對這場變革所帶來的複雜問題時,探索生成式人工智慧所帶來的風險與監管挑戰顯得尤為重要。這將為決策者提供指引,幫助他們在制定政策和實施實務時,指引企業朝向創新與負責任使用並存的未來邁進。
無論是大型語言模型還是其他生成式系統,了解其中的細微差異對於組織在這個以變革為標誌的時代取得成功非常重要。
生成式人工智慧的風險與機會
為關鍵任務應用程式提供支持生成式人工智慧的基礎設施非常重要。想像一些變革性的應用案例,例如超個人化的醫療保健,將開啟突破性的可能性。例如,根據生成式人工智慧量身訂製的開藥方案,將成為醫療領域的潛在突破,顛覆傳統的醫療服務模式。
儘管有這些充滿希望的機遇,但我們必須正視與生成式人工智慧相關的挑戰。其中,模型缺乏可解釋性是一個重大障礙,因此需要持續努力提供可追蹤性與稽核追蹤。這也是我們強調人工智慧模型無法單獨執行的原因之一,除非由人類進行訓練。這對於解決與透明度和問責性相關的問題尤為關鍵。
如何整合來自不同資料倉儲的資料,尤其是在各種來源的資料環境中,仍是一項重大的挑戰。跨不同領域的資料協調對於有效部署生成式人工智慧應用程式非常重要。在金融服務業等對資料敏感性要求極高的產業中,我們特別重視資料隱私權,以確保資料能以負責任且合乎道德的方式使用。
降低風險:策略性方法
為了應對與生成式人工智慧相關的挑戰與風險,各企業正積極組建人工智慧指導委員會與領導委員會。這些跨職能團隊通常由產品領導者、資訊長、資訊安全長及法律團隊組成,在人工智慧的緊密整合與實施中扮演著關鍵角色。
採用謹慎的人工智慧整合方法,並強調爬行式執行策略,對企業非常重要。從一開始,企業應優先納入法規遵循、公司治理、安全性以及負責任的人工智慧實務等工作。這種方法有助於建立穩固的基礎,並儘量減少潛在風險,因為人工智慧已成為企業流程中不可或缺的一部分。
在紐約的 Hitachi Vantara Exchange 活動中,一位討論小組成員指出,企業需要「積極嘗試,並且周到地執行」。這一觀點強調在生成式人工智慧應用中,平衡創新與細緻執行的重要性。
當企業面對人工智慧應用的複雜性時,必須善用生成式人工智慧帶來的機會,同時審慎管理相關風險。未來潛藏著極具變革性的進步,而深思熟慮地駕馭這一環境的組織,將能從負責任的人工智慧運用中獲益。