使用人工智能的風險

人工智能(AI)帶來許多好處,但若被濫用或無控制使用,也會帶來許多風險。從數據安全問題、資訊失真、版權侵害到勞動力替代風險,AI帶來的挑戰需要被有效識別和管理。了解使用AI的風險有助於個人和企業安全且可持續地應用這項技術。

人工智能(AI)現已融入從智能手機助理、社交媒體資訊流到醫療保健和交通運輸的各個領域。這些技術帶來前所未有的好處,但同時也伴隨著重大風險和挑戰。

重要警告:專家和全球機構警告,若無適當的倫理防護措施,AI可能重現現實世界的偏見和歧視,助長環境破壞,威脅人權,並加劇現有的不平等。

本文將與 INVIAI 一起探討基於官方及國際資料,涵蓋聊天機器人、演算法到機械人等各類AI的 使用人工智能的風險

AI系統中的偏見與歧視

AI的一大風險是偏見和不公平歧視的根深蒂固。AI模型從可能反映歷史偏見或不平等的數據中學習,因此AI系統可能基於種族、性別或其他特徵差別對待人們,延續不公正現象。

功能失常的通用AI可能因涉及種族、性別、文化、年齡及殘疾等受保護特徵的偏見決策而造成傷害。

— 國際AI安全報告
現實影響:在招聘、貸款或警務中使用的偏見演算法已導致不平等結果,對某些群體造成不公平的劣勢。

聯合國教科文組織等全球機構警告,若無公平措施,AI風險在於 「重現現實世界的偏見和歧視,激化分裂並威脅基本人權和自由」確保AI系統以多元且具代表性的數據訓練並進行偏見審核,是防止自動化歧視的關鍵。

招聘偏見

AI招聘工具可能對特定族群存在歧視

貸款歧視

金融演算法可能基於受保護特徵不公平地拒絕貸款

警務不公

預測性警務可能加強現有執法偏見

AI系統中的偏見與歧視
AI系統中的偏見與歧視

錯誤資訊與深偽技術風險

AI生成超逼真文字、圖片和影片的能力引發了錯誤資訊氾濫的擔憂。生成式AI能製作令人信服的假新聞、偽造圖片或深偽影片,難以與真實區分。

全球風險警示:世界經濟論壇2024年全球風險報告指出,「操控和偽造資訊」是最嚴重的短期全球風險,並指出AI「加劇了被操控和扭曲的資訊,可能破壞社會穩定」。

事實上,AI助長的錯誤和虛假資訊是 「民主進程面臨的最大挑戰之一」,尤其在即將舉行的選舉中,數十億選民將投票。合成媒體如深偽影片和AI克隆聲音可被用作宣傳、冒充公眾人物或詐騙工具。

深偽影片

超逼真的假影片,可冒充任何人,可能用於詐騙或政治操控。

聲音克隆

AI生成的聲音複製品,可模仿任何人的語音模式以進行欺騙。

官員警告,惡意分子可利用AI發動大規模虛假資訊攻勢,輕易在社交網絡上散布假內容,製造混亂。風險是形成一個公民無法信任所見所聞的冷漠資訊環境,破壞公共討論和民主。

AI中的錯誤資訊與深偽風險
AI中的錯誤資訊與深偽風險

隱私威脅與大規模監控

AI的廣泛應用引發嚴重的 隱私問題。AI系統通常需要大量個人數據——從臉部、聲音到購物習慣和位置——才能有效運作。若無強有力的保障,這些數據可能被濫用或剝削。

聯合國教科文組織警告:AI系統不應用於社會評分或大規模監控,這類用途被廣泛視為不可接受的風險。

例如,面部識別和預測演算法可能實現 無所不在的監控,追蹤個人每一動作或在未經同意下評價其行為。

面部識別

在公共場所持續追蹤個人

  • 身份追蹤
  • 行為分析

預測分析

AI分析揭示個人隱私細節

  • 健康狀況
  • 政治信仰

社會評分

根據行為模式評分公民

  • 信用評分
  • 社會合規

隱私是保護人類尊嚴、自主性和行動能力的基本權利,必須在AI系統的整個生命週期中受到尊重。

— 數據保護機構

若AI發展超越隱私法規,個人可能失去對自身資訊的控制。社會必須確保有健全的數據治理、同意機制及隱私保護技術,避免AI成為無限制監控的工具。

隱私威脅與大規模監控
隱私威脅與大規模監控

安全失誤與意外傷害

雖然AI能以超人效率自動化決策和物理任務,但也可能 以不可預測的方式失效,導致現實傷害。我們將越來越多安全關鍵責任交給AI——如駕駛汽車、診斷病患或管理電網——但這些系統並非萬無一失。

故障、訓練數據缺陷或意外情況可能使AI犯下危險錯誤。自駕車AI可能誤判行人,醫療AI可能建議錯誤治療,後果可能致命。

自動駕駛車輛

誤判行人或障礙物導致事故

醫療AI

錯誤診斷或治療建議,可能危及生命

電網管理

系統故障引發大規模停電或基礎設施損壞

應避免並解決AI系統生命週期中的不良傷害(安全風險)及攻擊漏洞(安全風險),以確保人類、環境及生態系統的安全與保障。

— 國際AI指導原則
關鍵原則:生死攸關的決策不應完全交由AI系統,保持人類監督至關重要。

換言之,AI系統必須經過嚴格測試、監控並設置故障保護,以降低故障風險。過度依賴AI也有風險——若人類盲目信任自動決策,可能在錯誤發生時無法及時介入。

因此,確保 人類監督 是關鍵。在高風險領域(如醫療或交通),最終決策應由人類判斷。維持AI的安全與可靠性是一項持續挑戰,需AI開發者謹慎設計並培養責任文化。

AI中的安全失誤與意外傷害
AI中的安全失誤與意外傷害

工作流失與經濟動盪

AI對經濟的變革影響是一把雙刃劍。一方面,AI能提升生產力並創造全新產業;另一方面,透過自動化,AI帶來 數以百萬計工作流失的風險

許多工作——尤其是涉及例行、重複性任務或易於分析的數據——容易被AI演算法和機械人取代。

嚴峻預測:世界經濟論壇預計,到2030年,因AI及相關技術將有九千二百萬個工作崗位被取代。
現有勞動力

傳統工作

  • 例行、重複性任務
  • 數據分析職位
  • 體力勞動崗位
  • 基礎客戶服務
AI驅動經濟

新技能需求

  • AI協作技能
  • 創意解決問題能力
  • 技術性AI管理
  • 以人為本的服務

雖然經濟可能創造新職位(長遠來看甚至超過流失數量),但轉型過程對許多人而言將十分艱難。新職位通常需要不同且更高階的技能,或集中於特定科技樞紐,導致許多被取代的勞工難以重新立足。

這種 勞工現有技能與AI驅動新職位需求間的不匹配,若不解決,可能引發更高失業率和不平等。政策制定者和研究者警告,快速的AI發展可能帶來 「勞動市場動盪及經濟權力不均」 的系統性問題。

性別影響

女性從事的工作比例較高,面臨更大自動化風險

發展中國家

發展中國家勞工面臨更高自動化風險

若無積極措施(如再培訓計劃、AI技能教育及社會安全網),AI可能擴大社會經濟差距,形成技術擁有者獲益最多的經濟體系。

為AI影響做好勞動力準備至關重要,以確保自動化利益廣泛共享,防止大規模失業引發社會動盪。

AI中的工作流失與經濟動盪
AI中的工作流失與經濟動盪

犯罪濫用、詐騙與安全威脅

AI是一把雙刃劍,既可用於正當目的,也可能被惡意利用。網絡犯罪分子及其他不法分子已開始利用AI提升攻擊手段。

例如,AI可生成高度個人化的釣魚郵件或語音訊息(透過聲音克隆),誘使受害者洩露敏感資訊或匯款。AI還能自動化駭客行為,快速發現軟件漏洞,或開發能自我調整以逃避偵測的惡意軟件。

AI驅動釣魚攻擊

大規模生成高度個人化的欺詐郵件

自動化駭客攻擊

AI系統比人類駭客更快發現漏洞

自適應惡意軟件

能自我修改以逃避偵測的惡意軟件

惡意分子可利用AI進行大規模虛假資訊、影響行動、詐騙及騙局。

— 英國政府委託報告

人工智能安全中心指出,AI的惡意使用是主要關注點,涉及犯罪分子利用AI進行 大規模詐騙和網絡攻擊 的場景。

AI帶來的速度、規模和複雜度可能壓倒傳統防禦——想像一天內成千上萬AI生成的詐騙電話或深偽影片攻擊某公司安全。

新興威脅:AI被用於身份盜竊、騷擾,以及製作有害內容,如未經同意的深偽色情或極端主義宣傳。

隨著AI工具更易取得,執行這些惡意行為的門檻降低,可能導致AI輔助犯罪激增。

這需要新的網絡安全和執法方法,如能 偵測深偽或異常行為 的AI系統,以及更新法律框架追究違法者責任。基本上,我們必須預期AI帶給善意者的能力,也可能被罪犯利用,並做好相應準備。

AI中的犯罪濫用、詐騙與安全威脅
AI中的犯罪濫用、詐騙與安全威脅

軍事化與自主武器

AI最令人不寒而慄的風險或許出現在戰爭與國家安全領域。AI正迅速整合進軍事系統,帶來 自主武器(「殺手機器人」)及AI驅動的戰鬥決策可能性。

這些技術反應速度超越人類,但剝奪人類對致命武力使用的控制充滿危險。AI控制的武器可能誤選目標或以不可預見方式升級衝突。

國際關注:國際觀察者將AI軍事武器化視為日益嚴重的威脅。

目標選擇錯誤

AI武器可能誤將平民當作戰鬥員

  • 誤判正確性
  • 平民傷亡

衝突升級

自主系統可能超出人類意圖升級局勢

  • 快速反應循環
  • 失控升級

若各國競相裝備智能武器,可能引發不穩定的軍備競賽。此外,AI也可能用於網絡戰,自主攻擊關鍵基礎設施或散布宣傳,模糊和平與衝突界線。

若AI在戰爭中發展集中於少數人手中,可能強加於人民而無法參與決策,破壞全球安全與倫理。

— 聯合國

自主武器系統還帶來 法律與道德困境——若AI無人機誤殺平民,誰應負責?此類系統如何遵守國際人道法?

這些未解問題促使呼籲禁止或嚴格管制某些AI武器。確保對任何能做出生死決策的AI保持人類監督被廣泛視為首要任務。否則,風險不僅是戰場上的悲劇錯誤,更是戰爭中人類責任的流失。

AI中的軍事化與自主武器
AI中的軍事化與自主武器

缺乏透明度與問責制

當今大多數先進AI系統運作如「黑盒子」——其內部邏輯即使對開發者也常不透明。這種缺乏透明度帶來風險,AI決策無法解釋或質疑,在司法、金融或醫療等領域尤為嚴重,因為解釋性可能是法律或倫理要求。

若AI拒絕貸款、診斷疾病或決定誰可假釋,我們理所當然想知道原因。但某些AI模型(尤其是複雜神經網絡)難以提供明確理由。

法律決策

由不透明AI系統作出的假釋、判刑及法律判決

金融服務

無明確解釋的貸款批准和信用決策

醫療保健

來自無法解釋AI的醫療診斷和治療建議

缺乏透明度也可能削弱有效質疑基於AI系統結果的決策的可能性,從而侵犯公平審判和有效救濟的權利。

— 聯合國教科文組織

換言之,若用戶和監管者無法理解AI如何做決策,幾乎不可能追究錯誤或偏見的責任。

問責缺口:企業可能藉由歸咎「演算法」逃避責任,受影響者可能無法尋求補救。

為此,專家倡導 可解釋AI 技術、嚴格審核及規範要求AI決策可追溯至人類權威。

全球倫理指導方針堅持,應 「始終能將AI系統行為的倫理與法律責任歸屬於個人或組織」。人類必須最終負責,AI應輔助而非取代敏感事務中的人類判斷。否則,我們將面臨由難以理解的機器做出重要決策的世界,這是通往不公的道路。

職場中使用AI缺乏透明度與問責制
職場中使用AI缺乏透明度與問責制

權力集中與不平等

AI革命並非全球均衡發生——少數企業和國家主導先進AI的發展,這本身帶來風險。

尖端AI模型需要龐大數據、人才和計算資源,這些目前僅由科技巨頭(及資金充足的政府)掌握。

這導致高度集中、單一且全球整合的供應鏈,偏袒少數公司和國家。

— 世界經濟論壇

數據壟斷

少數實體控制龐大數據集

計算資源

昂貴基礎設施僅科技巨頭可用

人才集中

頂尖AI研究人員集中於少數組織

這種AI權力集中可能轉化為 壟斷控制,限制競爭和消費者選擇。也增加了這些少數公司或國家的優先事項塑造AI,而 忽視更廣泛公共利益 的風險。

聯合國警告:若AI技術發展集中於少數強權,可能強加於人民而無法參與決策。

這種不平衡可能加劇全球不平等:富裕國家和企業利用AI領先,貧困社區缺乏最新工具且失業,無法享受AI帶來的利益。

此外,集中化的AI產業可能抑制創新(新進者無法與既有資源競爭)並帶來安全風險(若關鍵AI基礎設施由少數實體控制,成為單點故障或操控目標)。

應對此風險需國際合作及新規範以民主化AI發展——例如支持開放研究、確保公平數據與計算資源取得,以及制定政策(如歐盟擬議的AI法案)防止「AI守門人」濫權。更包容的AI生態將有助確保AI利益全球共享,而非擴大科技鴻溝。

權力集中與不平等
權力集中與不平等

AI的環境影響

AI風險討論中常被忽略的是其 環境足跡。AI開發,尤其是 訓練大型機器學習模型,消耗大量電力和計算資源。

數據中心擠滿成千上萬耗電伺服器,處理AI系統學習的大量數據。這意味著AI間接促成了 碳排放和氣候變化

驚人數據:聯合國一機構報告指出,四家領先AI科技公司的間接碳排放從2020年到2023年平均飆升150%,主要因AI數據中心的能源需求。
碳排放增長(2020-2023) 150%

隨著AI投資增加,運行AI模型的排放預計將急劇上升——報告預測 頂尖AI系統每年可能排放超過一億噸二氧化碳,對能源基礎設施造成重大壓力。

換句話說,支撐AI的數據中心推動電力使用增長速度是 「整體電力消耗增長的四倍」

能源消耗

訓練和運行AI模型的大量電力使用

用水量

冷卻數據中心所需大量用水

電子廢棄物

硬件升級產生電子廢棄物

除了碳排放,AI還大量消耗水資源以冷卻設備,且硬件快速升級產生電子廢棄物。若不加以控制,AI的環境影響可能破壞全球可持續發展努力。

此風險呼籲推動AI 更節能 並使用更清潔能源。研究人員正開發綠色AI技術以降低能耗,部分公司承諾抵消AI碳足跡。然而,AI熱潮仍帶來沉重環境代價。社會必須在技術進步與生態責任間取得平衡。

AI的環境影響
AI的環境影響

存在性及長期風險

除了眼前風險,一些專家警告AI可能帶來更 推測性、長期的風險——包括高度先進AI超越人類控制的可能性。雖然當今AI系統能力有限,研究者正積極開發更具 通用性AI,有望在多領域超越人類。

這引發複雜問題:若AI變得極度智能或自主,是否可能以威脅人類存在的方式行動?儘管聽來像科幻,科技界知名人士已表達對 「失控AI」情境 的擔憂,政府也正嚴肅對待此議題。

政府回應:2023年,英國主辦全球AI安全峰會,聚焦前沿AI風險,展現對長期AI安全的高度關注。

專家對人類失去對AI控制、導致災難性後果的風險看法不一。

— 國際AI安全報告

科學共識尚未統一——部分人認為超智能AI尚需數十年,且可與人類價值保持一致;另一些人則認為存在小但非零的災難性風險。

潛在存在性風險情境

  • AI追求與人類價值不符的目標
  • AI能力快速且失控地提升
  • 關鍵決策中人類行動能力喪失
  • AI系統優化有害目標

長期安全措施

  • AI目標對齊研究,確保目標兼容
  • 國際協議規範高風險AI研究
  • 隨AI能力提升保持人類監督
  • 建立全球AI治理框架

總之,雖然存在性風險 可能性極低,但 不可完全排除。此類結果可能涉及AI追求目標損害人類福祉(典型例子是AI若程式錯誤,可能大規模做出有害行為,因缺乏常識或道德約束)。

目前尚無AI具備此等自主性,但 AI發展速度快速且難以預測,本身即為風險因素。

為長期風險做準備意味著投資AI目標對齊研究(確保AI目標與人類價值一致)、建立國際協議規範高風險AI研究(類似核武或生物武器條約),並隨AI能力增強保持人類監督。

AI的未來充滿巨大潛力,但也伴隨 不確定性——謹慎起見,我們應在長期規劃中考慮即使是低概率但高影響的風險。

AI的存在性及長期風險
AI的存在性及長期風險

負責任地引領AI未來

AI常被比喻為推動人類前進的強大引擎——但若無剎車和方向盤,這引擎可能偏離軌道。如前所述,使用AI的風險 多面向:從偏見演算法、假新聞、隱私侵犯、工作動盪等即時問題,到安全威脅、「黑盒」決策、大型科技壟斷、環境壓力,甚至失控超智能AI的遠期陰影。

重要說明:這些風險並非意味著應停止AI發展,而是凸顯負責任AI治理和倫理實踐的迫切需求。

政府、國際組織、產業領袖和研究者正日益合作應對這些問題——例如透過以下框架:

  • 美國NIST AI風險管理框架(提升AI可信度)
  • 聯合國教科文組織全球AI倫理建議
  • 歐盟AI法案

這些努力旨在 最大化AI利益,同時最小化其負面影響,確保AI服務於人類,而非相反。

前進之路

了解AI風險是管理風險的第一步。透過保持資訊透明並參與AI的開發與應用,我們能引導這項變革性技術朝向安全、公平且有益於所有人的方向發展。

探索更多相關文章
98 內容創作者及部落格貢獻者
Rosie Ha 是 Inviai 的作者,專注分享人工智能的知識與解決方案。憑藉在商業、內容創作及自動化等多個領域應用 AI 的經驗,Rosie Ha 將帶來易明、實用且具啟發性的文章。Rosie Ha 的使命是協助大家有效運用 AI,提高生產力並擴展創意潛能。
搜尋