閱讀進度0%

【RightsCon 紀錄】當AI 安全成為「邊緣議題」:AI 安全準則如何納入多元參與?

【RightsCon 紀錄】當AI 安全成為「邊緣議題」:AI 安全準則如何納入多元參與?

閱讀時間 10 分鐘

報導重點摘要

2025 年全球最大的數位人權會議首次在臺灣舉辦,這也是這個國際盛會首次移師東亞。2 月 24 日至 27 日舉行了超過 500 場議程,線上、線下 24 小時不間斷地討論數位人權的現況與面臨的挑戰。RightsCon 每場議程時間約為一小時,進行方式依據形式各有不同,有多位講者對談、圓桌討論、工作坊等。此篇報導為其中一場議程紀錄,討論建立全球 AI「安全標準」的可能性。
2022 年底,當 OpenAI 公司的 ChatGPT 開放給所有人使用,AI 首次進入常人的視野,劇烈改變了世界,也帶來許多問題。這場會議從「AI 的安全」議題切入,探討建立「全球最低 AI 安全標準」的可行性。值得注意的是,在此會議舉行的幾週前,中國團隊 DeepSeek 才剛發佈技術開源的新模型。
兩年多來,各個國家對於 AI 治理和安全的策略逐漸成形,也出現跨區域的合作機制,但由於 AI 安全並沒有統一的標準,各國的優先事項也不同,少數國家出現壟斷的情形。
會議過程中,主持人邀請觀眾參與互動,寫下你對「AI 安全」議題的印象,多數人認為是「破碎的」、「不足的」、「緩慢的」,也有人提到「菁英壟斷」、「西方中心」。
3028_1
會議中的 Live Q&A 互動

AI 安全性問題已造成重大影響

與談人普魯多姆(Benjamin Prud'Homme) 是加拿大 AI 研究所 Mila 的政策、安全與全球事務副總裁。Mila 主導了世界上第一份對 AI 的能力與風險做出的評估報告「國際 AI 安全報告」(International AI Safety Report,有中文版),來自 30 個國家的100 名 AI 專家貢獻其中,這份報告是英國政府作為 AI 安全高峰會(Bletchley AI Safety Summit)的主辦方委託製作。
報告將 AI 的風險分為三類,包括「惡意使用的風險」、「意外危害風險」及「系統性風險」。
「惡意使用的風險」包括使用 AI 生成假訊息傷害個人、操作輿論、發動網路攻擊,如使用 Deepfake 來詐騙或破壞個人聲譽,或是用 AI 生成兒童性虐待的圖片;AI 也能協助開發生化武器,報告特別指出,AI 在理解和整合不同類型數據方面的能力提升,可能助長病原體或其他雙重用途領域的研究。
而即使未遭惡意使用,仍可能因為 AI 的不可靠性造成「意外危害」,例如提供錯誤的醫療或法律建議,也可能放大社會偏見和歧視。
「系統性風險」則是指 AI 的存在會帶來更廣泛的問題,如勞動力市場影響、AI 研發過度集中在西方國家和中國,甚至集中在少數幾家公司、AI 帶來的環境影響(能源、水等等),還有隱私和侵犯版權等問題。
台灣人工智慧學校基金會秘書長侯宜秀就提到,AI 的風險與「安全性」在 AI 相關的課程中並不受到歡迎,「有人會問我,能不能盡量少提這個部分?他們會擔心這可能會讓人對 AI 產生恐懼,進而抗拒使用這個技術。特別是在政府機構內。」
「我們一直在為邊緣群體發聲,但現在我們(倡議 AI 風險、衝擊與安全)反而成了這個議題中的邊緣群體。」侯宜秀說。
她提到「開發者」和「使用者」兩個角色。侯宜秀指出,「許多開發者並不重視 AI 安全議題,並不是因為他們不在乎、他們也不是壞傢伙,而是目前的開發流程中,並沒有明確的規範或強制要求,來確保開發者在過程中需要考量到 AI 的安全性。」
她推薦大家關注一些負責任的 AI 計畫,例如 Meta 針對 Llama AI 的負責任 AI 模型開發框架,指引開發者在開發過程中實踐 AI 責任原則。
除了開發者以外,侯宜秀認為培養使用者的意識也很重要,「當我們向使用者教授 AI 技術和工具時,也必須讓他們意識到,他們應該成為負責任的 AI 使用者。我們目前的策略,是從使用者的角度來設計負責任的 AI 課程。」
來自巴西的與談者達奧拉(Nina Da Hora)則帶來「培養使用者意識」的實際例子。

讓受影響的人有機會自己發聲

達奧拉是電腦科學家,創立了達奧拉研究所(Instituto da Hora),致力於推動數位權利和反種族歧視運動。在 AI 安全性的議題中,她們實際培訓黑人與原住民社群,幫助他們理解 AI,「這樣他們才有機會為自己發聲。」
達奧拉說,談到 AI 安全時,她總是會問:我們在討論的是誰的安全?她提到,「當我們討論這個議題時,往往很難將真正受影響的社群,尤其是當地社區,納入討論範圍。但早在我們開始討論之前,他們就已經受到影響了。」
因此他們在巴西的貝倫(Belém)舉辦在地培訓計畫,培訓了 55 名黑人與年輕原住民,其中 32 名現在已經在跨性別組織、公民權利機構組織工作,將所學的資訊安全技術在他們的職場中,「我們幫助他們理解 AI,讓他們能夠在政策制定者、或我們這些技術專家展開討論之前,就先辨識 AI 可能帶來的傷害。」
「我堅信教育是關鍵,這才能讓更多人有機會站在相同的起跑點,參與 AI 安全的討論。」達奧拉說,「這些討論不應該只由我們這些技術或政策領域的人主導,而該納入那些早已受到影響的族群。」

當 AI 發展涉及生死存亡

來自非洲肯亞的與談人吉陶(Shikoh Gitau)更帶來解決安全性議題迫切的原因,「我跟大型科技公司合作,總是聽到他們在討論更強、更快的 AI 模型,這對他們來說是一場技術競賽,但對我們而言,這關乎生死存亡。」
她提到,在肯亞,確認癌症的診斷結果需要 4 到 9 週,「對於某些侵襲性比較強的癌症,這代表患者可能在診斷結果之前,就已經過世了。」吉陶說,以先進國家的標準,這通常只需要 7 至 10 天,但整個非洲大陸人口高達 15 億人,只有不到 3 千名放射科醫生。
「在澳洲,他們有遠距醫療服務,而澳洲的放射科醫師數量超過當地的人口需求,他們可以為非洲的病患提供即時的診斷,幫助他們獲得更進一步的治療。」吉陶分享。
她提到,「當我們在談論 AI 時,它不是奢侈品,是不可或缺的關鍵技術。我們不是擔心某個人會部署大規模毀滅性武器,而是在思考如何利用這項技術來解決醫療、教育和農業等實際問題。」

當 AI 發展方向被少數人壟斷

多位聽眾都提出疑問:儘管使用者「想要」更多元的參與,實務上 AI 的發展就是集中在少數國家、少數公司,AI 的安全究竟要如何更具全球包容性?
吉陶提到,去年下半年她參與了數場關於 AI 的重要會議,九月的聯合國大會中,聯合國發佈了「全球數位公約」,這份準則的討論集中在:如何讓大型語言模型(LLM)更安全?如何提升它們的互通性?而整場會議的討論,幾乎圍繞著「這些技術將成為未來 AI 世界的基礎建設」。
但到了今年 1 月的達沃斯論壇(The Davos AI Summit),「那些之前倡導大型語言模型將成為 AI 基礎建設的專家,卻突然說大型語言模型沒有價值了。他們現在說的是,AI 的未來不在於大型語言模型,而是某種更先進、仍在開發的技術。」
當時正是中國團隊推出 Deepseek 的時候。吉陶說,「這些人幾個月前才說大型語言模型是未來的基礎,大家應該要專注於開發『應用』,因為建造自己的模型太昂貴了,不應該花費精力在這裡。但當中國大幅降低了開發基礎模型的成本後,這些模型突然變得『沒有價值』了?」
吉陶笑說,這其實給了她這樣熱愛技術的非洲人一絲希望,他們可以打造自己的基礎模型;同時,她也在思考這些論述可能是一種公關話術,「他們是想讓世界其他國家覺得自己技術不夠、資源不足,無法開發出適合的基礎模型。但潛台詞是:讓我們來開發、讓我們來定義,再分配給你們。」
「我們不可能要這些大公司停止開發。」侯宜秀認為,「但對於我們這些既不是美國、也不是中國的小國家來說,我們應該把資源投入到研究不同的途徑。」
侯宜秀提到,「雖然這麼說有點諷刺,但 Deepseek 在某種程度上,確實在推動 AI 的民主化。他們的模型、資料集可能並不完全符合民主價值觀,但『開放技術』這件事是值得我們借鑑的。相較於大公司、大模型,我們是有機會用不一樣的方式來開發的。」

各國可以從自己的社群發展治理原則

從 AI 的使用者到開發者對於安全意識的賦權,這股由下而上的力量還是難以觸及到政策制訂者,與會者們都提到,這些 AI 峰會、治理原則,需要有更多參與。
吉陶以巴黎 AI 峰會(Artificial Intelligence Action Summit)為例,儘管她努力為非洲發聲,「到了最後一刻,這場對話仍然缺乏包容性。即使最終發佈了宣言,這份宣言也始終缺乏非洲及全球南方(Global South)的觀點及認可。」
她認為這需要採取社群導向的做法,所以非洲正在建立自己的 AI 委員會,幫助政府制定 AI 治理政策,也讓各國可以透過這個平台共同參與 AI 治理的制定。
「現在的 AI 治理對話,總是圍繞著中國跟美國。但現實是,我們所有人都要參與,都要定義 AI 對我們的意義,不是讓這兩個國家來決定 AI 的未來。」吉陶認為,每個地區都應該根據自己的需求和情境,進行獨立的 AI 治理討論,再在國際舞台上尋找共識。
吉陶強調,AI 治理的本質是地緣政治問題,各國都把它當成軍備競賽,想成為第一個成功的國家,在這樣的前提下,由單一機構來定義 AI 治理的模式,是不可能成功的。
「我相信社群的力量。」侯宜秀舉例,社群可以透過協作建立一個能夠反映社群共同價值觀的資料集,用來評估所有的 AI 模型,無論它來自哪個國家。

決定未來的始終是人

由 Mila 主導的「國際 AI 安全報告」中,提到 AI 安全性議題最嚴峻的挑戰,是往往要在缺乏大量科學證據的狀況下,權衡 AI 可能會帶來什麼樣的利益和風險。由於技術發展速度超越研究速度,加上 AI 能力愈來愈強,也會出現新的、未知的風險。
而報告中也有個重要的提醒:因為 AI 的發展充滿了不確定性,常讓人覺得未來難以預測、像是某種神蹟,但 AI 的發展不會偶然發生,未來的樣貌取決於人們所做的選擇。
研究人員普遍認為,好的發展,取決於以下問題是否能有解答:研究人員如何可靠地衡量 AI 的能力?如何決定風險達到何種程度時,我們應該要採取行動?政策制定者如何最有效地即時獲取跟 AI 公共安全有關的資訊?研究者、科技公司和政府如何有效評估 AI 的開發和應用時的風險?AI 模型內部是如何運作?如何讓 AI 模型可靠且穩定運行?
「決定我們將走上哪條道路的,是社會和政府如何應對 AI 發展的不確定性,所作出的決策。」該報告這麼說。
贊助 READr 一起媒體實驗改革
相關報導
最新報導