報導重點摘要
2025 年全球最大的數位人權會議首次在臺灣舉辦,這也是這個國際盛會首次移師東亞。2 月 24 日至 27 日舉行了超過 500 場議程,線上、線下 24 小時不間斷地討論數位人權的現況與面臨的挑戰。RightsCon 每場議程時間約為一小時,進行方式依據形式各有不同,有多位講者對談、圓桌討論、工作坊等。此篇報導為其中一場議程紀錄,討論建立全球 AI「安全標準」的可能性。
2022 年底,當 OpenAI 公司的 ChatGPT 開放給所有人使用,AI 首次進入常人的視野,劇烈改變了世界,也帶來許多問題。這場會議從「AI 的安全」議題切入,探討建立「全球最低 AI 安全標準」的可行性。值得注意的是,在此會議舉行的幾週前,中國團隊 DeepSeek 才剛發佈技術開源的新模型。
兩年多來,各個國家對於 AI 治理和安全的策略逐漸成形,也出現跨區域的合作機制,但由於 AI 安全並沒有統一的標準,各國的優先事項也不同,少數國家出現壟斷的情形。
會議過程中,主持人邀請觀眾參與互動,寫下你對「AI 安全」議題的印象,多數人認為是「破碎的」、「不足的」、「緩慢的」,也有人提到「菁英壟斷」、「西方中心」。

AI 安全性問題已造成重大影響
與談人普魯多姆(Benjamin Prud'Homme) 是加拿大 AI 研究所 Mila 的政策、安全與全球事務副總裁。Mila 主導了世界上第一份對 AI 的能力與風險做出的評估報告「國際 AI 安全報告」(International AI Safety Report,有中文版),來自 30 個國家的100 名 AI 專家貢獻其中,這份報告是英國政府作為 AI 安全高峰會(Bletchley AI Safety Summit)的主辦方委託製作。
報告將 AI 的風險分為三類,包括「惡意使用的風險」、「意外危害風險」及「系統性風險」。
「惡意使用的風險」包括使用 AI 生成假訊息傷害個人、操作輿論、發動網路攻擊,如使用 Deepfake 來詐騙或破壞個人聲譽,或是用 AI 生成兒童性虐待的圖片;AI 也能協助開發生化武器,報告特別指出,AI 在理解和整合不同類型數據方面的能力提升,可能助長病原體或其他雙重用途領域的研究。
而即使未遭惡意使用,仍可能因為 AI 的不可靠性造成「意外危害」,例如提供錯誤的醫療或法律建議,也可能放大社會偏見和歧視。
「系統性風險」則是指 AI 的存在會帶來更廣泛的問題,如勞動力市場影響、AI 研發過度集中在西方國家和中國,甚至集中在少數幾家公司、AI 帶來的環境影響(能源、水等等),還有隱私和侵犯版權等問題。
台灣人工智慧學校基金會秘書長侯宜秀就提到,AI 的風險與「安全性」在 AI 相關的課程中並不受到歡迎,「有人會問我,能不能盡量少提這個部分?他們會擔心這可能會讓人對 AI 產生恐懼,進而抗拒使用這個技術。特別是在政府機構內。」
「我們一直在為邊緣群體發聲,但現在我們(倡議 AI 風險、衝擊與安全)反而成了這個議題中的邊緣群體。」侯宜秀說。
她提到「開發者」和「使用者」兩個角色。侯宜秀指出,「許多開發者並不重視 AI 安全議題,並不是因為他們不在乎、他們也不是壞傢伙,而是目前的開發流程中,並沒有明確的規範或強制要求,來確保開發者在過程中需要考量到 AI 的安全性。」
除了開發者以外,侯宜秀認為培養使用者的意識也很重要,「當我們向使用者教授 AI 技術和工具時,也必須讓他們意識到,他們應該成為負責任的 AI 使用者。我們目前的策略,是從使用者的角度來設計負責任的 AI 課程。」
來自巴西的與談者達奧拉(Nina Da Hora)則帶來「培養使用者意識」的實際例子。
讓受影響的人有機會自己發聲
達奧拉是電腦科學家,創立了達奧拉研究所(Instituto da Hora),致力於推動數位權利和反種族歧視運動。在 AI 安全性的議題中,她們實際培訓黑人與原住民社群,幫助他們理解 AI,「這樣他們才有機會為自己發聲。」
達奧拉說,談到 AI 安全時,她總是會問:我們在討論的是誰的安全?她提到,「當我們討論這個議題時,往往很難將真正受影響的社群,尤其是當地社區,納入討論範圍。但早在我們開始討論之前,他們就已經受到影響了。」
因此他們在巴西的貝倫(Belém)舉辦在地培訓計畫,培訓了 55 名黑人與年輕原住民,其中 32 名現在已經在跨性別組織、公民權利機構組織工作,將所學的資訊安全技術在他們的職場中,「我們幫助他們理解 AI,讓他們能夠在政策制定者、或我們這些技術專家展開討論之前,就先辨識 AI 可能帶來的傷害。」
「我堅信教育是關鍵,這才能讓更多人有機會站在相同的起跑點,參與 AI 安全的討論。」達奧拉說,「這些討論不應該只由我們這些技術或政策領域的人主導,而該納入那些早已受到影響的族群。」
當 AI 發展涉及生死存亡
來自非洲肯亞的與談人吉陶(Shikoh Gitau)更帶來解決安全性議題迫切的原因,「我跟大型科技公司合作,總是聽到他們在討論更強、更快的 AI 模型,這對他們來說是一場技術競賽,但對我們而言,這關乎生死存亡。」
她提到,在肯亞,確認癌症的診斷結果需要 4 到 9 週,「對於某些侵襲性比較強的癌症,這代表患者可能在診斷結果之前,就已經過世了。」吉陶說,以先進國家的標準,這通常只需要 7 至 10 天,但整個非洲大陸人口高達 15 億人,只有不到 3 千名放射科醫生。
「在澳洲,他們有遠距醫療服務,而澳洲的放射科醫師數量超過當地的人口需求,他們可以為非洲的病患提供即時的診斷,幫助他們獲得更進一步的治療。」吉陶分享。
她提到,「當我們在談論 AI 時,它不是奢侈品,是不可或缺的關鍵技術。我們不是擔心某個人會部署大規模毀滅性武器,而是在思考如何利用這項技術來解決醫療、教育和農業等實際問題。」
當 AI 發展方向被少數人壟斷
多位聽眾都提出疑問:儘管使用者「想要」更多元的參與,實務上 AI 的發展就是集中在少數國家、少數公司,AI 的安全究竟要如何更具全球包容性?
吉陶提到,去年下半年她參與了數場關於 AI 的重要會議,九月的聯合國大會中,聯合國發佈了「全球數位公約」,這份準則的討論集中在:如何讓大型語言模型(LLM)更安全?如何提升它們的互通性?而整場會議的討論,幾乎圍繞著「這些技術將成為未來 AI 世界的基礎建設」。
但到了今年 1 月的達沃斯論壇(The Davos AI Summit),「那些之前倡導大型語言模型將成為 AI 基礎建設的專家,卻突然說大型語言模型沒有價值了。他們現在說的是,AI 的未來不在於大型語言模型,而是某種更先進、仍在開發的技術。」
當時正是中國團隊推出 Deepseek 的時候。吉陶說,「這些人幾個月前才說大型語言模型是未來的基礎,大家應該要專注於開發『應用』,因為建造自己的模型太昂貴了,不應該花費精力在這裡。但當中國大幅降低了開發基礎模型的成本後,這些模型突然變得『沒有價值』了?」
吉陶笑說,這其實給了她這樣熱愛技術的非洲人一絲希望,他們可以打造自己的基礎模型;同時,她也在思考這些論述可能是一種公關話術,「他們是想讓世界其他國家覺得自己技術不夠、資源不足,無法開發出適合的基礎模型。但潛台詞是:讓我們來開發、讓我們來定義,再分配給你們。」
「我們不可能要這些大公司停止開發。」侯宜秀認為,「但對於我們這些既不是美國、也不是中國的小國家來說,我們應該把資源投入到研究不同的途徑。」
侯宜秀提到,「雖然這麼說有點諷刺,但 Deepseek 在某種程度上,確實在推動 AI 的民主化。他們的模型、資料集可能並不完全符合民主價值觀,但『開放技術』這件事是值得我們借鑑的。相較於大公司、大模型,我們是有機會用不一樣的方式來開發的。」
各國可以從自己的社群發展治理原則
從 AI 的使用者到開發者對於安全意識的賦權,這股由下而上的力量還是難以觸及到政策制訂者,與會者們都提到,這些 AI 峰會、治理原則,需要有更多參與。
吉陶以巴黎 AI 峰會(Artificial Intelligence Action Summit)為例,儘管她努力為非洲發聲,「到了最後一刻,這場對話仍然缺乏包容性。即使最終發佈了宣言,這份宣言也始終缺乏非洲及全球南方(Global South)的觀點及認可。」
她認為這需要採取社群導向的做法,所以非洲正在建立自己的 AI 委員會,幫助政府制定 AI 治理政策,也讓各國可以透過這個平台共同參與 AI 治理的制定。
「現在的 AI 治理對話,總是圍繞著中國跟美國。但現實是,我們所有人都要參與,都要定義 AI 對我們的意義,不是讓這兩個國家來決定 AI 的未來。」吉陶認為,每個地區都應該根據自己的需求和情境,進行獨立的 AI 治理討論,再在國際舞台上尋找共識。
吉陶強調,AI 治理的本質是地緣政治問題,各國都把它當成軍備競賽,想成為第一個成功的國家,在這樣的前提下,由單一機構來定義 AI 治理的模式,是不可能成功的。
「我相信社群的力量。」侯宜秀舉例,社群可以透過協作建立一個能夠反映社群共同價值觀的資料集,用來評估所有的 AI 模型,無論它來自哪個國家。
普魯多姆也提醒,真正的「包容性」,不是象徵性地讓少數群體參與,而是要真正共享決策權。但也要有更清晰的層級規劃,「我們目前犯的錯、也是導致所有 AI 專家疲憊不堪的原因之一,就是我們要求每個人對所有議題、在每個層級的所有場合都參與討論,但這並不可行。」
普魯多姆提到,就像一個同心圓,有些問題需要在全球層面解決,例如涉及重大風險的問題,無論美國、中國如何行動都會影響到全球的所有人;但某些議題則具有高度的在地性,需要跟當地社群密切互動。
「我們應該要仔細思考哪些問題要在哪個層級解決,並以此動員相關的角色,不是讓機構或是個人僅僅因為 AI 是個很酷的話題,就急於爭奪主導權。」他說。
決定未來的始終是人
由 Mila 主導的「國際 AI 安全報告」中,提到 AI 安全性議題最嚴峻的挑戰,是往往要在缺乏大量科學證據的狀況下,權衡 AI 可能會帶來什麼樣的利益和風險。由於技術發展速度超越研究速度,加上 AI 能力愈來愈強,也會出現新的、未知的風險。
普魯多姆提醒,「最值得警惕的是那些帶著『確定答案』來找你的人。因為目前,我們根本沒有任何確定的答案。」他認為,要保持好奇心,盡可能用更多、不同的角度來審視 AI 的安全問題,畢竟這是一個不斷發展的領域。
而報告中也有個重要的提醒:因為 AI 的發展充滿了不確定性,常讓人覺得未來難以預測、像是某種神蹟,但 AI 的發展不會偶然發生,未來的樣貌取決於人們所做的選擇。
研究人員普遍認為,好的發展,取決於以下問題是否能有解答:研究人員如何可靠地衡量 AI 的能力?如何決定風險達到何種程度時,我們應該要採取行動?政策制定者如何最有效地即時獲取跟 AI 公共安全有關的資訊?研究者、科技公司和政府如何有效評估 AI 的開發和應用時的風險?AI 模型內部是如何運作?如何讓 AI 模型可靠且穩定運行?
「決定我們將走上哪條道路的,是社會和政府如何應對 AI 發展的不確定性,所作出的決策。」該報告這麼說。