與談人普魯多姆(Benjamin Prud'Homme) 是加拿大 AI 研究所 Mila 的政策、安全與全球事務副總裁。Mila 主導了世界上第一份對 AI 的能力與風險做出的評估報告「國際 AI 安全報告」(International AI Safety Report,有中文版),來自 30 個國家的100 名 AI 專家貢獻其中,這份報告是英國政府作為 AI 安全高峰會(Bletchley AI Safety Summit)的主辦方委託製作。
報告將 AI 的風險分為三類,包括「惡意使用的風險」、「意外危害風險」及「系統性風險」。
「惡意使用的風險」包括使用 AI 生成假訊息傷害個人、操作輿論、發動網路攻擊,如使用 Deepfake 來詐騙或破壞個人聲譽,或是用 AI 生成兒童性虐待的圖片;AI 也能協助開發生化武器,報告特別指出,AI 在理解和整合不同類型數據方面的能力提升,可能助長病原體或其他雙重用途領域的研究。
而即使未遭惡意使用,仍可能因為 AI 的不可靠性造成「意外危害」,例如提供錯誤的醫療或法律建議,也可能放大社會偏見和歧視。
「系統性風險」則是指 AI 的存在會帶來更廣泛的問題,如勞動力市場影響、AI 研發過度集中在西方國家和中國,甚至集中在少數幾家公司、AI 帶來的環境影響(能源、水等等),還有隱私和侵犯版權等問題。
台灣人工智慧學校基金會秘書長侯宜秀就提到,AI 的風險與「安全性」在 AI 相關的課程中並不受到歡迎,「有人會問我,能不能盡量少提這個部分?他們會擔心這可能會讓人對 AI 產生恐懼,進而抗拒使用這個技術。特別是在政府機構內。」
「我們一直在為邊緣群體發聲,但現在我們(倡議 AI 風險、衝擊與安全)反而成了這個議題中的邊緣群體。」侯宜秀說。
她提到「開發者」和「使用者」兩個角色。侯宜秀指出,「許多開發者並不重視 AI 安全議題,並不是因為他們不在乎、他們也不是壞傢伙,而是目前的開發流程中,並沒有明確的規範或強制要求,來確保開發者在過程中需要考量到 AI 的安全性。」
她推薦大家關注一些負責任的 AI 計畫,例如 Meta 針對 Llama AI 的負責任 AI 模型開發框架,指引開發者在開發過程中實踐 AI 責任原則。
除了開發者以外,侯宜秀認為培養使用者的意識也很重要,「當我們向使用者教授 AI 技術和工具時,也必須讓他們意識到,他們應該成為負責任的 AI 使用者。我們目前的策略,是從使用者的角度來設計負責任的 AI 課程。」
來自巴西的與談者達奧拉(Nina Da Hora)則帶來「培養使用者意識」的實際例子。
讓受影響的人有機會自己發聲
達奧拉是電腦科學家,創立了達奧拉研究所(Instituto da Hora),致力於推動數位權利和反種族歧視運動。在 AI 安全性的議題中,她們實際培訓黑人與原住民社群,幫助他們理解 AI,「這樣他們才有機會為自己發聲。」
達奧拉說,談到 AI 安全時,她總是會問:我們在討論的是誰的安全?她提到,「當我們討論這個議題時,往往很難將真正受影響的社群,尤其是當地社區,納入討論範圍。但早在我們開始討論之前,他們就已經受到影響了。」
因此他們在巴西的貝倫(Belém)舉辦在地培訓計畫,培訓了 55 名黑人與年輕原住民,其中 32 名現在已經在跨性別組織、公民權利機構組織工作,將所學的資訊安全技術在他們的職場中,「我們幫助他們理解 AI,讓他們能夠在政策制定者、或我們這些技術專家展開討論之前,就先辨識 AI 可能帶來的傷害。」
「我堅信教育是關鍵,這才能讓更多人有機會站在相同的起跑點,參與 AI 安全的討論。」達奧拉說,「這些討論不應該只由我們這些技術或政策領域的人主導,而該納入那些早已受到影響的族群。」
當 AI 發展涉及生死存亡
來自非洲肯亞的與談人吉陶(Shikoh Gitau)更帶來解決安全性議題迫切的原因,「我跟大型科技公司合作,總是聽到他們在討論更強、更快的 AI 模型,這對他們來說是一場技術競賽,但對我們而言,這關乎生死存亡。」
她認為這需要採取社群導向的做法,所以非洲正在建立自己的 AI 委員會,幫助政府制定 AI 治理政策,也讓各國可以透過這個平台共同參與 AI 治理的制定。
「現在的 AI 治理對話,總是圍繞著中國跟美國。但現實是,我們所有人都要參與,都要定義 AI 對我們的意義,不是讓這兩個國家來決定 AI 的未來。」吉陶認為,每個地區都應該根據自己的需求和情境,進行獨立的 AI 治理討論,再在國際舞台上尋找共識。
吉陶強調,AI 治理的本質是地緣政治問題,各國都把它當成軍備競賽,想成為第一個成功的國家,在這樣的前提下,由單一機構來定義 AI 治理的模式,是不可能成功的。
「我相信社群的力量。」侯宜秀舉例,社群可以透過協作建立一個能夠反映社群共同價值觀的資料集,用來評估所有的 AI 模型,無論它來自哪個國家。
決定未來的始終是人
由 Mila 主導的「國際 AI 安全報告」中,提到 AI 安全性議題最嚴峻的挑戰,是往往要在缺乏大量科學證據的狀況下,權衡 AI 可能會帶來什麼樣的利益和風險。由於技術發展速度超越研究速度,加上 AI 能力愈來愈強,也會出現新的、未知的風險。
而報告中也有個重要的提醒:因為 AI 的發展充滿了不確定性,常讓人覺得未來難以預測、像是某種神蹟,但 AI 的發展不會偶然發生,未來的樣貌取決於人們所做的選擇。
研究人員普遍認為,好的發展,取決於以下問題是否能有解答:研究人員如何可靠地衡量 AI 的能力?如何決定風險達到何種程度時,我們應該要採取行動?政策制定者如何最有效地即時獲取跟 AI 公共安全有關的資訊?研究者、科技公司和政府如何有效評估 AI 的開發和應用時的風險?AI 模型內部是如何運作?如何讓 AI 模型可靠且穩定運行?
「決定我們將走上哪條道路的,是社會和政府如何應對 AI 發展的不確定性,所作出的決策。」該報告這麼說。