東協AI治理與道德指南採取適地化調整

隨著人工智慧(AI)技術的不斷進步和普及,人們愈來愈重視AI風險管理與管控,許多國家和地區已開始積極制定和完善「人工智慧法」的相關法律法規,如歐盟的「人工智慧法案」、美國「演算法問責法案」,以及臺灣的「行政院及所屬機關(構)使用生成式AI參考指引」等,以應對AI技術可能帶來的各種挑戰和風險。

而在本(113)年2月2日於新加坡舉辦的第四屆「東協數位部長會議」中,東協(ASEAN)成員國正式簽署「東協人工智慧治理與道德指南」,其涵蓋了4大面向:(1)內部治理結構與措施;(2)參與人工智慧決策的程度;(3)營運管理;(4)利害關係人互動和溝通。此外,該指南針對東協國家提出了一系列政策建議,包括培養AI人才以提高勞動力技能、促進AI新創企業投資、投資AI研發、促進企業採用有效的工具來實施該指南,及提高對AI 潛在風險 和好處的認識等。該指南亦建議企業成立人工智慧道德諮詢委員會,以監督AI治理工作,在AI的開發與運作過程中,提供獨立建議,協助團隊設計、開發及部署人工智慧,同時明確劃分人員的責任。

東協地區擁有6.6億人口,包含多國不同的民族和文化,因此該指南要求企業部署人工智慧時,需要考慮各國當地規範和價值觀等因素,確保不同文化的觀點受到尊重。東協各國在制定監管與治理框架時,須根據各自司法管轄區的法規體系進行適地化調整,以構建可信賴的AI發展應用體系與環境。