隨著人工智慧技術快速成熟,其在公共治理領域的應用潛力日益受到關注,特別是在防災與風險管理工作中,AI 所展現的資料處理與分析能力,確實為傳統高度仰賴人力的作業流程帶來新的可能。然而,防災工作的核心從來不只是資訊效率,而是如何在高度不確定與時間壓力下,做出能夠被社會承擔的判斷。這也使得 AI 的導入,成為一個必須同時面對技術、制度與責任問題的治理課題。
近期與ChatGPT討論,如何在公務體系內,建立正確使用AI的觀念,不僅是個涉及公共行政倫理準則的重要議題,也是要讓同仁在使用AI時必須時刻提醒的重要準則。
以下是摘錄自與ChatGPT討論後的重點摘要:
我們鼓勵同仁適度運用 AI 工具。然而,AI 的使用並非毫無限制,必須先釐清一項關鍵原則:AI 的角色在於輔助專業判斷,而非取代公共責任。
因此,AI 可以作為決策參考與分析輔助工具,但最終的判斷與責任仍應由公務人員承擔。我們不應將所有判斷完全交由 AI,更不能將 AI 作為規避責任或免責的依據。
公務機關導入AI時的核心立場
我們對 AI 的定位非常明確-它是一種輔助工具,不是決策主體。
AI 可以幫助我們更快看清資料、更完整理解背景、甚至提醒我們可能忽略的角度,但最終的判斷、定調與對外說明,必須由人負責。
這不是對科技的不信任,而是對公共責任的基本尊重。
公務員使用AI的關鍵原則
在實務上,我們遵循三個原則:
第一,責任不外包。
所有涉及風險、政策或對外說明的內容,都必須有人署名與承擔。
第二,內容必須可說明。
凡是 AI 參與產出的文字與分析,都要能被人理解、修正與解釋。
第三,AI 只能補位,不能代位。
它可以補資料、補結構、補視角,但不能替代專業經驗與價值判斷。
防災工作的特色
在防災與監測工作中,
時間壓力與資訊不確定性同時存在,正是最容易「過度依賴工具」的場景。
我們的原則是:
越接近即時決策,AI 使用的空間就越小。
在災前與災後,AI 是很好的整理助手;
但在災中,任何判斷都必須回到專業人員與監測資料本身。
小結
AI 的進步,確實為公共部門帶來新的可能性,
但真正值得信任的,不是工具本身,
而是我們是否清楚界線、是否願意承擔責任。
因此,我們的選擇很簡單,也很堅定:
AI 可以讓工作更快,但公共判斷,不能沒有負責的人。
我們使用 AI,是為了輔助專業判斷,而不是取代公共責任。
同仁使用AI 時的三條原則+實務情境
① 責任不外包
AI 可以幫忙整理與建議,但判斷、署名與後果一定是人負責。
📌 實務情境
你用 AI 幫忙整理一份「對外說明用的政策背景或災害說明」。
👉 正確用法:
AI 協助整理脈絡、重點
你確認內容是否與實際狀況一致
用你自己的語言重寫關鍵段落
👉 錯誤用法:
直接照貼
被問到細節時回答:「這是 AI 產生的」
⚠️ 對外單位不會找 AI 負責,只會找你。
⚠️ 如果你不敢為這份內容負責,就不該使用它。
② 內容必須可檢核
凡是 AI 產出,都必須能被閱讀、理解、修改與重組。
📌 實務情境
你請 AI 幫你寫一段技術說明或分析結論。
👉 在送出前,請自問三件事:
我能用自己的話解釋這一段嗎?
我知道它的依據是什麼嗎?
如果長官說「這段不對」,我改得動嗎?
👉 只要有一題是否定,這段就不該直接使用。
⚠️AI 不是黑盒子,看不懂的內容,風險一定在你身上。
③ AI 只能補位,不能代位
AI 是加速器,不是自動駕駛。
📌 實務情境
工作很趕,你請 AI 幫你快速列出幾個方案或選項。
👉 正確用法:
把 AI 的內容當「備選清單」
你負責判斷哪個可行、哪個不可行
明確說清楚為什麼選這個、不選那個
👉 錯誤用法:
直接選 AI 看起來最完整的一個
沒想過現實限制、制度背景或風險
⚠️AI可以幫我們省時間,但不能幫我們省思考。
總結
「用 AI,是為了把事情做得更好,而不是把責任交出去。」


沒有留言:
張貼留言