2026年1月19日 星期一

公務員使用AI輔助公共治理的關鍵原則及重要觀念

隨著人工智慧技術快速成熟,其在公共治理領域的應用潛力日益受到關注,特別是在防災與風險管理工作中,AI 所展現的資料處理與分析能力,確實為傳統高度仰賴人力的作業流程帶來新的可能。然而,防災工作的核心從來不只是資訊效率,而是如何在高度不確定與時間壓力下,做出能夠被社會承擔的判斷。這也使得 AI 的導入,成為一個必須同時面對技術、制度與責任問題的治理課題。

近期與ChatGPT討論,如何在公務體系內,建立正確使用AI的觀念,不僅是個涉及公共行政倫理準則的重要議題,也是要讓同仁在使用AI時必須時刻提醒的重要準則。

以下是摘錄自與ChatGPT討論後的重點摘要:

我們鼓勵同仁適度運用 AI 工具。然而,AI 的使用並非毫無限制,必須先釐清一項關鍵原則:AI 的角色在於輔助專業判斷,而非取代公共責任

因此,AI 可以作為決策參考與分析輔助工具,但最終的判斷與責任仍應由公務人員承擔。我們不應將所有判斷完全交由 AI,更不能將 AI 作為規避責任或免責的依據。



公務機關導入AI時的核心立場

我們對 AI 的定位非常明確-它是一種輔助工具,不是決策主體。

AI 可以幫助我們更快看清資料、更完整理解背景、甚至提醒我們可能忽略的角度,但最終的判斷、定調與對外說明,必須由人負責

這不是對科技的不信任,而是對公共責任的基本尊重。

公務員使用AI的關鍵原則

在實務上,我們遵循三個原則:

第一,責任不外包
所有涉及風險、政策或對外說明的內容,都必須有人署名與承擔。

第二,內容必須可說明
凡是 AI 參與產出的文字與分析,都要能被人理解、修正與解釋。

第三,AI 只能補位,不能代位
它可以補資料、補結構、補視角,但不能替代專業經驗與價值判斷。

防災工作的特色

在防災與監測工作中,
時間壓力與資訊不確定性同時存在,正是最容易「過度依賴工具」的場景。

我們的原則是:
越接近即時決策,AI 使用的空間就越小。

在災前與災後,AI 是很好的整理助手;
但在災中,任何判斷都必須回到專業人員與監測資料本身。

小結

AI 的進步,確實為公共部門帶來新的可能性,
但真正值得信任的,不是工具本身,
而是我們是否清楚界線、是否願意承擔責任

因此,我們的選擇很簡單,也很堅定:

AI 可以讓工作更快,但公共判斷,不能沒有負責的人。

我們使用 AI,是為了輔助專業判斷,而不是取代公共責任。



 同仁使用AI 時的三條原則+實務情境

① 責任不外包

AI 可以幫忙整理與建議,但判斷、署名與後果一定是人負責。

📌 實務情境

你用 AI 幫忙整理一份「對外說明用的政策背景或災害說明」。

👉 正確用法:

  • AI 協助整理脈絡、重點

  • 你確認內容是否與實際狀況一致

  • 用你自己的語言重寫關鍵段落

👉 錯誤用法:

  • 直接照貼

  • 被問到細節時回答:「這是 AI 產生的」

⚠️ 對外單位不會找 AI 負責,只會找你。

⚠️ 如果你不敢為這份內容負責,就不該使用它

② 內容必須可檢核

凡是 AI 產出,都必須能被閱讀、理解、修改與重組。

📌 實務情境

你請 AI 幫你寫一段技術說明或分析結論。

👉 在送出前,請自問三件事:

  • 我能用自己的話解釋這一段嗎?

  • 我知道它的依據是什麼嗎?

  • 如果長官說「這段不對」,我改得動嗎?

👉 只要有一題是否定,這段就不該直接使用。

⚠️AI 不是黑盒子,看不懂的內容,風險一定在你身上

③ AI 只能補位,不能代位

AI 是加速器,不是自動駕駛。

📌 實務情境

工作很趕,你請 AI 幫你快速列出幾個方案或選項。

👉 正確用法:

  • 把 AI 的內容當「備選清單」

  • 你負責判斷哪個可行、哪個不可行

  • 明確說清楚為什麼選這個、不選那個

👉 錯誤用法:

  • 直接選 AI 看起來最完整的一個

  • 沒想過現實限制、制度背景或風險

⚠️AI可以幫我們省時間,但不能幫我們省思考

總結

用 AI,是為了把事情做得更好,而不是把責任交出去


沒有留言: