ISO/IEC 42001:2023 人工智慧系統管理綱要

人工智慧管理系統介紹

文件下載:https://claire-chang.com/wp-content/uploads/2025/10/SCAN-ISO-420012023_-Web.pdf

合規檢核清單:https://claire-chang.com/wp-content/uploads/2025/10/ISO-42001-checklist.pdf

隨著人工智慧 (Artificial Intelligence, AI) 技術日益普及,並逐漸成為各行各業的核心經濟驅動力,組織如何負責任地應用這項強大技術,已成為一項關鍵的策略議題。

  • AI的獨特性質:AI的某些特性,如自動決策的非透明性、持續學習和行為變化等,需要超越傳統資訊技術系統的特定管理方法。
  • 社會與經濟影響:AI技術正日益成為主要經濟驅動因素之一,但其應用也可能引發社會挑戰。本標準旨在幫助組織負責任地履行其角色。
  • 平衡治理與創新:組織需要在一系列治理機制和創新之間取得平衡。AIMS提供了一種風險導向的方法來實現此目標,確保在特定AI應用案例和利害關係人期望之間找到適當的平衡點。

ISO/IEC 42001:2023是全球首個針對人工智慧管理系統(AI Management System, AIMS)的國際標準。該標準旨在為組織提供一個全面性的框架,以負責任的方式開發、提供或使用人工智慧(AI)系統。其核心目標是透過系統化的方法,有效管理與AI相關的獨特風險與機會,同時滿足利害關係人的期望。

為組織內建立、實施、維護和持續改進AI管理系統(AIMS)提供具體要求和指導。其目標是協助組織在追求其目標的過程中,負責任地開發、提供或使用AI系統,並滿足利害關係人的要求與期望。

關鍵核心概念

  • 風險導向方法:要求組織識別、評估並處理整個AI生命週期中的風險,特別強調對個人和社會的潛在影響。包括兩個關鍵流程:
    • AI風險評估 (AI risk assessment, Clause 6.1.2):建立並維持一個流程,以識別、分析和評估與AI相關的風險。
    • AI風險處理 (AI risk treatment, Clause 6.1.3):根據風險評估結果,選擇並實施適當的風險處理方案。
  • 全面的生命週期治理:涵蓋從系統的目標設定、需求定義、設計開發、驗證確認,到部署、營運監控及技術文件管理的各個階段的全過程,確保每個階段都有對應的管理控制措施。
  • 結構化與可整合性:採用與ISO 9001(品質管理)和ISO/IEC 27001(資訊安全管理)等其他主流管理系統標準一致的高階結構(Harmonized Structure),使組織能將AIMS無縫整合至現有的管理體系中。
  • 規範性的控制框架:提供了具體的、必須遵守的控制目標、措施及實施指南,為組織建立有效的AI治理提供了清晰路徑。

管理系統架構 (PDCA循環)

ISO/IEC 42001的結構遵循了Plan-Do-Check-Act (PDCA) 的持續改進模型,為組織提供了一個系統化的實施路徑。

第4條:組織的背景 (Context of the Organization) – 基礎

  • 要求組織理解其內部和外部的議題,識別與AIMS相關的利害關係人及其需求和期望。
  • 明確界定AIMS的邊界和適用性,以建立其範圍。

第5條:領導 (Leadership) – 規劃 (Plan)

  • 強調高階管理階層的領導和承諾至關重要。
  • 高階主管必須確保建立AI政策和AI目標,並分配相關的角色、職責和權限。

第6條:規劃 (Planning) – 規劃 (Plan)

  • 這是風險管理的核心章節,要求組織規劃應對風險和機會的行動。
  • 關鍵活動包括執行AI風險評估、AI系統影響評估,並設定可衡量的AI目標。

• 第7條:支援 (Support) – 執行 (Do)

  • 涉及為AIMS提供必要的資源,包括人員、基礎設施和技術。
  • 確保人員具備所需的能力,提升其意識,建立溝通機制,並管理所有必要的文件化資訊。

• 第8條:營運 (Operation) – 執行 (Do)

  • 要求組織規劃、實施和控制為滿足AIMS要求所需的流程。
  • 這包括實施風險處理計劃,並在計劃的間隔內或當重大變化發生時,定期執行AI風險評估和AI系統影響評估。

• 第9條:績效評估 (Performance Evaluation) – 檢查 (Check)

  • 組織必須監控、測量、分析和評估AIMS的績效和有效性。
  • 關鍵活動包括進行內部稽核和管理階層審查,以確保AIMS持續適用、充分且有效。

• 第10條:改善 (Improvement) – 行動 (Act)

  • 要求組織在發生不符合事項時採取行動,進行控制和糾正。
  • 透過持續改進活動,不斷提升AIMS的適用性、充分性和有效性。

參考控制目標與控制措施

標準的附錄部分提供了具體的、可操作的控制框架,是實施AIMS的核心。

附錄A是規範性的,意味著組織必須使用此處列出的控制措施。它為組織提供了一套全面的參考,以應對AI系統的設計、開發和使用所帶來的風險。以下是其主要控制領域的摘要:

控制領域實施指南(附錄 B)
A.2 AI相關政策提供管理指導和支持,確保AI系統符合業務需求。AI 政策 (B.2.2) 應被告知組織的業務戰略組織價值觀和文化、組織願意承擔或保留的 AI 系統風險等級,以及法律要求合約
A.3 內部組織建立問責制,以維護組織對AI的負責任方法。AI 角色和職責應被定義和分配,涵蓋風險管理、AI 系統影響評估、數據品質管理人為監督(human oversight)、安全、隱私和性能等方面。
A.4 AI系統資源確保組織考慮並提供所需資源,以充分理解和處理風險與影響。數據資源應文件化其獲取、收集、分析、標籤、儲存和保留;工具資源應包括演算法類型、機器學習模型、優化方法、評估方法等;人力資源應涵蓋資料科學家、AI 系統人為監督角色、安全與隱私專家等。
A.5 評估AI系統影響評估AI系統在其整個生命週期中對個人、群體和社會的影響。影響評估應考慮 AI 系統的預期目的複雜性數據類型的敏感性,以及 AI 系統可能影響個人法律地位、身體或心理健康、普世人權社會(如環境影響、就業機會)的方式。
A.6 AI系統生命週期確保組織為AI系統的負責任設計和開發識別目標並實施流程。系統的驗證和確認(Verification and validation, B.6.2.4)措施應包括測試方法學測試數據的選擇發布標準
A.7 AI系統資料確保組織理解資料在AI系統中的作用和影響。數據準備方法應包含一套轉換步驟,以確保數據可用於 AI 任務。(如清洗、填補缺失值)
A.8 利害關係人資訊確保相關利害關係人擁有評估 AI 系統風險和影響所需的必要資訊。系統文件和使用者資訊應包括相關的影響評估資訊(正負面影響),並提供讓外部人員報告不利影響(adverse impacts)的能力。
A.9 AI系統的使用確保組織根據負責任的組織政策使用AI系統。負責使用 AI 系統的目標包括公平性、問責性、透明度、可靠性、安全性、隱私與安全可及性。人為監督機制應包括涉及人類審查(human reviewers)的決策和報告系統性能變更的流程。
A.10 第三方與客戶關係確保組織理解其責任並保持問責,同時適當分配風險。應建立流程確保供應商提供的服務或材料符合組織對 AI 系統的責任開發和使用方法

潛在的 AI 相關組織目標和風險來源

環境複雜性 (Complexity of environment)

當 AI 系統在操作環境中運行,且該環境的情況範圍很廣泛時,會產生環境複雜性的風險。

風險來源具體範例 (來自來源文件的描述或註釋)
操作環境的廣泛性當 AI 系統在情況範圍廣泛的複雜環境中運行時,就會產生風險。
性能的不確定性環境複雜性可能導致 AI 系統的性能產生不確定性,進而成為風險來源。
自駕系統 (Autonomous driving)標準將自動駕駛的複雜環境列為此類風險的背景範疇。

缺乏透明度和可解釋性 (Lack of transparency and explainability)

AI 系統的行為往往難以被利害關係人理解,從而造成透明度和可解釋性不足的風險。

風險來源具體範例 (來自來源文件的描述)
無法提供足夠資訊組織沒有能力向利害關係人提供足夠的資訊,以證明 AI 系統的運行方式和決策過程。
信任度與問責性的不確定性由於資訊不足,導致利害關係人無法理解組織的信任度 (trustworthiness) 和問責性 (accountability)

機器學習相關風險 (Risk sources related to machine learning)

與機器學習(ML)相關的風險主要集中在訓練數據的品質和收集過程上。

風險來源具體範例 (來自來源文件的描述)
數據品質不足用於機器學習的數據品質是風險來源之一。
數據收集過程問題收集數據的過程中出現的問題,也會導致風險。
數據污染/投毒具體風險範例包括因數據品質問題或**數據污染(data poisoning)**而產生的風險。

系統生命週期問題 (System life cycle issues)

AI 系統的風險可能貫穿其整個生命週期,從設計到退役。

風險來源具體範例 (來自來源文件的描述)
設計缺陷在 AI 系統生命週期中出現設計上的缺陷(flaws in design)
例如:
AI 預測模型僅用單一地區數據訓練,未考慮不同地區需求差異
輸出結果偏差,導致錯誤決策或歧視性影響
部署不當例如:
航運公司導入 AI 系統,但僅安裝在少數電腦,缺乏整體流程整合與員工培訓
系統無法發揮效益,決策失準,員工對 AI 失去信任
缺乏維護例如:
銀行反詐欺 AI 系統長期未更新,未能捕捉新型詐騙手法;同時伺服器安全漏洞未修補
詐欺偵測率下降、資料外洩風險升高、可能遭監管罰款
退役問題例如:
醫院汰換 AI 影像判讀系統時,未妥善處理舊系統中的病人影像資料
個資洩漏、違反 GDPR / 個資法,造成法律責任與聲譽損害

其他相關技術風險來源

風險來源具體範例 (來自來源文件的描述)
技術成熟度不足 (Technology readiness)風險來源可能與較不成熟的技術相關,原因包括未知因素(例如系統限制和邊界條件)、性能漂移(performance drift)
系統硬體問題 (System hardware issues)風險可能源於基於有缺陷組件硬體錯誤,或在不同系統之間傳輸訓練過的機器學習模型時發生的錯誤。
自動化程度 (Level of automation)AI 系統或數位系統 在人類決策過程中扮演的角色有多大、依賴性有多高。這個程度會直接影響 安全性、公平性、資安 等面向。

ISO/IEC 4200對組織的意義

採用ISO/IEC 42001標準對組織而言具有深遠的策略意義:

1. 建立信任與信譽:通過符合國際公認的最佳實踐,組織可以向客戶、合作夥伴、監管機構和公眾展示其對負責任和道德AI的承諾。

2. 系統化風險管理:提供了一個結構化的框架來識別和應對AI特有的複雜風險,這些風險可能未被傳統的IT或品質管理系統充分涵蓋。

3. 促進法規遵循:隨著全球各地對AI的監管日益嚴格,一個健全的AIMS可以幫助組織為未來的合規要求做好準備,降低法律和財務風險。

4. 提升競爭優勢:獲得ISO/IEC 42001認證可以成為一個強而有力的市場區隔因素,證明組織在AI治理方面處於領先地位,從而吸引更多業務機會。

5. 推動內部治理成熟度:實施該標準有助於在組織內部建立清晰的AI治理結構、明確的權責劃分和持續改進的文化,從而提升整體的營運效能和決策品質。

實施 ISO 9001:2015 認證步驟

實施 ISO 9001:2015 可分為4大流程:教育訓練(Training)、建置(Implementing)、 驗證(Certification)、維護(Maintaining)。領導力企管提醒您,ISO 9001:2015條文改版,是 ISO 9001 系列自 1987 年以來最大幅度之改版,主要修改的內容包括:

  1. 導入 Annex SL 標準撰寫語言,使未來組織跨系統之整合更為流暢統一。
  2. 加入風險管理(Risk management)的概念,針對目前公司現有作業流程進行風險分析與後續之風險處理。
  3. 加強「最高管理階層」之責任,重視領導階層之領導力與承諾。
  4. 強調「績效評估」的管理。
ISO 9001 認證輔導 | ISO 9001 課程實戰取證輔導 | Leadership 領導力企管

以下為導入 ISO 9001:2015 的 15 項實施步驟:

Step 1:高階管理者的決心與承諾

高階管理層必須表明其承諾和決心,以實施 ISO 9001 管理系統, 若沒有高層管理人員的承諾,管理系統的導入將無法成功。

Step 2:確認品質小組與管理代表

建立一個品質小組並指定一名管理代表,負責協調與規劃和監督實施,品質小組應包括所有組織職能的代表 業務,設計,開發,規劃,生產,品管控制等。管理代表在 ISO 9001 :2015版本已經無強制性建立,因此可由公司負責人或指派一名高階管理人管理品質小組,負責監督與規劃品質目標的實施,以確保品質系統完整性。

Step 3:員工意識培訓

導入 ISO 9001:2015 品質管理系統前,需與員工溝通,並說明導入的重要性,並獲得員工的支持,若省略這一步會讓系統導入變得更加困難,說明的重點如: 品質的基本概念、系統和標準,對整體的影響、公司的戰略目標、可能改變的工作流程和可能的工作文化。另外培訓計畫應針對不同的員工職務進行不同的說明,包括高階管理人員,中層管理人員,主管和現場員工。

Step 4:差距分析

在系統導入前,公司應評估內部目前現有制度與紀錄文件對應品質系統的要求落差,針對落差進行討論與建立。

Step 5:計畫實施

差距分析後,應該更清楚地了解公司的情況,現有的品質管理與ISO 9001標準相比的落差,所以應制定詳細的實施計劃,確定實施與描述符合品質系統要求所需的任務執行。該計劃應該是徹底和具體的,詳細說明:制定 ISO 9001標準品質文件、負責的人員或團隊、需要培訓人員所需資源、預計完成日期、這些要素應組織成詳細的圖表,以供審查並獲得最高管理層的批准。

Step 6:文件建立

公司應該建立關於品質管理系統所需的文件,例:文件控制; 控制記錄; 內部稽核;不合格產品; 糾正措施和預防措施。也會有一些額外的文件化程序幫助員工在公司的各種工作中遵循流程。

Step 7 : 文件審核與發佈

管理階層應確認品質管理系統文件符合公司需求,最後發布與運行。

Step 8:實施教育訓練

本步驟與 Step3 意識培訓差異處,在於最新的品質管理文件應在公司運行,不論管理階層或是現場同仁都應依照所制定的品質管理制度教育訓練,以確保能在公司順利運行。

Step 9 : 驗證機構的選擇

建議在導入初期對應公司的需求,可以向領導力企管諮詢,最適合貴司的驗證機構(Certification Body,CB),包括 BSI、SGS、BV、TUV NORD以及AFNOR 等,領導力企管皆能為您安排。

Step 10 : 內部稽核教育訓練與內部稽核實施

依據 ISO 9001:2015 條文之規定,應定期實施內部稽核,為確保內部稽核順利實施與有效,在實行內部稽核之前,應對內部稽核小組成員實行內部稽核教育訓練。

Step 11 : 管理審查

當管理系統運行一段時間,並進行內部稽核,為確保系統的充分性、適用性、有效應,應在管理審查進行討論,並提出糾正措施。

Step 12 : 第一階段驗證審查

當 ISO 9001:2015 運行一段時間後, 邀請驗證單位來到公司進行第一階段的稽核,主要對應文件的符合性。

Step 13 : 第一階段矯正措施

在驗證單位第一階段文審過後,藉由驗證機構建議或缺失,對不符合事項進行矯正措施。

Step 14 :第二階段驗證審查

在第一階段確認文件符合品質管理系統要求後,邀請驗證第二階段的現場稽核。若通過驗證後在會獲得3年有效期的證書。在這3年內,驗證機構依然會定期至公司進行稽核。

Step 15:持續改進

通過 ISO 9000 認證之後,企業將持續精進、不斷尋求改善,以達到卓越品質與最佳顧客滿意。

歐盟《人工智慧法案》 介紹

歐盟 AI 法案(EU AI Act)

檔案下載:https://claire-chang.com/wp-content/uploads/2025/10/ST-5662-2024-INIT_en.pdf

從2019年到2024年,各國開始陸續推出AI相關管理原則、規則及法規,其中歐盟 AI 法案(EU AI Act)是全球第一個全面性、強制性的 AI 法規,不像美國、日本、台灣大多數還停留在「指導原則」或「政策草案」。它規定了 風險等級分類(不可接受、高風險、有限、低風險),並明確列出每一級需要遵守的義務,例如:合規文件、透明度、人為監督、罰則。

一旦通過,廠商如果要進入歐盟市場,就必須遵守,否則會面臨高額罰款(最高可達全球營業額的 7%)。

歐盟 AI 法案四個風險等級

歐盟的 AI 法案(EU AI Act) 中,把 AI 系統依風險程度分為四個等級:不可接受風險(Unacceptable Risk)高風險(High Risk)有限風險(Limited Risk)低/極小風險(Minimal / No Risk)

A fit for purpose and borderless European Artificial Intelligence ...
風險等級法規文字 / 規範主要義務或處置範疇概述與例子
不可接受風險(Unacceptable Risk)明令禁止使用(Article 5)一律禁止市場投放或使用涉及操控、剝削、社會評分、實時公共場所人臉辨識等功能的 AI 系統被視為對人權或社會構成嚴重威脅,如用 AI 操控思想、用弱點操控、社會評分等。 (artificialintelligenceact.eu)
高風險(High Risk)需受監管、合規義務(Chapter III)必要的文件、風險評估、透明性、人為監督、符合性評估等義務被列在 Annex III 的應用與在受安全法規控制產品中的 AI 系統屬於此類。例:生物辨識、關鍵基礎設施、自動化招聘、信用評分、教育考試評估、公共服務等。 (artificialintelligenceact.eu)
有限風險(Limited Risk)有義務進行標示、告知使用者(如 Article 50)透明性義務(需讓使用者知道自己在與 AI 互動)如聊天機器人、內容生成工具(不是在高風險用途下)等。使用者要被告知正在與 AI 互動。 (lowenstein.com)
低/極小風險(Minimal / No Risk)幾乎沒強制義務可自由使用(但仍要遵守一般法律規範)一般 AI 應用、垃圾郵件過濾、影像後製輔助工具等屬於此級。法律上不會因為這些用途強加額外義務。 (lowenstein.com)

不可接受風險包括以下例子:

  • 社會評分 (Social Scoring): 禁止公共或私人機構使用AI系統對個人進行通用目的的社會評分。法案認為這種做法可能導致歧視性結果,並對個人造成不利或不公的待遇。
  • 情緒識別 (Emotion Recognition): 禁止在工作場所和教育機構中使用情緒識別系統。這項禁令的目標非常明確,旨在保護員工和學生的隱私與尊嚴。然而,法案也設有例外,允許出於醫療或安全原因使用此類技術。
  • 無差別抓取臉部圖像 (Untargeted Scraping of Facial Images): 禁止為了建立或擴展臉部辨識資料庫,而從網際網路或閉路電視(CCTV)畫面中無差別地抓取臉部圖像。此舉旨在遏制大規模監控的基礎設施。
  • 工作與教育場所的情緒識別:禁止在工作場所和教育機構使用 AI 系統推斷自然人的情緒,但出於醫療或安全原因的系統除外(例如監測飛行員疲勞狀態)。
  • 基於敏感特徵的生物分類:禁止利用生物特徵數據推斷個人的種族、政治觀點、工會成員資格、宗教或哲學信仰、性生活或性取向,並對其進行分類。此禁令不包括執法領域對合法獲取數據集的標記或過濾。
  • 個人預測性警務:禁止僅基於對自然人的剖析或評估其人格特質,來評估其犯罪風險的 AI 系統。但用於支持人類評估個人是否涉入犯罪活動的系統則不在此限。
  • 執法部門的即時遠端生物辨識:原則上禁止執法部門在公共可及空間使用「即時」遠端生物辨識系統。僅在極少數嚴格定義的例外情況下,並經司法或獨立行政機關授權後方可使用。

高風險系統的例子:

  • 生物辨識與分類: 遠端生物辨識系統(包括「事後」辨識)、基於敏感特徵的生物分類系統及情緒識別系統。
  • 關鍵基礎設施的管理與運營: 用於道路交通、水、瓦斯、暖氣和電力供應等關鍵基礎設施安全組件的 AI 系統。
  • 教育與職業培訓: 用於決定入學、評估學習成果或在考試中監測作弊行為的系統。
  • 就業、勞工管理與自僱: 用於招聘、晉升或解僱決策、分配任務及監控員工表現的系統。
  • 基本服務的取得與使用: 用於評估獲得公共援助、信貸評分、健康與人壽保險風險定價,以及緊急應變服務調度的系統。
  • 執法: 用於評估個人風險、評估證據可靠性或進行犯罪剖析的系統。
  • 移民、庇護與邊境管制: 用於評估尋求庇護者或簽證申請者風險、審查申請或在邊境進行身份識別的系統。
  • 司法行政與民主程序: 用於協助司法機關研究和解釋事實與法律,或影響選舉結果的系統。

了解你的 AI 系統的風險層級

高風險的 AI 產品可能為與會影響相關人員的權益的領域。如果只是公司內部知識庫,員工自己查詢、學習,屬於 輔助性工具,並沒有直接影響「職涯發展」「升遷決策」「資格審查」,通常 不會被視為高風險。

但如果系統輸出結果被用來「決定誰能升遷、誰能參加專案、誰要接受懲戒」,那就可能觸碰到 職涯與專業資格決策,屬於高風險範疇。

我們可以根據以下角度來判定它屬於哪個風險等級:

影響範圍與決策權重

  • 若 AI 會自動替代人的關鍵決策(例如自動選擇客戶、訂單拒絕或處理) → 有可能落在 高風險
  • 若只是輔助、生成文字、摘要、報表等 → 通常是 有限風險低風險

是否涉及個人資料 / 敏感資料 / 隱私

  • 若 AI 要處理客戶資料、個資、貨主資料等,並對這些資訊做評估、分類、決策 → 風險較高。
  • 若僅處理公開資料/匿名化資料 → 風險可能屬於低/有限。

可解釋性與可控性

  • 如果 AI 系統的決策過程不透明、難以人工監督,那麼該系統傾向落在高風險。
  • 如果是比較易於理解、且人工可以介入修正的系統,風險較低。

法律與監管環境

  • 若當地或客戶所在國對某些用途(如信用評估、生物辨識)已有限制或法規,AI 在這些用途上的風險會被視為高。
  • 若是純內部輔助用途,不對外公開或不與法令敏感用途掛鉤,那可能屬於有限或低風險。

法案第29a條引入了「基本權利影響評估」(Fundamental Rights Impact Assessment, FRIA)的概念。這意味著特定機構(如政府機關、銀行、保險公司)在部署這些高風險AI系統之前,必須強制性地評估該系統對公民基本權利的潛在衝擊。以下為問卷範本,以協助相關機構履行此項評估。

ALIGNER 基本權利影響評估

高風險系統的主要義務

高風險 AI 系統的供應商必須確保其系統在投放市場前符合以下強制性要求:

  • 風險管理系統: 建立並維護一個貫穿 AI 系統整個生命週期的持續性風險管理系統。
  • 資料與資料治理: 用於訓練、驗證和測試的資料集必須高品質、具代表性,並盡可能完整且無錯誤,同時應採取措施識別和減輕潛在的偏見。
  • 技術文件: 準備詳細的技術文件,證明系統符合要求,並供主管機關審查。
  • 紀錄保存: 系統應能自動記錄事件(日誌),以確保其運作的可追溯性。
  • 透明度與使用者資訊: 向部署者提供清晰完整的使用說明,使其能夠理解系統的能力、限制並進行適當使用。
  • 人類監督: 系統的設計應確保能由自然人進行有效監督,包括內建「停止」按鈕等干預機制。
  • 準確性、穩健性與網路安全: 系統應達到與其預期目的相稱的準確性、技術穩健性及網路安全水平,能抵禦錯誤、故障及惡意攻擊。

有限風險 AI 系統的透明度義務

對於風險較低的特定 AI 系統,法案第四章第 52 條規定了透明度義務,以確保人們能夠做出知情的決定:

• 與人類互動的系統: 如聊天機器人,必須告知使用者他們正在與 AI 系統互動,除非這一點在當時情境下顯而易見。

• 情緒識別或生物分類系統: 部署者必須告知受其影響的自然人該系統正在運作。

• 生成式 AI 內容:

  • AI 系統生成的合成內容(如音訊、圖像、影片)應被標記為人工生成或操縱,以便能夠被偵測。
  • 部署者使用 AI 系統生成或操縱的圖像、音訊或影片內容,若構成「深度偽造」(deepfake),必須明確揭露其為人工生成。此義務不適用於明顯的藝術、創意或諷刺性作品。
  •  若 AI 生成的文本是為了向公眾傳播公共利益相關事項而發布,也必須揭露其為人工生成,除非經過人工審查且有法人或自然人對其內容承擔編輯責任。

風險評估重點方向

區塊問題或欄位方向說明 / 目的
系統用途與流程描述– 該 AI 系統將在什麼流程中使用? – 使用頻率、時間範圍?用來讓評估者了解 AI 的應用範圍,以判斷潛在風險。
受影響對象– 哪些自然人或群體會受到影響? – 是否有脆弱族群?評估哪些權利可能被影響,以及影響程度。
風險識別– 哪些基本權利可能受到侵害?(如隱私、尊嚴、非歧視、言論自由等) – 每種風險的可能性與嚴重性?必須明確列出可能風險與對應權利。
人為監督 / 控制措施– 有哪些人工監督機制? – 什麼情況人類可以介入?要確保即使 AI 做出決策,也有人能校正或阻止錯誤。
緩解措施與治理安排– 若風險發生,有哪些補救措施? – 投訴機制、內部治理機制等安排?評估者要看到公司有合理的措施來減輕影響。
更新與再評估機制– 若情況變動是否需重新評估? – 與先前評估是否可重用?法案允許在類似情況下重用,但若有變動須更新。 (AI Act)
與 GDPR / DPIA 的銜接– 是否已有資料保護影響評估 (DPIA)? – 哪些欄位可重用?法案允許把 DPIA 的部分結果納入 FRIA 中。 (aoshearman.com)

高風險 AI 系統合規要求總覽

一、治理與管理架構

1. 風險管理系統(Article 9)

  • 持續迭代:建立、實施、文件化並持續更新。
  • 核心任務
    • 風險識別與評估(正常使用與可預見誤用)。
    • 採取設計與技術措施減少風險。
    • 無法消除的風險 → 設計緩解與控制措施。
    • 定期測試與審查有效性。
  • 特別考量:必須考慮兒少與脆弱群體。
  • 對應的方法論或框架:
    • ISO/IEC 42001:2023(AI Management System,首個 AI 專屬管理系統標準)
    • ISO 31000(風險管理原則與架構)
    • ISO 14971(醫療器材風險管理,若是醫療應用 AI)

2. 品質管理系統(Article 17)

  • 完整 QMS:涵蓋政策、程序、指示。
  • 重點要素
    • 合規策略(含系統修改管理)。
    • 系統設計與開發控制。
    • 數據管理程序。
    • 上市後監控(Article 61)與事故通報(Article 62)。
  • 對應的方法論或框架:
    • ISO/IEC 42001:2023(內建品質與合規要求)
    • ISO 9001(通用品質管理系統)
    • ISO/IEC 27001(資訊安全管理系統,特別是數據安全部分)
    • ISO/IEC 23894(AI 風險管理指導)

二、數據與可追溯性

3. 數據與數據治理(Article 10)

  • 品質要求:數據必須相關、具代表性、完整、減少偏見。
  • 環境脈絡:考慮地理、行為、功能環境差異。
  • 特殊數據:為偏見校正可例外處理 GDPR 第 9 條的敏感數據,但須符合保護措施。

4. 技術文件(Article 11)

  • 投放市場前需完成並持續更新,內容包含:
    • 系統概況與用途。
    • 開發過程、演算法、資源、數據與測試描述。
    • 風險管理與上市後監控規劃。

5. 記錄保存(Article 12)

  • 全生命週期日誌:必須能自動記錄運作事件,用於風險追蹤與監管。

三、設計與性能要求

6. 透明度與資訊提供(Article 13)

  • 使用說明:包含提供者資訊、系統性能限制、風險情境、人為監督措施。

7. 人為監督(Article 14)

  • 確保人類可有效監督,避免自動化偏差。
  • 操作者可隨時干預、停止、覆蓋輸出。
  • 遠端生物辨識 → 至少兩名專業人員核實結果。

8. 準確性、穩健性與網路安全(Article 15)

  • 系統必須具備高彈性與防禦能力。
  • 特別防範:數據投毒(data poisoning)、對抗性攻擊(adversarial attacks)、反饋循環偏差。

四、市場合規義務

9. 合格評估與宣告(Article 43, 48, 49)

  • 投放市場前須經 合格評估(內部或第三方)
  • 提供者需出具 符合性宣告,並貼附 CE 標誌

10. 註冊與資訊義務

  • 歐盟資料庫登錄:高風險系統必須登錄。
  • 公共機關或提供公共服務者:必須在使用前註冊。
  • FRIA(Article 29a):公共機關、銀行、保險等需先完成 基本權利影響評估

台灣現行已經落實或在推動的 AI/相關法規與政策

領域名稱 / 文書性質 / 強制力內容重點
公部門 AI 應用行政院及所屬機關(構)使用生成式 AI 參考指引指引性質要求公部門在使用生成式 AI 時要遵守資通安全、個人資料保護、著作權、侵害人格權等規定。 (nstc.gov.tw)
公部門 AI 應用公部門人工智慧應用參考手冊(草案)草案 / 參考數位發展部提供給各機關作為 AI 應用的參考,包含 AI 應用原則、風險考量、落地策略等。 (moda.gov.tw)
基本法草案人工智慧基本法草案草案希望建立 AI 的基本原則、風險管理框架、保障個人資料與隱私、鼓勵創新。 (join.gov.tw)
金融業專門指引金融業運用人工智慧 (AI) 指引行政指導性質為金融機構導入 AI 時提供風險管理、透明性、合規控制等具體建議。 (fsc.gov.tw)
金融業規範金融機構運用人工智慧技術作業規範業界自律 / 規範性針對銀行業,訂定 AI 實際運用時的風險控管、個資保護、模型治理、透明揭露等規範。 (ba.org.tw)

論文研讀:AI 工具對軟體開發與架構的影響

由於一場災難(詳見: 我的AI寫程式慘痛經驗),我閱讀了這一篇論文,在此整理成一篇文章來做分享

The Impact of AI-Generated Solutions on Software Architecture and Productivity: Results from a Survey Study

AI 開發的雙面刃—機遇與挑戰並存

根據 Stack Overflow 2024 年的調查數據,超過 76% 的開發者正在使用或計劃使用 AI 工具,這明確揭示了 AI 技術在軟體工程領域已成為不可逆轉的主流趨勢。然而,這股浪潮也帶來了一個核心議題:AI 工具在顯著提升開發效率、縮短交付週期的同時,是否會以犧牲軟體品質為代價?對於追求長期價值的軟體架構師與工程師而言,這是一個必須審慎思考的問題。若未經深思熟慮地整合 AI 生成的程式碼,可能對系統的可維護性、可擴展性與整體架構穩健性構成潛在的長期風險。

如何在生產力與品質之間取得精準的平衡,是成為高效率 AI 時代工程師的第一步。接下來,我們將首先深入探討 AI 工具所帶來的具體生產力效益。

以數字來分析 AI 工具的實際影響

調查結果顯示,AI 工具對生產力的提升效果極其顯著。約 45% 的受訪者回報了「高於」或「遠高於」35% 的生產力提升,而若包含回報「約 35%」提升的群體,則總數高達 79%。

這項數據強烈暗示,AI 工具已成為提升開發效能的關鍵槓桿。在當前的技術環境下,不採用 AI 工具的工程師或團隊,可能面臨因生產力落差而導致的競爭力下降風險。值得注意的是,所有資歷少於三年的初階工程師都表示 AI 工具提升了他們的生產力,這暗示 AI 在弭平經驗差距上可能扮演著重要角色。

剖析效益最顯著的開發階段

SDLC 階段/任務效益程度具體描述與支持
早期實作最高效益AI 在軟體專案的早期階段能顯著提升生產力。大多數受訪者同意,在早期代碼實作階段(例如生成骨架代碼或基本功能)使用 AI 最有益。
代碼生成高效益最常見的用途是生成小的程式碼片段,以及樣板代碼(boilerplate code)。
概念/支援高效益工程師使用 AI 進行概念性工作(例如軟體架構),以及輔助任務(例如總結最新研究、快速存取設計文件、查找文檔或集思廣益)。
複雜/大型任務效益降低隨著專案變得更複雜,使用 AI 工具的生產力效益會降低。試圖用單一提示解決大型問題通常會導致錯誤。
除錯與修改中/低效益修復錯誤和代碼修改是 AI 工具的常見用途,但 60% 的受訪者認為人類在修復錯誤方面仍(遠)快於 AI。在修改代碼時,AI 有時可能比人類更快,但 65% 的受訪者認為使用 AI 進行代碼變更會更耗時。

AI 工具的效益在專案的早期階段最為突出,例如快速生成應用程式骨架 (skeleton code) 或樣板程式碼 (boilerplate)。這些任務通常重複性高且模式固定,恰好是 AI 發揮效率優勢的最佳場域。

工程師最常使用 AI 處理的任務以降序排列如下:

  • 生成小型程式碼片段 (38 位參與者)
  • 修改現有程式碼 (26 位參與者)
  • 修復錯誤 (19 位參與者)
  • 生成測試 (17 位參與者)

除了直接的編碼任務,AI 在多種輔助性工作中也展現出巨大的價值,這些「隱藏」的生產力增益同樣不容忽視:

  • 加速技術研究:快速總結前沿研究論文,幫助團隊更快地將新技術應用於實踐。
  • 優化資訊檢索:在內部設計文件或龐大的知識庫中快速查找資訊,遠比傳統搜尋更高效。
  • 輔助創意發想:作為一個技術顧問進行頭腦風暴,探索解決方案的可能性。
  • 簡化學習曲線:提供特定函式庫的實現範例,比直接閱讀官方文件更為快捷。

架構師的兩難:駕馭 AI 對程式碼品質的影響

軟體開發的成功不僅取決於開發速度,更仰賴於長期的架構穩健性與可維護性。一個看似高效的工具,若其產出會侵蝕系統的架構品質,那麼短期的生產力提升將會被長期的維護災難所抵銷。

正面影響:小型、獨立的任務潛在風險:大型、複雜的任務
產出品質與人類相當,甚至更優
高維護性:程式碼具備高內聚、低耦合特性。
性能相當:無明顯額外性能開銷。
語法正確:幾乎總是生成語法正確的程式碼。
架構穩健:不會導致顯著的軟體架構侵蝕。
產出品質顯著下降,帶來嚴峻風險
結構混亂:程式碼分區與組織性差。
品質下降:可維護性、可擴展性降低。
破壞性修改:在大型程式庫中更易破壞現有功能。
架構侵蝕:主要體現在內聚性降低。

其根本原因在於 AI 缺乏對系統全局上下文(global context)的理解,導致其在生成大型模組時無法做出符合整體架構的設計決策,從而破壞了內聚性與模組邊界。

除了結構品質外,功能正確性是另一個關鍵考量。調查數據顯示,AI 並非萬無一失。超過 65% 的參與者指出,AI 生成的程式碼很少能在第一次嘗試時就完全滿足功能需求。開發者通常需要透過反覆調整提示詞 (prompt) 才能獲得期望的結果,這也意味著對 AI 產出的盲目信任是極其危險的

綜上所述,AI 對程式碼品質的影響呈現出明顯的兩面性,其關鍵分野在於「問題的規模」。這直接引導出下一章節將要介紹的核心策略——如何透過有效的問題拆解來趨利避害。

黃金法則:戰略性問題拆解是成功的關鍵

架構師的核心方法論:「拆解-委派-整合」循環

最大化 AI 生產力同時規避品質風險的最有效方法是採納一種系統性的工作流程:將一個大型、複雜的問題,戰略性地拆解成一系列小型、定義明確的子問題(拆解),再交由 AI 逐一實現(委派),最後由工程師負責審查、測試與智慧地組裝這些成果(整合)。

為了最大限度地提高生產力,工程師的技能(特別是架構技能)仍然很重要

  • 拆解問題為最佳方式: 絕大多數受訪者同意,使用 AI 工具提高生產力的最佳方式是將問題分解成小塊,然後要求 AI 進行實作。
  • 針對性提問: 針對小型、集中的問題尋求 AI 協助,可以最大限度地提高生產力。提問的技巧 (Prompting skill) 是提高生產力的關鍵驅動因素。

分析問題拆解的具體效益

  • 提升結果品質:小型、範圍明確的提示詞能讓 AI 更準確地理解開發者的意圖,從而生成更高品質、更易於整合的程式碼。這避免了因問題描述模糊或複雜而導致的「猜測式」輸出。
  • 降低風險:在大型、既有的程式庫中進行修改時,風險控管至關重要。超過 67% 的受訪者認為,程式碼規模越大,AI 越容易破壞現有功能。將修改任務拆解成針對小範圍的精準操作,可以顯著降低引入新錯誤的風險。
  • 提高效率:40% 的受訪者觀察到,隨著輸入程式碼規模的增大,AI 的處理時間會顯著增加。將大問題拆解成小任務,可以讓 AI 快速響應,避免因等待 AI 處理而中斷開發心流,從而維持流程的順暢。

重新定義工程師的角色

在 AI 時代,軟體工程師的價值並未減少,而是發生了深刻的轉變。因此,工程師的價值核心必須從「程式碼的生產者」轉變為「複雜問題的分解者」「高品質方案的整合者」。這意味著,軟體架構設計、系統性思維與判斷力等高階技能,變得前所未有的重要。

擁抱人機協作,成為 AI 增強型工程師

AI 工具是強大的生產力倍增器,能夠為工程師帶來超過 35% 的顯著效率提升,但它絕非能夠取代工程師專業判斷的「銀彈」。其核心局限性在於:

  • 缺乏高層次理解力:AI 難以掌握複雜問題的整體脈絡與高層次的系統架構。
  • 修改效率瓶頸:在大型、複雜的程式庫中進行修改和除錯時,其效率和可靠性通常不如經驗豐富的人類工程師。
  • 測試可靠性不足:AI 生成的測試往往較為表面,可能缺乏對邊界條件和核心業務邏輯的深入驗證。

面對 AI 的優勢與局限,軟體工程師成功的關鍵在於「揚長避短」,建立一種高效的人機協作模式。

提高效率的應用場景(揚長)

  • 早期實作與樣板代碼 (Early Implementation & Boilerplate):利用 AI 在專案初期生成骨架程式 (skeleton code)、基本功能或樣板代碼。
  • 研究與概念性工作 (Research & Conceptual Work):讓 AI 快速總結最新研究、整理設計文件、搜尋公司內部資源。也可用來集思廣益,或查詢特定函式庫的使用範例,減少查文件的時間。
  • 輔助與支援任務 (Support Tasks):AI 可生成小型程式碼片段,或幫忙產生測試案例(但要注意 AI 測試常流於表面,缺乏邊界案例覆蓋)。

工程師必須採取一些緩解措施,避免引入新的技術債(避短)

  • 預期並管理迭代 (Expect Rework):AI 很少一次就能產出正確解法,通常需要 2–3 輪提示調整。
  • 人工合成與架構整合 (Human Synthesis & Integration):工程師必須將 AI 生成的片段整合到一個結構良好的系統裡,不能盲目照單全收。
  • 預留整合時間 (Allocate Manual Integration Time):常見手動工作包括:調整命名、修改函式簽名、適應既有模組介面,確保與現有代碼的一致性。

將 AI 用於其擅長的、範圍明確的任務(如生成程式碼片段、樣板代碼、輔助文檔查詢、腦力激盪),並將人類的智慧和經驗聚焦於 AI 的弱項(如系統架構設計、複雜問題拆解、關鍵模組整合與嚴謹的程式碼審查)。

gpt-oss介紹OpenAI 發布 gpt-oss-120B 與 gpt-oss-20B:開源推理 AI

OpenAI 在人工智慧領域邁出一大步,正式推出 gpt-oss-120Bgpt-oss-20B,兩款專為高階推理設計的「開放權重」模型。其 模型權重在 Apache 2.0 授權下開放,自 2025 年 8 月起,任何開發者、企業或學術機構都能體驗並部署頂尖的 AI,而不再受限於封閉、昂貴的商業模型。

Explore on Hugging Face:https://huggingface.co/openai/gpt-oss-120b

Read model card:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf

前沿架構、人人可用

這兩款模型採用了強大的 Transformer 架構,並結 Mixture-of-Experts (MoE) 系統混合專家模型,能處理長達 128,000 tokens 的上下文。

  • gpt-oss-120B 擁有 1170 億參數與 36 層 Transformer,但每次推理只需啟用 50 億多一點參數(僅四個專家運行),大幅降低硬體需求。僅需 80 GB GPU 即可運行最強版本。
  • gpt-oss-20B 則只需 16 GB GPU,非常適合邊緣運算環境。

模型還加入 RoPE(旋轉位置編碼)grouped multi-query attention 等技術,降低延遲並優化記憶體使用,即使在有限硬體資源下也能表現出色。

訓練與對齊

gpt-oss 的訓練過程結合了 OpenAI 最先進的預訓練與後訓練技術,特別注重培養模型的推理、指令遵循和工具使用能力 。

預訓練與後訓練

模型的訓練數據以高品質的英文純文字為主,側重於 STEM(科學、技術、工程和數學)、程式編寫及通用知識領域 。訓練使用的分詞器是 o200k_harmony,這是 OpenAI 用於 o4-mini 和 GPT-4o 的分詞器的超集,也已同步開源 。
後訓練流程與 o4-mini 類似,包含兩個主要階段 :

  • 監督式微調 (SFT):使用高品質的指令和示範數據對模型進行微調,使其學會遵循指令。
  • 強化學習 (RL):透過高運算需求的強化學習階段,進一步將模型與 OpenAI 的模型規範對齊,並教會其在生成最終答案前,先進行思路鏈 (CoT) 推理和使用工具 。

非監督式思路鏈 (Unsupervised Chain-of-Thought – CoT)

一個重要的設計決策是,OpenAI 並未對模型的思路鏈 (CoT) 進行直接的監督式對齊 。這意味著模型的推理過程是其自然生成的,而非被引導去產生特定格式的「思考過程」。OpenAI 認為,保留未經過濾的 CoT 對於監控模型的潛在不當行為、欺騙性或濫用至關重要,並能讓研究社群有機會開發自己的 CoT 監控系統 。開發者不應直接向終端使用者展示 CoT,因為其中可能包含幻覺或不安全的內容 。

可控的推理深度

與 o 系列模型類似,gpt-oss 支援三種可調節的「推理深度」(reasoning effort):low、medium 和 high 。開發者可以透過在系統訊息中簡單設定,來權衡模型的延遲與性能,以適應不同任務的需求 。

性能與基準測試

gpt-oss 模型在多個標準學術和行業基準測試中展現出卓越的性能,特別是在需要複雜推理的領域 。

  • gpt-oss-120b:在競賽級程式設計 (Codeforces)、通用知識問答 (MMLU)、工具使用 (TauBench) 等方面,其表現與 OpenAI 的前沿模型 o4-mini 相當或更優 。在健康相關查詢 (HealthBench) 和競賽數學 (AIME) 方面,其性能甚至超越了 o4-mini 。
  • gpt-oss-20b:雖然規模較小,但其在相同測試中的表現與 o3-mini 相當或更佳,尤其在數學和健康領域的表現優於 o3-mini 。在 MMLU 基準測試中,它被認為是排名前十的模型 。

這些模型不僅在傳統基準測試上表現出色,還具備強大的代理性工作流程能力,包括工具使用(如網路搜尋、執行 Python 程式碼)、少樣本函數調用和複雜的多步推理 。

GPT-OSS 模型不能取代醫療專業人員,也不用於診斷或治療疾病

範例程式碼

gpt-oss 的權重可在 Hugging Face 上免費下載 。模型已廣泛整合到主流的 AI 部署平台和工具中,包括:

  • 雲端平台:Azure、AWS、Google Cloud (Vertex AI) 。
  • 推理服務商:Fireworks AI、Together AI、Vercel、Cloudflare 等 。
  • 本地部署工具:Hugging Face Transformers、vLLM、Ollama、llama.cpp、LM Studio

https://huggingface.co/blog/zh/welcome-openai-gpt-oss

使用 Transformers

pip install --upgrade accelerate transformers kernels

安裝自備 triton 3.4 的 PyTorch 2.8 及 triton 核心:

# Optional step if you want PyTorch 2.8, otherwise just `pip install torch`
pip install torch==2.8.0 --index-url https://download.pytorch.org/whl/test/cu128

# Install triton kernels for mxfp4 support
pip install git+https://github.com/triton-lang/triton.git@main#subdirectory=python/triton_kernels

以下範例示範如何使用 20B 模型進行簡單推理。mxfp4在下運作時,佔用 16 GB 記憶體;若使用bfloat16,則顯示存約 48 GB。

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "openai/gpt-oss-20b"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto",
    torch_dtype="auto",
)

messages = [
    {"role": "user", "content": "How many rs are in the word 'strawberry'?"},
]

inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True,
).to(model.device)

generated = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(generated[0][inputs["input_ids"].shape[-1]:]))

對企業與開發者的影響

這兩款模型的推出,象徵 先進 AI 的真正民主化

  • 各種規模的組織都能用它來自動化複雜分析、開發智慧助理、生成程式碼、提升客服體驗。
  • 同時保持對資料的 完全掌控,可部署於本地或混合雲基礎設施。
  • 靈活性與低成本,讓新創與中小企業(包含西班牙在內的各國公司)都能使用頂尖 AI,而不必依賴外部服務或受限授權。

安全性、風險與限制

OpenAI 強調,安全性是釋出所有模型的基礎,對開放權重模型尤其重要 。

主動安全措施

  • 數據過濾:在預訓練階段,過濾了與化學、生物、放射性和核子 (CBRN) 相關的有害資料 。
  • 安全對齊:在後訓練階段,透過審慎對齊 (deliberative alignment) 和指令階層等技術,教導模型拒絕不安全的提示並防範提示注入攻擊 。
  • 最壞情況微調測試:OpenAI 模擬攻擊者,在生物和網路安全等專業數據上對 gpt-oss-120b 進行惡意微調。結果顯示,即使經過極為廣泛的微調,模型也未能達到其「應變整備框架」中定義的高能力風險門檻 。

開源模型的挑戰
OpenAI 承認,開放權重模型一旦發布,惡意行為者可能對其進行微調以繞過安全措施 。為應對此風險,OpenAI 發起了獎金高達 50 萬美元的「紅隊挑戰賽」,鼓勵全球社群協助發掘新的安全漏洞 。

Claude Code的終端操作技巧與 SDK 應用

Anthropic 選擇 打造 CLI 而非 IDE Plugin,其背後原因包括:

  • 使用者偏好多樣性:CLI 可跨 VSCode、JetBrains、Vim、Emacs、終端機
  • AI 模型主導決策流程:未來開發流程將由 AI 針對上下文自動驅動,IDE 的 GUI 操作權重會降低
  • CLI 可自動串接 CI/CD / bash / SDK 工具,易於組成 AI-driven pipeline

鍵盤操作快捷指令

Claude Code 的 CLI 介面不只是輸入文字而已,它提供一整套鍵盤操作邏輯、bash 整合與 SDK 工具,讓你不需切換視窗,就能完成從 prompt 到自動化處理的流程。

鍵位操作功能說明
Shift + Tab接受 Claude 回傳的編輯建議(尤其是程式碼區塊)
ESC中斷當前 Claude 正在執行的任務,不會破壞 session 或遺失進度
! + 指令直接進入 bash 模式,執行指令並將執行記錄納入上下文記憶
# + 記憶內容用井號標記內容,告訴 Claude「這段要記住」,可用於持久化知識點或架構設定

建議在日常開發時養成 # 標記習慣,例如:
# 我們的 staging deploy 用的是 deploy-stg.sh,不要混用 prod
Claude 會將這段筆記納入後續 decision making 參考。

Bash 模式 × CLI 操作整合

直接在 CLI 輸入 !npm run lint,Claude 會:

  • 執行指令
  • 把 stdout 結果顯示在對話中
  • 根據結果提供後續建議(例如修正 lint 錯誤)

支援 CLAUDE.md 中事先宣告的別名指令,例如:

## Custom Commands
!test-api: curl http://localhost:3000/test

Claude Code SDK的應用

  • 傳入 prompt 並指定使用工具(如 bash, format, test
  • 輸出結果為 JSON、Markdown、或純文字
  • 指定存取的 context 限制,控制 Claude 的「記憶範圍」

Claude Code SDK 支援的功能與整合應用:

用途操作方式
CI 自動產生 PR 說明Pipe git diff → Claude → 輸出 summary
ML 模型監控報告將 inference logs 餵給 Claude,整理異常報告
雲端資源管理將 GCP / AWS CLI 結果給 Claude,分析資源狀況
Incident 回報格式化Claude 接收 Zabbix / Grafana Alert log,轉成報告或修復提議

多重 Session 操作

熟練使用者往往會搭配下列方式開啟多個 Claude session,以強化平行工作效率:

  • SSH session 中同時開啟 Quad CLI
  • 使用 tmux / byobu / screen 分割畫面,一邊進行 API 實作,一邊讓 Claude 處理測試或 log 分析
  • 每個 session 可以有不同的 prompt log 與 context,互不干擾

Bash 指令安全

Claude 能執行 bash 指令(如 !rm -rf),但若沒安全機制,可能造成災難性後果。設好安全機制與允許清單,讓 Claude 可以自動處理例行指令又不會誤殺系統

  • 分層許可制度(Tiered Permission):
    • 預設只允許「只讀類」指令(如 cat, ls, git status
    • 寫入類或系統操作指令,需經過人工確認或提前白名單設定
  • 靜態分析與模式識別
    • Claude 會對複合指令進行分析,例如 curl + | bash,視為高風險行為自動暫停

也可以透過 Cloude.md 定義哪些指令允許自動執行、哪些需要人工審核。

多模態輸入支援

Claude CLI 不只能處理文字 prompt,還支援:

  • 拖曳圖片 進 CLI,做 OCR 或 UI 檢查
  • 貼上路徑(如:/tmp/screenshot.png),Claude 會載入該檔案進行處理
  • 檔案上傳分析,如 log 檔、test output、build summary 等

例如:

  • 拖進 error.png → Claude 判斷是 layout shift bug
  • 拖進 test-results.json → Claude 根據失敗測試自動找錯

使用claude-code自動修改github的issue

與Github連結

gh 是 GitHub CLI 工具,用於在命令列中與 GitHub 互動。

winget install --id GitHub.cli --accept-source-agreements

接著就是認證GitHub CLI,打開瀏覽器至:https://github.com/login/device

輸入代碼完成認證

GitHub CLI常用指令:

  • gh repo clone – 複製倉庫
  • gh pr create – 建立 Pull Request
  • gh pr list – 列出 PR
  • gh issue create – 建立 Issue
  • gh auth login – 登入 GitHub 需要先安裝並認證才能使用。

使用Github CLI請Claude幫忙修Issue

接著就可以透過Github CLI請Claude自動幫忙修BUG了!

建立 ~/.claude/commands/fix-github-issue.md 這個檔案,內容就是你想讓 Claude Code 幫你「自動處理 GitHub Issue」的完整流程。這個檔案就像是你寫給 Claude 的任務腳本,它會當作「自定義指令」使用。

以下為一個範例內容

# Fix GitHub Issue

## 目標
修復 GitHub 上指定 issue 的 bug,並提交一個 Pull Request。

## 步驟

1. 使用 `gh issue view {input}` 指令讀取 Issue 編號為 `{input}` 的描述內容。
2. 分析問題並找出最可能相關的程式碼區段與檔案。
3. 編寫修正該 bug 的程式碼(請先顯示變更建議讓我確認)。
4. 編寫對應的測試案例來覆蓋此次修正。
5. 若我確認沒問題,請進行 commit,訊息為 `fix: resolve issue #{input}`。
6. 提交 PR,標題為 `Fix for issue #{input}`,描述為修正內容與測試方式。

只要你寫好後,在 Claude 裡輸入:

/project:fix-github-issue 1234

它就會根據那個 markdown 檔案的內容,自動幫你處理 Issue #1234。

Framelink Figma MCP

功能介紹

Framelink Figma MCP 伺服器是一個專為 AI 程式碼工具(例如 Cursor)設計的橋接工具,它讓您的代理(agent)能夠直接存取 Figma 設計檔案,並將其轉譯為程式碼。這比單純貼上螢幕截圖等方式更準確、更高效。

透過 MCP(Model Context Protocol)伺服器,Cursor 能從 Figma 取得簡化後的設計元數據,例如版面配置與樣式,並生成對應的程式碼。這不僅大幅提升 AI 模型的準確度,也提升了回應的關聯性與品質。

  • 一次性完成設計實作:可直接在任意框架中生成可用 UI 元件。
  • 無需手動轉譯設計:省去工程師對設計稿「讀圖寫碼」的時間。
  • 多語言支援:支援 English、韓文、日文、簡體中文等語系。
  • MIT 授權:自由使用與修改。
  • 社群支援:可加入 Discord 討論、追蹤 Twitter。

設定及安裝

步驟一:取得 Figma 存取權杖(Access Token)

在開始使用 MCP 前,您需要先產生一組 Figma API 權杖:

  1. 開啟 Figma 首頁,點選左上角個人頭像,選擇「Settings」。
  2. 點選「Security」分頁。
  3. 捲動到「Personal access tokens」區塊,點選「Generate new token」。
  4. 為此權杖命名,並確保您啟用「File content」與「Dev resources」的讀取權限
  5. 點選「Generate token」,將出現的 token 儲存下來。

詳細教學可參考 Figma Access Token 說明

步驟二:在 IDE 中加入 Framelink Figma MCP 設定

大多數現代 IDE 都支援以 JSON 格式設定 MCP 伺服器。以下提供適用於 macOS/Linux 與 Windows 的設定範例:

macOS / Linux

{
  "mcpServers": {
    "Framelink Figma MCP": {
      "command": "npx",
      "args": [
        "-y",
        "figma-developer-mcp",
        "--figma-api-key=YOUR-KEY",
        "--stdio"
      ]
    }
  }
}

Windows

{
  "mcpServers": {
    "Framelink Figma MCP": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "figma-developer-mcp",
        "--figma-api-key=YOUR-KEY",
        "--stdio"
      ]
    }
  }
}

記得將 "YOUR-KEY" 替換為您剛才產生的 Figma API token。

步驟三:實作您的第一個設計

複製 Figma 框架或群組的連結

由於 Figma 設計檔案的資料量龐大,MCP 伺服器會自動壓縮資料,減少約 90%。即便如此,建議您一次實作「一個區塊」,確保輸出品質最佳。

在 Figma 中:

  1. 右鍵點選您要實作的 Frame 或 Group。
  2. 選擇「Copy/Paste as → Copy link to selection」。

在 IDE 中貼上連結並發送請求

將上述連結貼到 IDE 的對話介面中(如 Cursor 的 Agent 模式),輸入簡單請求:

實作這個 Figma frame。

系統會呼叫 MCP 的 get_figma_data 函式,取得設計資料並自動產出對應的程式碼。

補充上下文說明(如:使用目的、期望技術堆疊等)有助於提升輸出品質。

最佳實踐指南

雖然 MCP 伺服器能大幅簡化從設計到程式碼的轉換流程,但 Figma 的檔案結構與命名方式仍會直接影響 AI 的理解效果。

請遵循以下設計原則:

  • 使用 Auto Layout(自動排版)
    MCP 尚未完全支援浮動(floating)或絕對定位(absolute positioning)元素,使用 Auto Layout 可讓排版更清楚易讀。
  • 為 Frame 與 Group 命名
    有意義的命名可幫助 AI 建立語意上的對應,避免出現一堆 div-123group-456 的結構。
  • 專業小技巧
    Figma 內建 AI 命名工具可快速為元件自動命名,請善加利用!

在編輯器中的操作技巧

即使 MCP 幫你處理了設計資料的轉換,你仍需提供足夠的上下文,才能讓 AI 模型生成最符合需求的程式碼。

編輯器端的提示最佳化方式:

  • 說明你在使用什麼技術堆疊
    讓 AI 知道是否要使用 Tailwind CSS、React、Vue 等。
  • 引用程式碼中的關鍵檔案
    例如:「請依照 Button.tsx 的風格來實作這個 UI」,有助於維持一致性。
  • 除了貼 Figma 連結,也加上文字描述
    描述這個區塊的功能、使用者互動方式、期望行為等,可提升準確性。
  • 管理上下文大小
    與其貼整份 Figma 檔案,建議只貼 Frame 或 Group 的連結,避免 AI 過載無關資訊。

應用建議總結

類別建議做法原因
Figma 設計使用 Auto Layout讓排版結構有邏輯、便於解析
Figma 元件命名命名清楚,語意明確提升生成程式碼的可讀性與一致性
AI 提示語境指定技術環境讓 AI 採用正確框架與語法
程式碼參考引用現有元件保持風格一致
資訊控制精簡設計範圍避免模型被多餘細節干擾

Claude Code的MCP範圍

Claude Code MCP 允許你依據用途與共享需求,將伺服器設定在不同範圍(scope)中,分為:

  • Local(本地)
  • Project(專案)
  • User(用戶)

這三種範圍有明確的優先順序與用途,可靈活應對個人實驗、團隊共享、跨專案使用等情境。

Local Scope(本地範圍)

  • 儲存位置:專案內使用者本機設定
  • 權限:僅限你自己使用,不會被版本控制
  • 適合:個人實驗伺服器、敏感金鑰(如 API key)、測試中的功能
claude mcp add my-private-server /path/to/server
# 或指定為 local
claude mcp add my-private-server -s local /path/to/server

Project Scope(專案範圍)

  • 儲存位置:.mcp.json 檔案,放在專案根目錄
  • 權限:團隊共享,可加入版本控制
  • 適合:團隊共用伺服器、CI 工具、共用資料庫
claude mcp add shared-server -s project /path/to/server

.mcp.json 標準格式如下:

{
  "mcpServers": {
    "shared-server": {
      "command": "/path/to/server",
      "args": [],
      "env": {}
    }
  }
}

出於安全考量,Claude Code 啟用 .mcp.json 內容前會要求你手動批准
(重設批准選項用:claude mcp reset-project-choices

User Scope(用戶範圍)

  • 儲存位置:用戶本機設定檔(跨專案有效)
  • 權限:只有你自己能用,但所有專案都能存取
  • 適合:你常用的工具伺服器、通用開發服務
claude mcp add my-user-server -s user /path/to/server

其他規則

當多個範圍定義了同名伺服器,系統會依下列順序選擇:

  1. Local 本地(最高優先)
  2. Project 專案
  3. User 用戶(最低優先)

這表示你可以用 local 設定暫時覆蓋 project/user 設定,不怕被共享配置干擾。

可以在 .mcp.json 中使用以下格式插入環境變數:

語法說明
${VAR}插入 VAR 的值
${VAR:-default}沒有 VAR 時使用 default

適用位置包含:

  • command:可執行檔路徑
  • args:執行參數
  • env:環境變數本身
  • url:遠端伺服器網址
  • headers:身份驗證 token 等
{
  "mcpServers": {
    "api-server": {
      "type": "sse",
      "url": "${API_BASE_URL:-https://api.example.com}/mcp",
      "headers": {
        "Authorization": "Bearer ${API_KEY}"
      }
    }
  }
}

若未設 API_KEY 也沒指定 default,Claude Code 啟動時會報錯。

遠端伺服器身份驗證(OAuth 支援)

若你連接的 MCP Server 需要 OAuth 驗證,例如 GitHub API:

新增伺服器

claude mcp add --transport sse github-server https://api.github.com/mcp

使用 /mcp 指令開啟互動選單,完成登入驗證

/mcp

瀏覽器會跳出 OAuth 流程,完成授權後即可連線

  • Token 會安全儲存並自動刷新
  • 也可手動用 /mcp 清除驗證

PostgreSQL MCP 伺服器連線

若你想讓 Claude 幫你查詢資料庫結構,可這樣啟用:

claude mcp add postgres-server /path/to/postgres-mcp-server \
  --connection-string "postgresql://user:pass@localhost:5432/mydb"

然後直接對 Claude 下指令:

> describe the schema of our users table
> what are the most recent orders?

Claude 會進行唯讀存取,幫你檢查欄位、關聯、資料內容,非常適合熟悉新專案資料庫。

自己撰寫一個簡單的MCP

參考實作伺服器

這些是官方驗證過、最值得嘗試的範例:

  • Filesystem:安全操作檔案,支援讀寫控制
  • Fetch:從網頁擷取內容並轉成 LLM 可讀格式
  • Memory:提供持久記憶能力(知識圖譜)
  • Sequential Thinking:讓模型用步驟式思考解題

適合在 coding 流程中使用的:

  • Git -用於讀取、搜索和作 Git 儲存庫的工具
  • GitHub – 倉庫管理、檔作和 GitHub API 集成
  • GitLab – GitLab API 集成,支持專案管理
  • Sentry – 從 Sentry.io 中檢索和分析問題

瀏覽器自動化

  • Brave Search – 使用 Brave 的搜索 API 進行 Web 和本地搜索
  • Puppeteer – 瀏覽器自動化和網頁抓取功能

更多官方推薦的MCP列表

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file#%EF%B8%8F-official-integrations

安裝開發工具uv

# WinGet(Windows)
winget install astral-sh.uv
# Homebrew(macOS)
brew install uv
#PyPI
pip install uv

初始化MCP SERVER

這邊有很多不同語言的MCP範例:https://github.com/modelcontextprotocol

這邊為python實現的一個簡單範例

uv venv --python cpython-3.11.13-windows-x86_64-none
.\.venv\Scripts\activate
uv pip install "mcp[cli]"

設定main.py的內容如下

"""
FastMCP quickstart example.

cd to the `examples/snippets/clients` directory and run:
    uv run server fastmcp_quickstart stdio
"""

from mcp.server.fastmcp import FastMCP

# Create an MCP server
mcp = FastMCP("Demo")


# Add an addition tool
@mcp.tool()
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b


# Add a dynamic greeting resource
@mcp.resource("greeting://{name}")
def get_greeting(name: str) -> str:
    """Get a personalized greeting"""
    return f"Hello, {name}!"


# Add a prompt
@mcp.prompt()
def greet_user(name: str, style: str = "friendly") -> str:
    """Generate a greeting prompt"""
    styles = {
        "friendly": "Please write a warm, friendly greeting",
        "formal": "Please write a formal, professional greeting",
        "casual": "Please write a casual, relaxed greeting",
    }

    return f"{styles.get(style, styles['friendly'])} for someone named {name}."
    
if __name__ == "__main__":
    mcp.run(transport="stdio")

啟動MCP

uv run main.py

如何測試MCP?用 MCP Inspector

npx -y @modelcontextprotocol/inspector@latest

在Transport Type選擇STDIO,然後command輸入uv run server.py

就可以從Resource、Prompts、Tools去測試剛剛設定的MCP了

將自己撰寫的工具加到Claude Code

claude mcp add my-mcp-server uv run main.py
claude mcp list

出現以下字樣代表成功

Checking MCP server health...

firecrawl-mcp: cmd /c npx -y firecrawl-mcp - ✓ Connected
my-mcp-server: uv run main.py - ✓ Connected

在Claude Code使用MCP功能

MCP 為什麼重要

現有的 LLM 模型像 GPT-4 或 Claude 雖然很強,但常見限制包括:

  • 無法即時查資料(知識截止)
  • 無法串接你用的工具(ERP、CI/CD)
  • 整合要自己 hardcode,沒標準

MCP 正是為了解決這些問題:

問題MCP 解法
AI 不能接 CRM 或 APIMCP 伺服器公開標準工具讓 AI 使用
每個模型都要客製整合MCP 是「AI 世界的 USB-C」
整合效率低用標準協議連接,不再重寫 glue code
缺乏即時專業資料MCP Server 可串接資料庫或第三方 API

MCP 架構核心概念

MCP 架構中有三個主要角色:

元件說明
Host(大腦)AI 模型平台(如 Claude、GitHub Copilot)
Server提供功能的 MCP Server(如 Firecrawl、Notion)
Client負責與 Server 溝通的代理程式

支援兩種通訊協定:

  • stdio:用於本地執行程式
  • http + SSE:用於網路 API、第三方系統

精選 MCP Server 實例

名稱功能備註
Firecrawl網站爬蟲支援 JSON、Markdown 回傳
Notion MCP讀寫 Notion database適合做知識庫整合
Perplexity Ask接入 Sonar API 問答、研究需要 API 金鑰
Time MCP查詢世界時間適合簡單 demo
Playwright MCP幫你操控瀏覽器、截圖、資料擷取自動化超強!

配置 MCP 伺服器

添加 MCP stdio 伺服器

# Basic syntax
claude mcp add <name> <command> [args...]

# Example: Adding a local server
claude mcp add my-server -e API_KEY=123 -- /path/to/server arg1 arg2
# This creates: command="/path/to/server", args=["arg1", "arg2"]

添加 MCP SSE 伺服器

# Basic syntax
claude mcp add --transport sse <name> <url>

# Example: Adding an SSE server
claude mcp add --transport sse sse-server https://example.com/sse-endpoint

# Example: Adding an SSE server with custom headers
claude mcp add --transport sse api-server https://api.example.com/mcp --header "X-API-Key: your-key"

添加 MCP HTTP 伺服器

# Basic syntax
claude mcp add --transport http <name> <url>

# Example: Adding a streamable HTTP server
claude mcp add --transport http http-server https://example.com/mcp

# Example: Adding an HTTP server with authentication header
claude mcp add --transport http secure-server https://api.example.com/mcp --header "Authorization: Bearer your-token"

管理您的 MCP 伺服器

# List all configured servers
claude mcp list

# Get details for a specific server
claude mcp get my-server

# Remove a server
claude mcp remove my-server

在Claude Code新增Firecrawl的功能

在本機 Windows(非 WSL)上,使用 npx 的本地 MCP 伺服器需要 cmd /c 包裝器來確保正確執行。

https://github.com/mendableai/firecrawl-mcp-server

安裝方式

1. 到https://www.firecrawl.dev/app/api-keys申請API KEY

2. 設定環境變數FIRECRAWL_API_KEY,值為剛剛申請的API KEY

3. 安裝firecrawl-mcp

    npm install -g firecrawl-mcp
    

    4. 設定MCP

    claude mcp add firecrawl-mcp -- cmd /c npx -y firecrawl-mcp
    

    5. 確認有連接上

    claude mcp list
    

    出現Connected代表成功連接

    接著就可以打開Claude Code使用firecrawl來抓取網頁了!