THU OpenClaw
東海大學|教職員智慧助理平台

系統架構與安全設計

本頁用非工程師也能理解的方式,說明 THU OpenClaw 以 OpenClaw 為底層、透過 Container 執行隔離, 並由平台統一 攔截/代理 LLM API 呼叫與金鑰注入;同時以 Skill vetter 來降低技能帶來的安全風險。

1) OpenClaw 作為底層引擎

THU OpenClaw 的「智慧助理」核心由 OpenClaw 提供:它負責對話流程、工具呼叫(例如檔案處理、工作區操作)、Skills(技能)執行、 以及多輪推理與回覆產生。換句話說,THU OpenClaw 是在 OpenClaw 基底上,針對校園/教職員場景做「多使用者、隔離、管理與安全」的包裝。

2) 透過容器執行:每位使用者隔離

為避免不同使用者彼此影響(檔案、工作區、會話、已安裝技能),THU OpenClaw 將每位使用者的執行環境放在獨立的容器(Container)內。 這帶來三個好處:資料隔離資源隔離(CPU/記憶體限制)、故障隔離(單一使用者異常不影響整體)。

概念流程(簡化)
瀏覽器(Web)
  └─> 平台(認證/容器管理/代理)
        └─> 使用者容器(OpenClaw + Skills + 工作區)
  

3) 自動攔截 / 代理 LLM API:使用者不用自己設定模型

THU OpenClaw 不要求每位使用者自行設定模型或 API Key。相反地,平台層會統一「攔截」OpenClaw 內部對 LLM 的請求, 再由平台代為選擇模型、注入金鑰、做配額/記錄/審計,最後把結果回傳給使用者容器。

  • 金鑰不落地到使用者容器:降低外洩風險。
  • 模型統一管理:可依校方政策開放/關閉特定模型。
  • 用量與稽核:方便統計、配額、異常偵測與合規需求。

(補充)模型政策說明:為何不提供固定模型清單

THU OpenClaw 的模型能力由平台統一管理與代理。為了兼顧授權、資安、負載與成本控管,系統可用模型可能會依校方政策進行調整, 因此網站上不提供「固定且完整」的模型清單,以免造成誤解或資訊過期。

  • 預設模型:由系統依政策與資源狀態選擇,使用者不需自行設定。
  • 可用性調整:特定模型可能因維護、額度、或政策暫時停用/替換。
  • 一致的使用體驗:即使底層模型調整,對使用者仍維持相同的操作流程。
  • 需求回饋:若教學/行政工作需要特定模型能力,可向「圖書暨資訊處」提出需求評估。

提醒:模型回覆僅供輔助與草稿,重要內容請以權威來源與校內規範為準。

4) Skill vetter:降低技能帶來的安全問題

Skills(技能)本質上可能包含腳本/指令或外部存取能力,因此需要額外的安全控管。THU OpenClaw 引入「Skill vetter」概念: 在技能上架/安裝前進行檢查,搭配來源控管與權限規範,減少惡意技能造成資料外洩、未授權連線或破壞系統的風險。

來源控管

只允許可信來源/白名單技能,避免任意從不明連結安裝。

內容檢查

檢查是否包含高風險指令、可疑網路存取、或不當檔案操作。

權限與隔離

以容器/權限限制技能可做的事,把風險關在最小範圍。