審查
審查 API 提供 OpenAI 相容內容安全檢查,可用於使用者輸入或模型輸出的文字審查。
內容審查
針對仇恨、騷擾、自殘、性內容與暴力等常見安全類別評估文字輸入。
https://api.dgrid.ai
POST
/v1/moderations請求體
| 欄位 | 型別 | 必填 | 說明 |
|---|---|---|---|
input | string 或 array | 是 | 要審查的文字內容。 |
model | string | 否 | 審查模型,例如 text-moderation-latest 或 text-moderation-stable。 |
回應體
| 欄位 | 型別 | 說明 |
|---|---|---|
id | string | 審查請求 ID。 |
model | string | 實際使用的審查模型。 |
results | array | 審查結果陣列。 |
results[].flagged | boolean | 是否被標記。 |
results[].categories | object | 各類別布林結果。 |
results[].categories.hate | boolean | 仇恨言論。 |
results[].categories.hate/threatening | boolean | 威脅性仇恨言論。 |
results[].categories.harassment | boolean | 騷擾。 |
results[].categories.self-harm | boolean | 自殘。 |
results[].categories.sexual | boolean | 性內容。 |
results[].categories.violence | boolean | 暴力。 |
results[].category_scores | object | 各分類連續分數。 |
