모더레이션
모더레이션 API는 사용자 입력이나 모델 출력 텍스트를 대상으로 OpenAI 호환 콘텐츠 안전 검사를 제공합니다.
모더레이션
혐오, 괴롭힘, 자해, 성적 콘텐츠, 폭력과 같은 주요 안전 카테고리를 기준으로 텍스트를 평가합니다.
https://api.dgrid.ai
POST
/v1/moderations요청 본문
| 필드 | 타입 | 필수 | 설명 |
|---|---|---|---|
input | string 또는 array | 예 | 검사할 텍스트 콘텐츠입니다. |
model | string | 아니오 | text-moderation-latest, text-moderation-stable 등 모더레이션 모델입니다. |
응답 본문
| 필드 | 타입 | 설명 |
|---|---|---|
id | string | 모더레이션 요청 ID입니다. |
model | string | 사용된 모더레이션 모델입니다. |
results | array | 모더레이션 결과 목록입니다. |
results[].flagged | boolean | 입력이 플래그 처리되었는지 여부입니다. |
results[].categories | object | 카테고리별 boolean 결과입니다. |
results[].categories.hate | boolean | 혐오 발언 여부입니다. |
results[].categories.hate/threatening | boolean | 위협성 혐오 발언 여부입니다. |
results[].categories.harassment | boolean | 괴롭힘 여부입니다. |
results[].categories.self-harm | boolean | 자해 여부입니다. |
results[].categories.sexual | boolean | 성적 콘텐츠 여부입니다. |
results[].categories.violence | boolean | 폭력 여부입니다. |
results[].category_scores | object | 카테고리별 점수입니다. |
