07
Why It Is Safe

OpenSDLC가 안전한 이유는,
AI 자율성보다 통제(Control over Autonomy)를 우선하는 구조이기 때문입니다.

OpenSDLC가 강조하는 핵심은 `Validation Over Self-Assertion`입니다. 즉 AI가 잘됐다고 말하는 것보다, 독립 검증과 물리적 artifact가 더 우선합니다. 중요한 판단은 Human-in-the-Loop 방식으로 사람의 승인과 검토를 거쳐 진행됩니다.

01

독립 품질 게이트

모든 생산 단계 뒤에 `ValidationReportArtifact`가 따라오며, `pass / warning / fail`로 다음 진행을 통제합니다.

02

전방향 추적성

`source_artifact_ids` 중심으로 요구사항, 테스트 설계, 구현, 실행 결과를 연결해 책임 위치를 추적할 수 있습니다.

03

사람 승인 유지

요구사항 확정과 반복 지속, 최종 종료 같은 중요한 판단은 사람이 승인합니다.

04

단일 활성 역할

`Sequential Single-Agent Execution`으로 동시에 여러 역할이 뒤섞이지 않아 작업 전환과 책임 경계가 선명합니다.

운영자 관점에서 의미

  • AI가 만든 결과를 나중에 설명할 수 있습니다.
  • 문제가 생겨도 어느 단계에서 어긋났는지 역추적할 수 있습니다.
  • 속도 개선과 품질 통제를 동시에 가져갈 수 있습니다.

조직 리더 관점에서 의미

  • 전면 AI 전환이 아니라 통제 가능한 운영 실험으로 시작할 수 있습니다.
  • 검수 기준과 승인 책임이 사라지지 않습니다.
  • AI 도입을 도구 구매가 아니라 운영 설계 과제로 다룰 수 있습니다.