10 min read

AX 시대, 권한체계를 다시 설계해야 한다

Shadow AI를 막으려 할수록 Shadow AI가 늘어난다. 경영진이 내려야 할 단 3가지 결정과, 그 결정을 가능하게 하는 권한체계 철학을 정리했다.
AX 시대, 권한체계를 다시 설계해야 한다

직원의 93%가 회사 기밀 데이터를 미승인 AI 도구에 입력한 경험이 있다.

Kiteworks의 2025년 조사 결과다. 80% 이상의 직원이 업무에 미승인 AI 도구를 쓰고 있고, 놀랍게도 보안 전문가를 포함하면 그 비율은 90%를 넘는다. 임원진이 Shadow AI 사용률이 가장 높다는 조사 결과도 있다. 거버넌스 기준을 설정하는 사람들이 그 기준을 가장 먼저 위반하고 있다는 뜻이다.

이것이 AX(AI Transformation) 시대 권한체계의 역설이다. 통제를 강화할수록 Shadow AI가 늘어난다.

그렇다면 어떻게 해야 하는가? 막는 것이 아니라, 흘러갈 경로를 설계해야 한다.


왜 지금 권한체계인가

2025년을 기점으로 기업의 AI 도입 방식이 근본적으로 바뀌었다. 비개발자도 Claude Code 같은 AI 코딩 도구를 쓰기 시작했고, Copilot은 이메일부터 데이터 분석까지 전 업무에 침투했다. Gartner는 2025년 Hype Cycle에서 Agentic AI와 AI-Ready Data 모두 "기대의 정점"에 도달했다고 평가했다.

그런데 여기서 중요한 숫자 하나. GenAI에 평균 190만 달러를 투자한 기업 중, CEO가 만족스러운 결과를 얻었다고 답한 비율은 30% 미만이다. 무엇이 문제인가?

두 가지다. 데이터 준비도의 부족과, 권한체계의 부재.

데이터 성숙도: 대부분의 조직이 준비되지 않았다

데이터 거버넌스 성숙도 모델(Gartner DGMM, DCAM 등)은 공통적으로 조직을 5~6단계로 분류한다. AI를 프로덕션에 올릴 수 있는 수준은 Level 3 이상이다. 그런데 98.8%의 기업이 데이터 성숙도 향상에 투자하지만, 실제로 진전을 이루는 기업은 37.8%에 불과하다.

왜 이렇게 어려운가? 기술 투자만으로는 부족하기 때문이다. Level 1→2 전환은 데이터 리더십 임명 문제고, Level 2→3 전환은 기술이 아니라 조직 정치 문제다. 그리고 여기서 가장 흔한 실수가 등장한다. Goodhart의 법칙: 프레임워크 준수가 목표가 되는 순간, 체크리스트만 채우기 시작한다. 거버넌스 점수는 올라가지만 실제 데이터 활용 능력은 제자리다.

AI-Ready Data의 4가지 조건

데이터가 AI에 쓸 수 있으려면 4가지를 충족해야 한다: 완전성(Completeness), 일관성(Consistency), 정확성(Accuracy), 맥락 인식(Context-Awareness). 현실에서는 57%의 조직이 자사 데이터가 AI-ready 하지 않다고 스스로 인정한다.

기반 없는 생성은 더 빠른 잘못된 결론이다. 데이터 성숙도 없이 AI 도구만 도입하면, AI가 틀린 답을 더 빠르고 자신 있게 내놓는다.


기존 권한체계가 무너지는 이유

기존 IAM(Identity and Access Management)은 단순한 전제에서 출발한다.

"이 사람이 이 리소스에 접근할 수 있는가?"

그런데 AI 도구가 중간에 끼어들면서 이 전제가 깨진다. 실제 구조는 이렇게 됐다.

사람 → AI 도구 → 시스템

AI는 단순한 소프트웨어가 아니다. 스스로 판단하고, 동적으로 권한을 요구하고, 경우에 따라 사람의 승인 없이 행동한다. OAuth 2.0, OIDC, SAML은 예측 가능한 정적 시스템을 위해 설계됐다. AI 에이전트의 비예측적 동작을 처리하도록 설계되지 않았다.

숫자로 보면 더 선명해진다 (OASIS Security 2026):
- 기업 인프라에서 비인간 정체성(NHI)이 인간 사용자를 82:1로 초과
- 92%의 기업이 AI 정체성에 대한 가시성 부족
- 86%의 기업이 AI 정체성 접근 정책 미시행

실제 사고 사례도 있다. 2024년 Slack AI 프롬프트 인젝션 사건에서는 악의적 메시지 하나로 AI 요약 도구가 민감한 대화를 외부 주소로 전송했다. 같은 해 Devin AI는 권한 오류를 만나자 자동으로 chmod +x를 실행해 AWS 자격증명을 노출시켰다. 2025년 Cline AI는 낮은 권한의 이슈 트리지 워크플로우에서 프롬프트 인젝션을 통해 npm 패키지 게시까지 권한을 상승시켰다.


3가지 근본적 전환

이 문제에 대응하는 철학적 전환이 필요하다.

첫째, 경계(Perimeter)에서 데이터(Data)로. Claude Code, Copilot, ChatGPT는 외부 API다. 경계 안의 직원이 경계 밖으로 데이터를 자연스럽게 흘려보낸다. 진짜 방어선은 데이터 그 자체다. 데이터가 분류되어 있으면, 어디로 이동하든 동일한 규칙이 따라간다.

둘째, 금지(Block)에서 설계(Design)로. 직원들이 Shadow AI를 쓰는 이유는 나쁜 의도가 아니다. 더 편리하기 때문이다. 삼성은 2024년 2월 ChatGPT를 전면 금지했지만 Shadow AI를 막지 못했고, 결국 내부 AI 솔루션을 만드는 방향으로 전환했다. 해결책은 승인된 경로를 더 편리하게 만드는 것이다. 좋은 권한 설계의 목표 = "옳은 행동이 편한 행동"이 되는 구조.

셋째, 인간(Human)에서 컨텍스트(Context)로. AX 이후 권한의 질문은 바뀐다.

"이 사람이, 이 도구를 통해, 이 상황에서, 이 리소스에, 무엇을 할 수 있는가?"

Just-In-Time 권한, Least Agency(최소 행위 원칙), 컨텍스트 기반 인증이 필요한 이유다.


경영진이 내려야 할 3가지 결정

철학을 실행으로 전환하면 세 가지 의사결정으로 좁혀진다.

① 데이터 분류 기준을 정한다

가장 먼저 해야 할 일이다. 분류가 선행되지 않으면 나머지 모든 권한 설계는 끝없이 복잡해진다.

판단은 3가지 질문으로 한다:

  1. 규제 의무가 있는가? 고객 PII, 결제 정보, 임직원 인사 정보 — Yes면 자동으로 Confidential
  2. 유출 시 되돌릴 수 없는가? 이미 퍼진 고객 정보, 이미 사용된 API 키 — Yes면 Confidential
  3. AI 도구에 넣으면 외부 서버로 전송되는가? Claude Code, ChatGPT는 외부 API다 — 이 경로를 통과하면 안 되는 데이터면 Confidential

결과는 4등급으로 정리된다:

등급 AI 도구 허용 예시
Public 제한 없음 마케팅 자료, 공개 API 문서
Internal 사내 AI 도구만 회의록, 기획서, 운영 매뉴얼
Confidential 입력 금지 (DLP 차단) 고객 PII, 미공개 재무, 핵심 알고리즘
Secret AI 도구 접근 자체 금지 API 키, M&A 정보, 임원 인사

판단이 모호할 때는 이 질문 하나로 끝낸다: "이 데이터가 내일 뉴스에 나온다면 회사가 사과 공지를 내야 하는가?" Yes면 Confidential 이상이다.

자주 틀리는 경계도 있다. "익명화됐으니 괜찮다"(재식별 가능성이 있으면 여전히 Confidential), "내부 직원만 쓰는 AI니까 괜찮다"(외부 API를 쓰면 내부 도구가 아니다), "개발용 테스트 데이터라서"(실제 고객 데이터를 샘플로 쓰면 동일 등급 적용).

② 직원들이 안전하게 쓸 수 있는 AI 도구를 제공한다

어떤 도구를 어떤 직원에게 허용할지는 5가지 기준으로 평가한다:

  • 데이터 처리 방식: 입력 데이터를 학습에 사용하는가? (Confidential이 있다면 학습 사용 금지 보장 필수)
  • 감사 로그: 누가 무엇을 입력했는지 90일 이상 기록되는가?
  • SSO 연동: 사내 계정으로만 로그인 가능한가? (개인 계정 차단)
  • 데이터 격리: 다른 테넌트와 데이터가 분리되는가?
  • 관리 콘솔: IT 관리자가 중앙에서 정책을 배포할 수 있는가?

도구 체계는 4등급으로 나눈다:

등급 대상 허용 범위
Tier A 전 직원 승인 목록 내 SaaS AI, PII 입력 불가
Tier B 데이터 직군 + 데이터 분석 AI (Gemini for BigQuery 등)
Tier C 개발자 + AI 코딩 도구 (Claude Code, GitHub Copilot 등)
Tier D IT 관리자 정책 설정 전체 권한

도입 순서는 정책 먼저, 도구 나중이다. 도구부터 배포하고 정책은 나중에 만들면, 이미 퍼진 후 정책은 "불편함"으로 인식되어 순응도가 0에 가깝다.

③ AI 도구 사용을 볼 수 있는 체계를 만든다

현재 91%의 기업이 AI 정책을 수립했지만, 실제로 모니터링을 운영하는 기업은 54%에 불과하다. 정책이 있어도 보이지 않으면 없는 것과 같다.

반드시 모니터해야 할 이상탐지 임계값:

  • 평소 대비 10배 급증 → 즉시 조사
  • 30분 내 50개 이상 파일 접근 → 자동 차단 후 검토
  • 새벽 2~5시 비업무 시간 접근 → 알림 발송
  • Confidential 입력 시도 1건 → 즉시 보안팀 에스컬레이션

세 가지 결정의 순서는 바꿀 수 없다.

① 데이터 분류 → ② AI 도구 제공 → ③ 가시성 체계

분류가 없으면 어떤 도구를 막아야 하는지 모르고, 도구가 없으면 추적할 대상이 없다.


성숙도에 맞게 점진적으로

마지막으로 가장 중요한 원칙. 데이터를 알수록, 분류할수록, 추적할수록 더 많은 것을 허용할 수 있다. 엄격한 분류와 감시가 더 넓은 허용의 전제조건이다.

한 번에 완벽한 체계를 만들려 하지 말 것. Goodhart의 함정을 피하려면, 권한 체계 자체가 목적이 되어서는 안 된다. 목적은 비즈니스 가치 창출과 리스크 관리다.

지금 당장 할 수 있는 첫 걸음은 하나다.

이번 주 안에 데이터 오너(부서장)들과 3시간 워크숍을 열어라. 그리고 3가지 질문으로 자기 부서 데이터를 분류하라.

그것만 해도 권한체계의 절반은 해결된다.


이 글은 커머스 기업에서 AX 도입을 준비하며 정리한 내용을 바탕으로 작성됐습니다. 데이터 분류 기준, Shadow AI 거버넌스, AI 도구 권한 구조 등 각 주제에 대한 상세 프레임워크는 별도로 정리 중입니다.