AI인사이트 로고AI인사이트
챕터 3

AI 도구별 프라이버시 설정 가이드 — 주요 도구 20개 보안 체크리스트

챗봇, 코딩, 이미지, 음성, 생산성, 자동화 등 카테고리별 20개 주요 AI 도구의 학습 차단, 데이터 삭제, 활동 기록 관리 방법을 체크리스트로 정리합니다.

도구마다 다른 보안 설정, 하나씩 점검해야 합니다

AI 도구를 하나만 쓰는 사람은 거의 없습니다. 업무용 챗봇, 코딩 어시스턴트, 이미지 생성기, 문서 작성 도구, 자동화 플랫폼까지 — 평균적인 직장인이 사용하는 AI 도구는 3~5개, 개발자나 크리에이터는 7개 이상인 경우도 흔합니다.

문제는 각 도구마다 프라이버시 설정 위치와 방법이 다르다는 점입니다. 어떤 도구는 설정 메뉴에서 한 번의 클릭으로 학습 차단이 가능하지만, 어떤 도구는 별도의 양식을 제출해야 합니다. 이 챕터에서는 20개 주요 AI 도구의 보안 설정을 카테고리별로 정리하여, 복사해서 바로 점검할 수 있는 체크리스트를 제공합니다.

[내가 사용하는 AI 도구 목록 정리 프롬프트] 먼저 현재 사용 중인 AI 도구를 파악하세요:

# 도구명 카테고리 계정 이메일 유료 여부 학습 차단 설정
1 챗봇/코딩/이미지/음성/생산성/자동화 무료/유료 □ 완료 □ 미완료 □ 미확인
2 □ 완료 □ 미완료 □ 미확인
3 □ 완료 □ 미완료 □ 미확인
4 □ 완료 □ 미완료 □ 미확인
5 □ 완료 □ 미완료 □ 미확인

목록을 작성한 후, 아래 해당 카테고리의 체크리스트를 따라 설정을 점검하세요.


카테고리 1: AI 챗봇 (5개 도구)

1. ChatGPT

2장에서 상세히 다루었지만, 핵심 설정을 다시 정리합니다.

학습 차단: Settings → Data controls → "Improve the model for everyone" → OFF 데이터 삭제: Settings → Data controls → "Clear all chats" 또는 개별 대화 삭제 활동 기록: 모든 대화가 좌측 사이드바에 저장됨 → 민감한 대화 수시 삭제 추가 설정: 임시 대화(Temporary Chat) 모드 활용 시 기록 자체가 남지 않음

2. Claude

학습 차단: Settings → Privacy 섹션에서 학습 데이터 활용 옵션 확인 데이터 삭제: 좌측 패널에서 개별 대화 삭제 가능 활동 기록: 대화 목록이 계정에 저장됨 → 정기적으로 불필요한 대화 삭제 추가 참고: Pro/Team 이상 유료 플랜은 기본적으로 학습에 미사용

3. Gemini

학습 차단: Google Activity → Gemini Apps Activity → OFF 데이터 삭제: Google Activity에서 Gemini 활동 기록 개별/전체 삭제 활동 기록: Google 활동 기록 시스템에 통합 관리 추가 설정: 확장 프로그램(Gmail, Drive 등) 접근 권한 검토 → 불필요한 것 비활성화

4. Perplexity

학습 차단: Settings → Privacy에서 데이터 활용 옵션 확인 데이터 삭제: 계정 설정에서 검색 기록 삭제 가능 활동 기록: 검색 기록이 계정에 저장됨 → 정기 삭제 권장 추가 참고: Perplexity는 웹 검색 결과를 종합하므로, 입력한 질문이 외부 검색 엔진에 전달될 수 있습니다

5. Microsoft Copilot

학습 차단: Microsoft 계정 → 프라이버시 설정에서 데이터 활용 옵션 확인 데이터 삭제: Microsoft 프라이버시 대시보드에서 활동 기록 삭제 활동 기록: Microsoft 계정의 활동 기록 시스템에 통합 관리 추가 설정: Microsoft 365 Copilot(기업용)은 조직 관리자가 데이터 정책 설정

[AI 챗봇 5종 보안 점검 체크리스트] 사용 중인 챗봇에 대해 모두 확인하세요:

ChatGPT:

  • "Improve the model for everyone" OFF
  • 임시 대화 모드 활용 방법 숙지
  • 과거 민감 대화 삭제 완료

Claude:

  • Privacy 설정 확인 완료
  • 불필요한 과거 대화 삭제

Gemini:

  • Gemini Apps Activity OFF
  • 불필요한 확장 프로그램 비활성화
  • 과거 활동 기록 삭제

Perplexity:

  • 프라이버시 설정 확인
  • 검색 기록 정기 삭제 설정

Microsoft Copilot:

  • Microsoft 프라이버시 대시보드 확인
  • 활동 기록 관리 설정

카테고리 2: AI 코딩 도구 (3개 도구)

코딩 도구는 소스코드를 직접 다루기 때문에 보안 민감도가 매우 높습니다. API 키, 데이터베이스 자격증명, 내부 인프라 정보가 코드에 포함되어 있을 수 있기 때문입니다.

6. GitHub Copilot

학습 차단: GitHub Settings → Copilot → "Allow GitHub to use my code snippets from the code editor for product improvements" → 비활성화 코드 제안 참조: "Suggestions matching public code" 설정에서 공개 코드와 일치하는 제안을 차단할 수 있습니다 조직 관리: GitHub Organization 관리자가 Copilot 정책을 중앙에서 설정 가능 파일 제외: .copilotignore 파일로 특정 파일/폴더를 코드 제안 대상에서 제외 가능

[GitHub Copilot 보안 설정 프롬프트] 프로젝트 루트에 .copilotignore 파일을 생성하여 민감한 파일을 제외하세요:

# 환경변수 및 시크릿
.env
.env.*
*.pem
*.key

# 설정 파일
config/secrets.*
credentials.*

# 내부 문서
docs/internal/
SECURITY.md

7. Cursor

학습 차단: Settings → Privacy Mode → 활성화 시 코드가 학습에 사용되지 않음 프라이버시 모드: Privacy Mode를 활성화하면 코드가 Cursor 서버에 저장되지 않으며 모델 학습에도 사용되지 않습니다 코드 인덱싱: 로컬 인덱싱과 원격 인덱싱 옵션이 있으며, 민감한 프로젝트에서는 설정 확인이 필요합니다 파일 제외: .cursorignore 파일로 특정 파일/폴더를 제외 가능

8. Tabnine

학습 차단: Tabnine은 기본적으로 사용자 코드를 학습에 사용하지 않는다고 명시하고 있습니다 로컬 모델: Enterprise 플랜에서는 완전한 로컬 모드로 실행 가능 (데이터가 외부로 전송되지 않음) 조직 관리: 관리자가 허용되는 코드 제안 범위를 설정 가능

[AI 코딩 도구 보안 강화 체크리스트]

  • GitHub Copilot: 코드 스니펫 제품 개선 사용 비활성화
  • GitHub Copilot: .copilotignore 파일 생성 및 민감 파일 제외
  • Cursor: Privacy Mode 활성화 여부 확인
  • Cursor: .cursorignore 파일로 민감 파일 제외
  • 모든 코딩 도구: 프로젝트 내 하드코딩된 시크릿 점검 (Snyk 활용)
  • 모든 코딩 도구: .gitignore.env, 자격증명 파일 포함 확인

카테고리 3: AI 이미지 생성 도구 (3개 도구)

이미지 생성 도구는 프롬프트(텍스트 입력)와 업로드 이미지를 다루므로, 프롬프트에 포함된 정보와 업로드한 이미지의 활용 범위를 확인해야 합니다.

9. Midjourney

학습 차단: 기본적으로 생성된 이미지와 프롬프트가 공개됩니다. Stealth Mode(Pro 플랜 이상)를 사용하면 비공개로 전환 가능합니다 데이터 삭제: Midjourney 계정 페이지에서 생성 이미지 삭제 가능 활동 기록: Discord 채널의 대화 기록에 프롬프트가 남으므로, DM 모드 사용 권장

10. DALL-E

학습 차단: ChatGPT 내장 DALL-E는 ChatGPT의 데이터 설정을 따릅니다 이미지 저장: 생성된 이미지는 ChatGPT 대화 기록에 포함됨 업로드 이미지: 이미지 편집 시 업로드한 원본 이미지에 대한 활용 정책 확인 필요

11. Canva AI

학습 차단: Canva 계정 설정 → 프라이버시 섹션에서 데이터 활용 옵션 확인 디자인 데이터: Canva에 업로드한 이미지, 텍스트, 디자인 데이터의 활용 범위 확인 필요 팀 설정: Canva for Teams 사용 시 관리자가 데이터 정책을 별도 설정 가능

[AI 이미지 도구 보안 점검]

  • Midjourney: Stealth Mode 활성화 (Pro 플랜 이상)
  • Midjourney: 민감한 프롬프트는 DM 모드에서 생성
  • DALL-E: ChatGPT 데이터 설정 연동 확인
  • Canva AI: 프라이버시 설정 확인
  • 모든 이미지 도구: 얼굴 사진, 개인정보가 포함된 문서 이미지 업로드 금지
  • 모든 이미지 도구: 기업 로고, 미공개 제품 이미지 업로드 시 프라이버시 정책 확인

카테고리 4: AI 음성·영상 도구 (2개 도구)

음성 데이터는 생체 정보에 해당하므로 특히 민감하게 다뤄야 합니다. 음성 복제 기술의 발전으로 악용 가능성도 높아지고 있습니다.

12. ElevenLabs

음성 복제 보안: 타인의 음성을 무단으로 복제하는 것은 법적 문제가 될 수 있습니다 데이터 활용: 계정 설정에서 음성 데이터 활용 정책 확인 삭제 요청: 계정 설정 또는 고객지원을 통해 생성된 음성 데이터 삭제 요청 가능 추가 주의: 복제한 음성이 딥페이크에 악용되지 않도록 접근 권한 관리 필수

13. Otter.ai

학습 차단: 계정 설정에서 데이터 학습 활용 옵션 확인 녹음 관리: 회의 녹음과 전사 내용이 클라우드에 저장되므로, 민감한 회의는 녹음 전 참석자 동의 필수 공유 설정: 전사 결과의 공유 범위를 최소화하고, 불필요한 녹음은 정기적으로 삭제 기업 환경: Business 플랜에서 관리자가 데이터 보존 정책 설정 가능

[AI 음성·영상 도구 보안 체크리스트]

  • ElevenLabs: 음성 데이터 활용 정책 확인
  • ElevenLabs: 타인 음성 복제 시 본인 동의 확보
  • ElevenLabs: 복제 음성의 접근 권한 관리
  • Otter.ai: 데이터 학습 활용 옵션 확인
  • Otter.ai: 민감 회의 녹음 전 참석자 동의 확인
  • Otter.ai: 불필요한 녹음/전사 정기 삭제

카테고리 5: AI 생산성 도구 (3개 도구)

문서 작성, 메모, 프레젠테이션 등 생산성 도구는 업무의 핵심 데이터를 다루므로 보안 설정이 중요합니다.

14. Notion AI

학습 차단: Notion의 AI 기능 사용 시 데이터 활용 정책 확인 → Settings → Privacy에서 관련 옵션 검토 데이터 범위: Notion AI는 사용자의 워크스페이스 내 콘텐츠를 맥락으로 활용할 수 있으므로, 민감한 페이지는 AI 기능 사용 범위에서 고려해야 합니다 팀 설정: Workspace 관리자가 AI 기능 활성화/비활성화를 설정 가능

15. Grammarly

학습 차단: Grammarly 계정 설정 → Privacy 섹션에서 데이터 수집 옵션 확인 텍스트 처리: 입력하는 모든 텍스트가 Grammarly 서버로 전송되어 분석됩니다. 민감한 문서 작업 시에는 Grammarly를 비활성화하는 것이 안전합니다 브라우저 확장: Grammarly 브라우저 확장 프로그램은 모든 웹페이지의 텍스트 입력 필드에 접근할 수 있으므로, 은행·사내시스템 등 민감한 사이트에서는 비활성화를 권장합니다

16. Tome

학습 차단: 계정 설정에서 데이터 활용 정책 확인 프레젠테이션 데이터: 프레젠테이션에 포함된 텍스트, 이미지, 데이터가 클라우드에 저장됨 공유 설정: 프레젠테이션 공유 시 접근 권한(누구나/링크 가진 사람/특정인) 확인

[AI 생산성 도구 보안 체크리스트]

  • Notion AI: 프라이버시 설정 확인
  • Notion AI: 민감한 페이지에서 AI 기능 사용 시 주의
  • Grammarly: 프라이버시 설정 확인
  • Grammarly: 민감한 사이트(은행, 사내시스템)에서 확장 프로그램 비활성화
  • Tome: 프레젠테이션 공유 범위 최소화
  • 모든 생산성 도구: 기밀 문서 작업 시 AI 기능 비활성화 고려

카테고리 6: 자동화 도구 (4개 도구)

자동화 도구는 여러 서비스 간 데이터를 연결하므로, 데이터 흐름의 전체 경로를 파악하는 것이 특히 중요합니다.

17. Zapier

데이터 흐름: Zapier는 트리거 앱에서 데이터를 받아 액션 앱으로 전달합니다. 이 과정에서 데이터가 Zapier 서버를 경유합니다 AI 기능: Zapier의 AI 기능(자연어 액션 등) 사용 시 추가 데이터 처리가 발생합니다 로그 관리: Task History에서 실행 기록과 전달된 데이터를 확인할 수 있습니다. 민감한 데이터가 로그에 남아 있을 수 있으므로 정기적으로 확인하세요 접근 권한: 각 연결된 앱의 OAuth 권한을 최소 범위로 설정하세요

18. Make

데이터 흐름: Make도 시나리오 실행 시 데이터가 Make 서버를 경유합니다 실행 로그: 시나리오 실행 로그에 처리된 데이터가 기록될 수 있습니다 데이터 저장: 데이터 보존 기간 설정 확인 → 불필요한 실행 기록 정기 삭제 보안 설정: Webhook URL이 외부에 노출되지 않도록 관리하세요

19. Power Automate

데이터 흐름: Microsoft 365 환경 내에서 동작하므로 조직의 데이터 거버넌스 정책이 적용됩니다 DLP 정책: Power Platform 관리센터에서 DLP(데이터 손실 방지) 정책을 설정하여, 비즈니스 데이터가 외부 서비스로 전달되는 것을 차단할 수 있습니다 AI Builder: Power Automate의 AI Builder 기능 사용 시 데이터가 Microsoft AI 서비스로 전송됩니다

20. n8n

자체 호스팅: n8n은 자체 호스팅이 가능하여, 데이터가 외부 서버를 거치지 않도록 구성할 수 있습니다 클라우드 버전: n8n Cloud 사용 시 데이터가 n8n 서버를 경유합니다 크리덴셜 관리: 연결된 서비스의 API 키가 n8n에 저장되므로, 접근 권한 관리가 중요합니다

[자동화 도구 보안 종합 체크리스트]

  • Zapier: 연결된 앱의 OAuth 권한 범위 검토
  • Zapier: Task History 정기 확인 및 민감 데이터 포함 여부 점검
  • Make: Webhook URL 외부 노출 방지
  • Make: 실행 로그 보존 기간 설정 확인
  • Power Automate: DLP 정책 설정 확인 (관리자)
  • Power Automate: AI Builder 사용 시 데이터 전송 범위 확인
  • n8n: 자체 호스팅 가능 여부 검토 (보안 민감 환경)
  • 모든 자동화 도구: 불필요한 자동화 연결 정기 점검 및 삭제

도구 선택 시 보안 평가 프레임워크

새로운 AI 도구를 도입할 때 보안 관점에서 평가하는 프레임워크를 제공합니다.

[AI 도구 보안 평가 프롬프트] 새로운 AI 도구를 도입하기 전에 아래 항목을 평가하세요:

1. 데이터 정책 (가중치 30%)

  • 개인정보처리방침을 읽었는가? (핵심: 데이터 학습 활용 여부)
  • 학습 차단(opt-out) 옵션이 있는가?
  • 데이터 삭제 요청 절차가 명확한가?
  • 데이터 저장 위치(국가)가 확인 가능한가?

2. 보안 인증 (가중치 25%)

  • SOC 2 Type II 인증을 보유하고 있는가?
  • GDPR 준수를 명시하고 있는가?
  • 정기적인 보안 감사(펜테스트 등)를 실시하는가?
  • 보안 사고 대응 절차가 공개되어 있는가?

3. 접근 통제 (가중치 20%)

  • 2단계 인증(2FA/MFA)을 지원하는가?
  • SSO 연동이 가능한가?
  • 역할 기반 접근 통제(RBAC)를 지원하는가?
  • API 키 권한 범위를 세분화할 수 있는가?

4. 투명성 (가중치 15%)

  • 보안 백서나 기술 문서를 공개하고 있는가?
  • 데이터 유출 사고 이력이 있는가? 있다면 대응은 적절했는가?
  • 가동 상태 페이지(Status Page)를 운영하고 있는가?

5. 기업 지원 (가중치 10%)

  • Enterprise 플랜에서 데이터 격리가 가능한가?
  • 관리자 콘솔에서 조직 수준 정책을 설정할 수 있는가?
  • 계약서에 데이터 처리 조항(DPA)을 포함할 수 있는가?

보안 설정 변경 이력 관리

AI 도구의 보안 설정은 서비스 업데이트에 따라 변경될 수 있습니다. 정기적으로 점검하는 습관이 필요합니다.

[분기별 AI 보안 설정 점검 일지 템플릿]

점검 일자: ____년 __월 __일 점검자: ____________

도구명 학습 차단 데이터 삭제 권한 검토 이상 유무 비고
ChatGPT □ 정상 □ 완료 □ 정상 □ 없음 □ 있음
Claude □ 정상 □ 완료 □ 정상 □ 없음 □ 있음
Gemini □ 정상 □ 완료 □ 정상 □ 없음 □ 있음
GitHub Copilot □ 정상 □ N/A □ 정상 □ 없음 □ 있음
Cursor □ 정상 □ N/A □ 정상 □ 없음 □ 있음
Notion AI □ 정상 □ 완료 □ 정상 □ 없음 □ 있음
Grammarly □ 정상 □ 완료 □ 정상 □ 없음 □ 있음
Zapier □ N/A □ 완료 □ 정상 □ 없음 □ 있음

발견된 이슈:

조치 사항:

다음 점검 예정일: ____년 __월 __일


도구 업데이트 모니터링 — 정책 변경을 놓치지 마세요

AI 서비스들은 개인정보처리방침과 이용약관을 수시로 업데이트합니다. 중요한 변경을 놓치면 의도치 않게 데이터가 학습에 활용될 수 있습니다.

[AI 도구 정책 변경 모니터링 프롬프트] 아래 프롬프트를 Perplexity 또는 ChatGPT (최신 모델)에서 월 1회 실행하세요:

"다음 AI 서비스들의 최근 1개월간 개인정보처리방침 또는 이용약관 변경 사항을 확인해 주세요: ChatGPT, Claude, Gemini, GitHub Copilot, Notion AI. 각 서비스별로 변경 일자, 주요 변경 내용, 사용자에게 미치는 영향을 정리해 주세요. 특히 데이터 학습 활용, 데이터 보존 기간, 제3자 공유 관련 변경을 중점적으로 확인해 주세요."

[사용하지 않는 AI 도구 정리 프롬프트] 계정이 남아있지만 사용하지 않는 AI 도구를 정리하세요:

  1. 사용하지 않는 AI 도구 계정 목록을 작성합니다
  2. 각 도구에 로그인하여 저장된 데이터를 확인합니다
  3. 데이터 내보내기(Export) 기능이 있으면 백업합니다
  4. 저장된 대화/파일/기록을 모두 삭제합니다
  5. 계정 삭제(탈퇴)를 요청합니다
  6. 브라우저 확장 프로그램도 삭제합니다
  7. 연동된 OAuth 권한을 해제합니다 (Google/GitHub/Microsoft 계정 설정에서)

특히 중요: Google, GitHub, Microsoft 계정의 "연결된 앱" 목록에서 사용하지 않는 AI 도구의 접근 권한을 반드시 해제하세요.


20개 도구 종합 보안 등급표

지금까지 다룬 20개 도구의 보안 특성을 한눈에 비교합니다.

[20개 AI 도구 보안 특성 종합 비교]

# 도구 카테고리 학습 차단 자체 호스팅 Enterprise 격리 최우선 조치
1 ChatGPT 챗봇 가능 불가 가능 학습 차단 설정
2 Claude 챗봇 가능 불가 가능 프라이버시 설정 확인
3 Gemini 챗봇 가능 불가 Workspace Activity OFF
4 Perplexity 챗봇 확인 필요 불가 확인 필요 프라이버시 설정 확인
5 Microsoft Copilot 챗봇 가능 불가 가능 MS 프라이버시 설정
6 GitHub Copilot 코딩 가능 불가 가능 코드 스니펫 사용 OFF
7 Cursor 코딩 Privacy Mode 불가 확인 필요 Privacy Mode 활성화
8 Tabnine 코딩 기본 미사용 가능(Enterprise) 가능 로컬 모드 검토
9 Midjourney 이미지 Stealth Mode(Pro) 불가 불가 Stealth Mode 활성화
10 DALL-E 이미지 ChatGPT 설정 연동 불가 가능 ChatGPT 설정 확인
11 Canva AI 이미지 확인 필요 불가 Teams 프라이버시 설정 확인
12 ElevenLabs 음성 확인 필요 불가 확인 필요 음성 데이터 정책 확인
13 Otter.ai 음성 확인 필요 불가 Business 녹음 데이터 관리
14 Notion AI 생산성 확인 필요 불가 Enterprise 프라이버시 설정 확인
15 Grammarly 생산성 확인 필요 불가 Business 민감 사이트에서 비활성화
16 Tome 생산성 확인 필요 불가 확인 필요 공유 범위 최소화
17 Zapier 자동화 N/A 불가 Enterprise OAuth 권한 최소화
18 Make 자동화 N/A 불가 Enterprise Webhook URL 보호
19 Power Automate 자동화 N/A 가능(On-prem) 가능 DLP 정책 설정
20 n8n 자동화 N/A 가능 가능 자체 호스팅 검토

마무리

20개 AI 도구의 보안 설정을 카테고리별로 살펴보았습니다. 핵심 메시지를 정리하겠습니다.

  1. 모든 AI 도구는 기본 설정이 "보안 최적"이 아닙니다 — 직접 확인하고 설정을 변경해야 합니다
  2. 분기별 정기 점검을 습관화하세요 — 서비스 정책은 수시로 변경됩니다
  3. 사용하지 않는 도구는 계정을 삭제하세요 — 방치된 계정은 보안 취약점이 됩니다
  4. 자동화 도구의 데이터 흐름을 특히 주의하세요 — 여러 서비스를 연결할수록 데이터 통제가 어려워집니다

다음 챕터에서는 개인 수준을 넘어, 기업·조직 차원에서 AI 보안 정책을 수립하는 방법을 다루겠습니다. 복사해서 바로 사용할 수 있는 사내 AI 사용 가이드라인 템플릿을 제공합니다.


다음 챕터 예고: 기업·조직의 AI 보안 정책 수립 — 사내 AI 사용 가이드라인 템플릿 — 허용/금지 도구 목록, 데이터 분류 기준, AI 사용 승인 프로세스, 사고 대응 절차까지 완전한 정책 템플릿을 제공합니다.