AI와 개인정보: 당신이 입력한 것은 어디로 가는가
모델별 데이터 정책 비교, 기업 기밀 유출 사례, 안전한 사용 가이드라인을 다룹니다.
"이 대화 내용, 어디에 쓰이는 거지?"
ChatGPT에 회사 매출 데이터를 붙여넣고 분석을 요청합니다. Claude에 계약서 초안을 검토해달라고 합니다. Gemini에 고객 목록을 넣고 분류를 부탁합니다.
이 데이터는 어디로 가는가? AI 회사가 학습에 사용하는가? 다른 사용자에게 노출될 수 있는가? 이 질문에 대한 정확한 답을 알아야 AI를 안전하게 사용할 수 있습니다.
주요 AI 서비스 데이터 정책 비교
2026년 기준 정책 요약
| 항목 | ChatGPT (OpenAI) | Claude (Anthropic) | Gemini (Google) |
|---|---|---|---|
| 무료 버전 학습 사용 | 기본 ON (옵트아웃 가능) | 기본 OFF | 기본 ON (옵트아웃 가능) |
| 유료 버전 학습 사용 | 기본 OFF (Team/Enterprise) | 기본 OFF | 기본 OFF (Workspace) |
| 데이터 보관 기간 | 30일 (안전 목적) | 90일 (안전 목적) | 다양 (서비스에 따라) |
| API 학습 사용 | 사용 안 함 | 사용 안 함 | 사용 안 함 |
| 데이터 삭제 요청 | 가능 | 가능 | 가능 |
| 대화 기록 비활성화 | 설정에서 가능 | 설정에서 가능 | 활동 제어에서 가능 |
주의: 정책은 변경될 수 있으므로, 중요한 결정 전에는 각 서비스의 공식 개인정보처리방침을 직접 확인하세요.
핵심 포인트
- 무료 버전은 대부분 학습에 사용될 수 있음: 민감한 정보는 무료 버전에 입력하지 마세요
- 유료 버전과 API는 상대적으로 안전: 대부분 학습에 사용하지 않음
- "학습에 사용하지 않는다" ≠ "데이터를 보지 않는다": 안전 감사, 남용 방지 목적으로는 볼 수 있음
- 삭제해도 학습에 이미 반영된 부분은 제거 어려움: 예방이 최선
기업 기밀 유출 사례
삼성전자 사례 (2023)
삼성전자 직원들이 ChatGPT에 반도체 설비 측정 데이터, 수율 관련 소스 코드, 회의 내용을 입력한 사건이 발생했습니다. 이후 삼성은 사내 AI 사용 가이드라인을 강화하고, 자체 AI 서비스 개발을 가속화했습니다.
주요 유출 위험 시나리오
| 시나리오 | 위험도 | 대응 |
|---|---|---|
| 소스 코드를 AI에 붙여넣기 | 높음 | 민감한 부분 제거 후 입력, 또는 API/자체 모델 사용 |
| 고객 개인정보 포함 데이터 분석 | 매우 높음 | 개인정보 익명화 후 입력, 또는 사용 금지 |
| 내부 전략 문서 요약 요청 | 높음 | 핵심 기밀 제거 후 입력 |
| 계약서·법률 문서 검토 | 중간 | 민감한 금액·당사자명 익명화 |
| 일반 업무 질문 (비기밀) | 낮음 | 자유롭게 사용 가능 |
안전한 AI 사용 가이드라인
절대 입력하면 안 되는 정보
| 정보 유형 | 예시 | 위험 |
|---|---|---|
| 개인 식별 정보 | 주민등록번호, 전화번호, 주소 | 개인정보보호법 위반 |
| 금융 정보 | 계좌번호, 카드번호, 비밀번호 | 금융사기 위험 |
| 기업 기밀 | 미발표 제품, 핵심 기술, 재무 데이터 | 영업비밀 유출 |
| 의료 정보 | 진단서, 처방전, 환자 정보 | 의료법·개인정보보호법 위반 |
| 법적 문서 원본 | 계약서, 소송 문서 (당사자명 포함) | 법적 분쟁 |
안전하게 사용하는 5가지 원칙
1. 익명화 원칙 실제 이름, 회사명, 숫자를 가명으로 바꾸세요.
- Before: "삼성전자 2026년 1분기 매출 73조 원을 분석해줘"
- After: "A기업 2026년 1분기 매출 XX조 원을 분석해줘" (구조만 활용)
2. 최소 정보 원칙 목적 달성에 필요한 최소한의 정보만 입력하세요.
- Before: 계약서 전문 붙여넣기
- After: 특정 조항만 발췌하여 질문
3. 유료 서비스 원칙 민감한 업무에는 학습 비활성화가 보장되는 유료 서비스를 사용하세요.
4. 설정 확인 원칙 사용 전 반드시 데이터 학습 설정을 확인하고 필요시 비활성화하세요.
5. 사내 가이드라인 확인 원칙 회사의 AI 사용 정책을 확인하고 따르세요. 없다면 상사에게 문의하세요.
AI 서비스별 보안 설정 가이드
ChatGPT 보안 설정
| 설정 | 경로 | 권장 |
|---|---|---|
| 대화 기록 비활성화 | 설정 → 데이터 제어 → 대화 기록 및 훈련 | 업무용은 OFF |
| 임시 채팅 | 새 채팅 시 "임시 채팅" 선택 | 민감한 대화에 사용 |
| 메모리 기능 | 설정 → 개인 설정 → 메모리 | 필요 시 OFF |
| Team/Enterprise | 관리자 설정 | 기업은 Team 이상 권장 |
Claude 보안 설정
| 설정 | 경로 | 권장 |
|---|---|---|
| 기본 학습 정책 | 기본적으로 학습에 사용하지 않음 | 확인만 |
| 대화 기록 | 설정에서 관리 | 민감한 대화 후 삭제 |
| API 사용 | API는 학습에 사용되지 않음 | 기업은 API 권장 |
Gemini 보안 설정
| 설정 | 경로 | 권장 |
|---|---|---|
| 활동 저장 | Google 계정 → 데이터 및 개인정보 보호 → 활동 제어 | 업무용은 OFF |
| Workspace 연동 | 관리자 콘솔 | 기업은 Workspace 버전 |
| 대화 삭제 | 활동 관리에서 삭제 | 민감한 대화 후 삭제 |
기업을 위한 AI 보안 체크리스트
AI 사용 정책 수립 시 포함할 항목
- AI 사용 허용 범위 (어떤 업무에, 어떤 도구를)
- 입력 금지 정보 목록 (기밀 등급별)
- 승인된 AI 서비스 목록 (무료/유료 구분)
- 데이터 익명화 절차
- 위반 시 조치 사항
- 정기적 정책 업데이트 일정
개인 사용자 보안 체크리스트
- 사용 중인 AI 서비스의 데이터 정책 확인
- 학습 비활성화 설정 (가능한 경우)
- 민감한 정보 입력 습관 점검
- 정기적 대화 기록 삭제
- 개인정보 포함 여부 입력 전 확인
핵심 결론
AI에 입력하는 모든 정보는 "편지를 보내는 것"과 같습니다. 한 번 보낸 편지는 되돌릴 수 없습니다. 무료 서비스는 내용을 학습에 사용할 수 있고, 유료 서비스도 안전 감사 목적으로 볼 수 있습니다. 가장 안전한 방법은 "이 정보가 공개되어도 괜찮은가?"를 입력 전에 항상 자문하는 것입니다. 민감한 정보는 익명화하고, 기밀은 입력하지 않는 것이 원칙입니다.
다음 챕터에서는 AI 콘텐츠와 저작권 — 2026년 한국법 기준으로 정리합니다.