ChatGPT·Claude·Gemini 안전 사용법 — 입력하면 안 되는 것들
AI 챗봇에 절대 입력하면 안 되는 7가지 정보 유형과 ChatGPT, Claude, Gemini 각각의 프라이버시 설정 방법, 안전한 프롬프트 작성을 위한 개인정보 마스킹 기법을 다룹니다.
입력창에 타이핑하는 순간, 데이터는 클라우드로 떠납니다
AI 챗봇은 여러분의 컴퓨터에서 동작하지 않습니다. 입력하는 모든 텍스트는 OpenAI(ChatGPT), Anthropic(Claude), Google(Gemini)의 클라우드 서버로 전송되어 처리됩니다. 이 사실을 명확히 인식하는 것이 안전한 AI 사용의 출발점입니다.
이 챕터에서는 AI 챗봇에 절대 입력하면 안 되는 7가지 정보 유형을 먼저 살펴보고, ChatGPT·Claude·Gemini 각각의 프라이버시 설정을 단계별로 안내해 드리겠습니다. 마지막으로 민감한 정보를 안전하게 다루는 개인정보 마스킹 기법을 실습하겠습니다.
절대 입력하면 안 되는 7가지 정보
아래 7가지 유형의 정보는 어떤 AI 챗봇이든, 어떤 설정이든 절대 입력하면 안 됩니다. 학습 차단 설정을 했더라도 데이터가 서버에 전송되는 것 자체를 막지는 못하기 때문입니다.
1. 비밀번호 및 인증 정보
비밀번호, PIN 번호, 보안 질문의 답변을 절대 입력하지 마세요. "이 비밀번호가 안전한지 확인해 줘"라는 요청은 비밀번호를 서버에 전송하는 행위와 동일합니다.
안전한 대안:
- "영문 대소문자, 숫자, 특수문자를 조합한 16자리 비밀번호를 생성해 줘"처럼 일반적인 규칙을 물어보세요
- 비밀번호 강도 확인은 오프라인 도구(예: KeePass, Bitwarden 등)를 사용하세요
2. API 키, 토큰, 시크릿
개발자가 가장 많이 실수하는 영역입니다. API 키, 액세스 토큰, 데이터베이스 연결 문자열, SSH 키를 절대 입력하지 마세요.
안전한 대안:
- 키 값을
YOUR_API_KEY_HERE로 치환한 후 코드를 보여주세요 - 환경변수 설정 방법이 궁금하면 일반적인 가이드를 요청하세요
3. 개인식별정보 (PII)
실명, 주민등록번호, 전화번호, 주소, 여권번호, 운전면허번호 등을 입력하면 안 됩니다. "김철수의 이력서를 수정해 줘"라는 요청은 실명과 개인 이력을 서버에 전송하는 것입니다.
안전한 대안:
- 이름을 "홍길동"이나 "지원자 A"로 치환하세요
- 전화번호는 "010-XXXX-XXXX"로 마스킹하세요
- 주소는 "서울시 OO구"처럼 일반화하세요
4. 기밀 소스코드 및 영업비밀
특허 출원 전 코드, 핵심 알고리즘, 미공개 제품 사양, 고객사 계약 조건 등을 입력하지 마세요.
안전한 대안:
- 전체 코드 대신 문제가 되는 함수만 발췌하고, 비즈니스 로직은 제거한 후 입력하세요
- 공개된 오픈소스 코드로 유사한 문제를 설명하세요
5. 의료 기록 및 건강 정보
진단 결과, 처방전, 검사 수치, 정신건강 상담 내용 등은 극도로 민감한 정보입니다. 특히 타인의 의료 정보를 입력하는 것은 법적 문제가 될 수 있습니다.
안전한 대안:
- "당뇨병 환자의 일반적인 식단 관리법"처럼 일반적인 의학 지식을 물어보세요
- 구체적인 수치나 개인 정보 없이 증상만 일반화하여 질문하세요
6. 금융 정보
계좌번호, 카드번호, 거래 내역, 자산 규모, 신용등급 등을 입력하지 마세요. "이 카드번호가 유효한지 확인해 줘"라는 요청은 절대 안 됩니다.
안전한 대안:
- "월 300만 원 수입, 고정 지출 150만 원인 직장인의 예산 계획"처럼 가상의 숫자를 사용하세요
- 금융 상품 비교는 일반적인 조건으로 질문하세요
7. 법적 문서 및 계약서
NDA(비밀유지계약), 고용계약, 소송 관련 문서, 내부 감사 보고서 등을 원문 그대로 입력하지 마세요. 계약 상대방의 정보와 거래 조건이 유출될 수 있습니다.
안전한 대안:
- "소프트웨어 라이선스 계약서의 일반적인 조항 구조"처럼 일반론을 물어보세요
- 구체적 계약 조건은 가상의 시나리오로 변환하여 질문하세요
[입력 금지 정보 7가지 빠른 체크리스트] AI에 입력하기 전, 아래 7가지에 해당하지 않는지 확인하세요:
- 1. 비밀번호·PIN·보안 질문 답변
- 2. API 키·토큰·시크릿·연결 문자열
- 3. 실명·주민번호·전화번호·주소 등 개인식별정보
- 4. 기밀 소스코드·미공개 제품 사양·영업비밀
- 5. 진단 결과·처방전·건강 정보
- 6. 계좌번호·카드번호·거래 내역
- 7. NDA·계약서·소송 문서 원문
하나라도 해당되면 → 입력하지 마세요!
ChatGPT 프라이버시 설정 완전 가이드
OpenAI의 ChatGPT는 기본 설정에서 사용자의 대화를 모델 학습에 활용할 수 있습니다. 아래 단계를 따라 학습 차단 설정을 완료하세요.
설정 1: 모델 학습 차단
- ChatGPT에 로그인합니다
- 좌측 하단의 프로필 아이콘 → Settings 클릭
- Data controls 탭 선택
- "Improve the model for everyone" → OFF로 전환
이 설정을 끄면 여러분의 대화 내용이 OpenAI의 모델 학습에 사용되지 않습니다.
설정 2: 대화 기록 관리
- 대화 삭제: 좌측 대화 목록에서 대화 위에 마우스를 올리고 삭제 아이콘 클릭
- 전체 대화 삭제: Settings → Data controls → "Clear all chats"
- 계정 데이터 내보내기: Settings → Data controls → "Export data"
설정 3: 임시 대화 모드 활용
ChatGPT의 임시 대화(Temporary Chat) 기능을 사용하면 해당 대화가 대화 기록에 저장되지 않으며, 모델 학습에도 사용되지 않습니다.
- 새 대화 시작 시 상단의 모델 선택 드롭다운 옆 옵션에서 "Temporary Chat" 활성화
[ChatGPT 보안 설정 완료 체크리스트]
- "Improve the model for everyone" → OFF 확인
- 민감 정보가 포함된 과거 대화 삭제
- 기밀 작업 시 임시 대화(Temporary Chat) 사용
- Team/Enterprise 플랜 사용 시 관리자에게 데이터 정책 확인
- 서드파티 GPTs 사용 시 해당 GPT의 액션(외부 서버 전송) 여부 확인
Claude 프라이버시 설정 완전 가이드
Anthropic의 Claude는 기본적으로 무료 사용자의 대화를 모델 학습에 활용할 수 있으며, Pro 이상 유료 플랜에서는 학습에 사용하지 않는 것이 기본 정책입니다. 정확한 설정을 확인해 보겠습니다.
설정 1: 프라이버시 옵션 확인
- Claude에 로그인합니다
- 좌측 하단의 프로필 아이콘 → Settings 클릭
- Privacy 섹션으로 이동
- 학습 데이터 활용 옵션 확인 및 필요 시 비활성화
설정 2: 대화 기록 관리
- Claude는 대화 기록을 좌측 패널에서 관리할 수 있습니다
- 개별 대화 삭제: 대화 위에서 오른쪽 클릭 → 삭제
- 민감한 대화는 작업 완료 후 즉시 삭제하는 습관을 들이세요
설정 3: API 사용 시 데이터 정책
Claude API를 통한 사용은 대화 내용이 모델 학습에 사용되지 않습니다. 기업 환경에서 민감한 데이터를 다룰 때는 API 사용을 권장합니다.
[Claude 보안 설정 완료 체크리스트]
- Settings → Privacy에서 학습 데이터 활용 옵션 확인
- 무료 플랜 사용 시 학습 차단 설정 여부 확인
- 민감 정보가 포함된 과거 대화 삭제
- Pro/Team 플랜의 데이터 정책 확인
- API 사용 시 데이터 보존 정책 확인
Gemini 프라이버시 설정 완전 가이드
Google의 Gemini는 Google 계정과 연동되어 있어, Google의 전체 활동 관리 시스템과 함께 설정해야 합니다.
설정 1: Gemini Apps Activity 관리
- Google Activity 페이지에 접속합니다
- Gemini Apps Activity 항목을 찾습니다
- "Gemini Apps Activity" → OFF로 전환
- 기존 활동 데이터 삭제 옵션 선택
이 설정을 끄면 Gemini와의 대화가 Google 계정의 활동 기록에 저장되지 않으며, 향후 모델 학습에 사용되지 않습니다.
설정 2: Google Workspace 환경 (기업용)
Google Workspace용 Gemini를 사용하는 기업은 관리자가 데이터 정책을 별도로 설정할 수 있습니다. Workspace 데이터는 소비자 제품과 다른 정책이 적용됩니다.
설정 3: 확장 프로그램 데이터 접근 관리
Gemini의 확장 프로그램(Gmail, Google Drive, Google Maps 등)이 활성화되어 있으면, Gemini가 이 서비스들의 데이터에 접근할 수 있습니다.
- Gemini 설정에서 확장 프로그램 목록 확인
- 불필요한 확장 프로그램 비활성화
- 특히 Gmail, Drive 확장은 민감한 데이터 접근이 가능하므로 신중히 결정
[Gemini 보안 설정 완료 체크리스트]
- Google Activity → Gemini Apps Activity → OFF
- 기존 Gemini 활동 기록 삭제
- 불필요한 Gemini 확장 프로그램 비활성화
- Gmail/Drive 확장 활성화 시 접근 범위 이해
- Google Workspace 사용 시 관리자 데이터 정책 확인
3대 챗봇 보안 설정 비교표
세 서비스의 보안 설정을 한눈에 비교해 보겠습니다.
[ChatGPT vs Claude vs Gemini 보안 설정 비교]
항목 ChatGPT Claude Gemini 학습 차단 설정 Settings → Data controls Settings → Privacy Google Activity → OFF 임시 대화 모드 Temporary Chat — — 대화 기록 삭제 개별/전체 삭제 가능 개별 삭제 가능 활동 기록에서 삭제 API 사용 시 학습 미사용 미사용 별도 정책 기업 플랜 데이터 격리 Team/Enterprise Team/Enterprise Workspace 데이터 저장 위치 미국 미국 글로벌(Google 인프라) 데이터 내보내기 지원 제한적 Google Takeout 서드파티 연동 위험 GPTs/플러그인 제한적 확장 프로그램
안전한 프롬프트 작성법 — 개인정보 마스킹 기법
AI 챗봇에 업무 관련 질문을 해야 할 때, 민감한 정보를 마스킹(가명 처리)하여 안전하게 입력하는 방법을 소개합니다.
기법 1: 식별자 치환법
실제 이름, 회사명, 프로젝트명을 가명으로 치환합니다.
[식별자 치환 마스킹 템플릿]
치환 전 (위험): "삼성전자 DS부문의 2nm 공정 수율 데이터를 분석해 주세요. 담당자 김민수 부장에게 보고할 자료입니다."
치환 후 (안전): "반도체 제조사의 차세대 공정 수율 데이터를 분석해 주세요. 상위 관리자에게 보고할 자료입니다."
치환 규칙:
- 회사명 → 업종 + "기업" (예: "IT 기업", "제조사")
- 인명 → 직급/역할 (예: "담당자", "팀장")
- 프로젝트명 → 일반 설명 (예: "신제품 개발 프로젝트")
- 수치 → 비율/범위 (예: "85%" → "80~90%")
- 날짜 → 기간 (예: "2026년 3월" → "최근 분기")
기법 2: 구조 보존 마스킹
데이터의 구조와 패턴은 유지하되, 실제 값을 가상의 값으로 대체합니다.
[구조 보존 마스킹 템플릿]
원본 데이터 (위험):
이름: 박지영 | 전화: 010-3456-7890 | 주소: 서울 강남구 역삼동 123-45 이름: 이현우 | 전화: 010-9876-5432 | 주소: 경기 성남시 분당구 정자동 67-8마스킹 후 (안전):
이름: 사용자A | 전화: 010-XXXX-XXXX | 주소: 서울 OO구 이름: 사용자B | 전화: 010-XXXX-XXXX | 주소: 경기 OO시이렇게 마스킹하면 데이터 구조는 파악할 수 있지만 실제 개인을 식별할 수 없습니다.
기법 3: 문맥 분리법
하나의 복잡한 질문을 여러 개의 일반적인 질문으로 분리하여, 전체 맥락이 연결되지 않도록 합니다.
[문맥 분리 마스킹 템플릿]
분리 전 (위험): "우리 회사 A제품의 3월 매출이 50억인데, 경쟁사 B사 대비 점유율이 하락하고 있어. 마케팅 전략을 세워줘."
분리 후 (안전) — 별도 대화에서 각각 질문:
질문 1 (별도 대화): "IT 업계에서 B2B SaaS 제품의 시장 점유율이 하락할 때 효과적인 마케팅 전략 5가지를 알려주세요."
질문 2 (별도 대화): "월 매출 50억 규모의 소프트웨어 기업이 경쟁사 대비 차별화할 수 있는 포지셔닝 방법을 제안해 주세요."
질문 3 (별도 대화): "B2B SaaS 마케팅 예산 배분 시 채널별 ROI를 최적화하는 프레임워크를 알려주세요."
기법 4: 시나리오 전환법
실제 상황을 가상의 시나리오로 전환하여 질문합니다.
[시나리오 전환 마스킹 템플릿]
전환 전 (위험): "우리 회사 직원 김영희가 정보 유출을 한 것 같아. 어떻게 대응해야 해?"
전환 후 (안전): "가상 시나리오: 중견 IT 기업에서 직원의 정보 유출이 의심되는 상황입니다. 기업의 초기 대응 절차와 법적 조치 사항을 단계별로 설명해 주세요."
전환 규칙:
- "가상 시나리오:"로 시작하세요
- 회사명 → 업종 + 규모 (예: "중견 IT 기업")
- 인명 → "직원", "관리자" 등 역할로 치환
- 구체적 수치 → 범위 또는 비율로 변환
- 고유한 사건 → 일반적 상황으로 변환
업무 시나리오별 안전한 AI 활용 가이드
실제 업무에서 자주 발생하는 시나리오별로 안전한 AI 활용 방법을 정리해 드리겠습니다.
시나리오 1: 코드 리뷰 요청
[안전한 코드 리뷰 요청 템플릿]
위험한 방법: "이 코드를 리뷰해 줘: [회사 전체 소스코드 붙여넣기]"
안전한 방법:
- 문제가 되는 함수만 발췌합니다
- API 키, DB 연결 문자열 등을 제거합니다
- 회사 고유의 변수명을 일반적인 이름으로 변경합니다
- 비즈니스 로직 설명은 일반화합니다
예시: "아래 Python 함수에서 성능 개선이 가능한 부분을 찾아주세요. 이 함수는 리스트 데이터를 필터링하는 역할입니다.
def filter_data(items, threshold): result = [] for item in items: if item['score'] > threshold: result.append(item) return result ```"
시나리오 2: 이메일 작성
[안전한 이메일 작성 요청 템플릿]
위험한 방법: "삼성전자 김부장님께 보낼 견적서 송부 이메일을 써줘. 견적 금액은 5억 3천만 원이야."
안전한 방법: "B2B 거래처 담당자에게 보낼 견적서 송부 이메일을 작성해 주세요. 정중한 비즈니스 톤으로 작성하고, 견적 금액은 [금액] 부분을 제가 직접 채울 수 있도록 비워주세요. 회신 기한은 1주일로 설정해 주세요."
시나리오 3: 데이터 분석
[안전한 데이터 분석 요청 템플릿]
위험한 방법: "[실제 고객 DB 데이터 전체를 붙여넣기]"
안전한 방법:
- 데이터를 익명화합니다 (이름 → ID, 주소 → 지역)
- 샘플 데이터(5~10행)만 사용합니다
- 분석 방법론을 먼저 물어봅니다
"아래 형식의 고객 데이터(1만 건)를 분석하려 합니다. 연령대별 구매 패턴을 파악하는 분석 방법과 Python 코드를 제안해 주세요.
샘플 (익명화): ID | 연령대 | 지역 | 구매금액 | 구매횟수 U001 | 30대 | 서울 | 150000 | 3 U002 | 40대 | 경기 | 280000 | 7"
추가 보안 습관 — 일상에서 실천하세요
도구별 설정 외에, AI 챗봇을 사용할 때 습관적으로 지켜야 할 보안 수칙들을 정리하겠습니다.
습관 1: 새 대화에서 시작하기
민감한 주제를 다룰 때는 기존 대화 이어서 하지 말고 새 대화를 시작하세요. 이전 대화의 맥락과 연결되면 정보 연결고리가 만들어질 수 있습니다.
습관 2: 대화 후 정리하기
민감한 작업이 끝난 뒤에는 해당 대화를 삭제하세요. 대화 기록이 남아 있으면 계정 탈취 시 모든 기록이 노출됩니다.
습관 3: 계정 보안 강화하기
AI 서비스 계정에 **2단계 인증(2FA)**을 반드시 설정하세요. 대화 기록에 업무 관련 정보가 쌓여 있다면, 계정 자체가 해킹의 표적이 될 수 있습니다.
습관 4: 회사 계정과 개인 계정 분리하기
업무용 AI 사용은 회사 이메일로 가입한 계정에서, 개인적인 AI 사용은 개인 이메일 계정에서 하세요. 계정이 혼합되면 개인 대화와 업무 대화가 같은 공간에 저장됩니다.
[일상 AI 보안 습관 체크리스트] 매일 AI 도구를 사용할 때 확인하세요:
사용 전:
- 입력하려는 내용에 7가지 금지 정보가 포함되어 있지 않은가?
- 민감한 작업이면 새 대화를 시작했는가?
- 개인정보 마스킹이 필요한 내용인가?
사용 중:
- 불필요한 정보를 제거하고 최소한의 정보만 입력하고 있는가?
- AI의 답변에 포함된 생성 정보를 사실로 받아들이고 있지 않은가?
사용 후:
- 민감한 대화를 삭제했는가?
- AI 답변을 검증 없이 외부에 공유하지 않았는가?
기업용 AI 챗봇과 소비자용의 차이
ChatGPT Team/Enterprise, Claude Team/Enterprise 등 기업용 플랜은 소비자용과 중요한 차이가 있습니다.
| 항목 | 소비자용 (무료/Plus) | 기업용 (Team/Enterprise) |
|---|---|---|
| 학습 데이터 활용 | 기본 활성화 (opt-out 가능) | 기본 비활성화 |
| 데이터 격리 | 공유 인프라 | 전용 인프라 (Enterprise) |
| 관리자 통제 | 없음 | 사용 정책, 로그 관리 |
| SSO 연동 | 없음 | 지원 |
| 데이터 보존 기간 | 서비스 약관에 따름 | 계약으로 조정 가능 |
| 규정 준수 인증 | 제한적 | SOC 2, GDPR 등 |
[기업 AI 플랜 도입 검토 프롬프트] 조직의 AI 도구 도입을 검토할 때 사용하세요:
"우리 조직([업종], 직원 [N]명)에서 AI 챗봇을 업무에 도입하려 합니다.
검토 항목:
- ChatGPT Team vs Enterprise 차이점과 비용
- Claude Team vs Enterprise 차이점과 비용
- 데이터 주권(데이터 저장 위치) 요건 충족 여부
- 개인정보보호법 및 산업별 규정 준수 가능 여부
- 기존 SSO/IAM 시스템과의 연동 가능 여부
조직의 보안 요구사항: [간단히 기술] 주요 사용 목적: [간단히 기술]
각 옵션의 장단점을 비교하고 권장 방안을 제시해 주세요."
마무리
AI 챗봇은 올바르게 사용하면 강력한 업무 도구가 되지만, 부주의하게 사용하면 심각한 정보 유출 경로가 됩니다. 이 챕터에서 다룬 3가지 핵심을 기억해 주세요:
- 7가지 금지 정보는 절대 입력하지 마세요
- 도구별 프라이버시 설정을 지금 바로 확인하세요
- 개인정보 마스킹 기법을 습관으로 만드세요
다음 챕터에서는 ChatGPT·Claude·Gemini를 넘어 Perplexity, Microsoft Copilot, GitHub Copilot, Notion AI, Grammarly 등 주요 AI 도구 20개의 보안 설정을 체계적으로 정리하겠습니다.
다음 챕터 예고: AI 도구별 프라이버시 설정 가이드 — 주요 도구 20개 보안 체크리스트 — 챗봇부터 코딩 도구, 이미지 생성, 음성 AI, 자동화 도구까지 카테고리별로 보안 설정을 점검합니다.