AI 도구 보안 설정, 이것만은 꼭 하세요
AI 도구 보안 설정, 이것만은 꼭 하세요
ChatGPT에 고객 정보를 넣고 요약을 부탁했습니다. 편리했지만 불안합니다. 이 데이터가 학습에 쓰이면 어떡하죠? AI 도구는 강력하지만 보안 설정을 안 하면 위험합니다. 개인정보와 회사 데이터를 지키는 필수 설정을 알려드립니다.
AI 보안이 왜 중요한가
AI 도구에 입력한 데이터는 서버로 전송됩니다. 암호화되지만 회사 내부에 저장되고, 경우에 따라 학습 데이터로 쓰입니다.
실제 사례
2023년, 삼성 반도체 부서 직원이 ChatGPT에 소스 코드를 넣었습니다. 회의록도 넣고 요약을 받았습니다. 편리했지만 회사는 즉시 ChatGPT 사용을 금지했습니다.
같은 해, 이탈리아는 ChatGPT를 한달간 금지했습니다. GDPR 위반 우려 때문입니다. 개인정보 처리 방식이 불투명했습니다.
어떤 위험이 있나
- 데이터 유출: 입력한 정보가 다른 사용자에게 노출
- 학습 데이터 사용: 내 정보로 AI가 학습
- 제3자 접근: 정부 요청, 해킹으로 데이터 노출
- 의도치 않은 공유: 대화 링크 공유 실수
보안 설정을 안 하면 이런 일이 생길 수 있습니다.
ChatGPT 필수 보안 설정
1. 대화 기록 학습 끄기
Settings → Data Controls → Improve the model for everyone
이걸 끄면 내 대화가 학습에 쓰이지 않습니다. OpenAI는 30일 보관 후 삭제합니다.
주의: 끄지 않으면 기본으로 학습에 사용됩니다. 회사 정보, 개인정보를 넣기 전에 꼭 꺼야 합니다.
2. 대화 기록 자동 삭제
Settings → Data Controls → Chat History & Training
자동 삭제를 켜면 일정 기간 후 대화가 지워집니다. 민감한 정보는 즉시 삭제하세요.
3. 공유 링크 조심
ChatGPT는 대화를 링크로 공유할 수 있습니다. 편리하지만 링크를 아는 누구나 볼 수 있습니다.
민감한 대화는 절대 공유하지 마세요. 실수로 슬랙에 올리면 팀 전체가 봅니다.
4. API 사용 시 옵트아웃
API로 보낸 데이터는 기본적으로 학습에 쓰이지 않습니다. 하지만 30일간 저장됩니다.
더 안전하게 하려면 "Zero Data Retention" 옵션을 신청하세요. OpenAI에 이메일 보내면 즉시 삭제로 바꿔줍니다.
다른 AI 도구 보안 설정
Claude
Anthropic은 데이터를 학습에 쓰지 않는다고 명시합니다. 하지만 대화는 저장됩니다.
Settings → Privacy → Delete conversations
주기적으로 대화를 삭제하세요. 민감한 정보는 작업 끝나면 바로 지웁니다.
Gemini
구글 계정과 연동됩니다. 구글이 데이터를 많이 수집합니다.
myactivity.google.com에서 Gemini 활동 기록을 확인하고 삭제할 수 있습니다.
Perplexity
검색 기록이 저장됩니다. 민감한 검색은 시크릿 모드를 쓰세요.
Settings → Privacy → Incognito Mode
시크릿 모드에서는 검색이 저장되지 않습니다.
입력하면 안 되는 정보
절대 금지
- 주민등록번호, 여권 번호
- 신용카드 정보, 계좌번호
- 비밀번호, API 키
- 회사 기밀 (코드, 계약서, 전략)
- 고객 개인정보
조심해서 입력
- 익명화된 데이터 (이름 제거)
- 공개된 정보 (뉴스 기사)
- 일반적 질문 (업무 방법론)
안전하게 입력
- 개인 의견
- 학습 자료
- 공개 예정 콘텐츠
민감도를 판단하고 적절히 처리하세요.
회사 데이터 안전하게 쓰는 법
방법 1: 익명화
실제 이름, 숫자를 제거하고 입력합니다.
나쁜 예:
김철수 고객이 1,000만원 계약을 취소했습니다.
이유를 분석해주세요.
좋은 예:
고객 A가 대형 계약을 취소했습니다.
일반적인 취소 이유를 알려주세요.
구체적 정보를 빼도 AI는 도움을 줄 수 있습니다.
방법 2: 로컬 AI 사용
LM Studio, Ollama로 노트북에서 AI를 돌립니다. 데이터가 인터넷으로 나가지 않습니다.
성능은 떨어지지만 100% 안전합니다. 극도로 민감한 정보는 로컬 AI를 씁니다.
방법 3: 기업용 플랜
ChatGPT Enterprise, Claude for Work는 데이터 격리를 보장합니다.
- 학습 절대 안 함
- 전용 인스턴스
- GDPR, SOC2 준수
비싸지만($60/월 이상) 회사 데이터를 다룬다면 필수입니다.
API 보안 관리
API 키 절대 공개 금지
API 키는 비밀번호입니다. 코드에 하드코딩하면 안 됩니다.
나쁜 예:
api_key = "sk-abc123..." # 코드에 직접 입력
좋은 예:
import os
api_key = os.environ['OPENAI_API_KEY'] # 환경변수 사용
깃허브에 키를 올리면 몇 분 만에 도용됩니다. 자동 스캔 봇이 돌아다닙니다.
사용량 한도 설정
OpenAI 대시보드에서 월 한도를 설정하세요.
Settings → Limits → Monthly Budget
$50로 설정하면 그 이상 청구되지 않습니다. 키가 도용돼도 피해를 최소화합니다.
IP 화이트리스트
가능하면 특정 IP에서만 API를 호출하게 합니다. 회사 IP만 허용하면 외부 도용이 불가능합니다.
OpenAI는 아직 IP 제한을 지원하지 않지만, 자체 프록시 서버로 구현할 수 있습니다.
실천 가이드
-
즉시 설정 변경: 지금 ChatGPT 설정으로 가서 "Improve the model" 옵션을 끄세요. 5분이면 됩니다.
-
과거 대화 검토: 민감한 정보를 입력한 대화가 있는지 확인하세요. 있다면 즉시 삭제합니다.
-
팀 교육: 같은 팀원들에게 보안 설정을 공유하세요. 한 명이라도 실수하면 전체가 위험합니다.
-
정책 수립: 회사에서 AI를 쓴다면 "AI 사용 가이드라인"을 만드세요. 입력 금지 정보를 명시합니다.
-
정기 점검: 3개월마다 보안 설정을 재확인하세요. 서비스 정책이 바뀔 수 있습니다.
-
대안 준비: 민감한 작업은 로컬 AI를 쓰세요. LM Studio를 지금 설치해두세요.
보안과 편리함의 균형
AI 도구를 안 쓸 순 없습니다. 너무 편리합니다. 하지만 무방비로 쓰면 위험합니다.
균형 잡는 법
- 일반 작업: 클라우드 AI (ChatGPT, Claude)
- 민감한 작업: 로컬 AI 또는 기업용 플랜
- 극비 작업: AI 안 씀
100% 안전은 없습니다. 하지만 기본 설정만 해도 99%는 막을 수 있습니다.
마무리
AI 도구는 강력하지만 보안에 무지하면 독이 됩니다. ChatGPT 학습 옵션을 끄고, 민감한 정보는 익명화하고, API 키는 환경변수로 관리하세요. 이 3가지만 해도 대부분의 위험을 막을 수 있습니다. 지금 당장 설정을 확인하세요. 5분이 데이터 유출을 막습니다.