AI 비서가 수집하는 데이터와 개인 정보 보호 방법

마지막 업데이트 : 16/11/2025

  • AI 비서는 콘텐츠, 식별자, 사용 현황, 위치 및 기기 데이터를 저장하며, 특정한 경우에는 사람이 검토합니다.
  • 섭취, 훈련, 추론 및 적용의 전체 수명 주기에 걸쳐 즉각적인 주입 및 누출을 포함한 위험이 존재합니다.
  • GDPR, AI법 및 NIST AI RMF와 같은 프레임워크는 투명성, 최소화 및 위험에 비례한 통제를 요구합니다.
  • 활동, 권한 및 자동 삭제를 구성하고, 민감한 데이터를 보호하고, 2FA를 사용하고, 정책과 공급자를 검토합니다.

AI 비서가 수집하는 데이터와 개인 정보 보호 방법

인공지능은 기록적인 시간 안에 약속에서 일상으로 전환되었고, 이와 함께 매우 구체적인 의심이 생겨났습니다. AI 비서들은 어떤 데이터를 수집하나요?그들이 어떻게 개인정보를 사용하는지, 그리고 우리가 정보를 안전하게 보호하기 위해 무엇을 할 수 있는지 알아보세요. 챗봇, 브라우저 도우미, 또는 생성 모델을 사용하는 경우, 가능한 한 빨리 개인정보를 관리하는 것이 좋습니다.

이러한 시스템은 매우 유용한 도구일 뿐만 아니라, 대규모 데이터를 활용합니다. 해당 정보의 양, 출처 및 처리 그들은 새로운 위험을 초래합니다. 개인 정보를 유추하는 것부터 민감한 콘텐츠의 우발적인 노출까지 말입니다. 여기에서는 그들이 무엇을 포착하는지, 왜 그렇게 하는지, 법률은 어떻게 규정하는지 등 자세하고도 circulating한 정보를 제공합니다. 계정과 활동을 보호하는 방법. 모든 것에 대해 알아보자 AI 비서가 어떤 데이터를 수집하고, 개인정보를 보호하는 방법은 무엇인가요? 

AI 비서들은 실제로 어떤 데이터를 수집하는가?

현대의 비서들은 단순히 질문에 대답하는 것 이상의 일을 처리합니다. 연락처 정보, 식별자, 사용 및 콘텐츠 이러한 정보는 일반적으로 표준 범주에 포함됩니다. 이름과 이메일 정보뿐만 아니라 IP 주소, 기기 정보, 상호작용 로그, 오류, 그리고 물론 사용자가 생성하거나 업로드하는 콘텐츠(메시지, 파일, 이미지 또는 공개 링크)도 포함됩니다.

Google 생태계 내에서 Gemini의 개인정보 보호 고지사항은 Gemini가 수집하는 내용을 정확하게 설명합니다. 연결된 애플리케이션의 정보 (예: 검색 또는 YouTube 기록, Chrome 컨텍스트), 기기 및 브라우저 데이터(유형, 설정, 식별자), 성능 및 디버깅 측정항목, 심지어 사용자가 승인한 경우 모바일 기기의 시스템 권한(연락처, 통화 기록 및 메시지 또는 화면 콘텐츠에 대한 액세스 등)까지 포함됩니다.

그들은 또한 거래합니다 위치 데이터 (대략적인 기기 위치, IP 주소 또는 계정에 저장된 주소) 및 유료 플랜을 사용하는 경우 구독 정보가 저장됩니다. 또한 다음 정보가 저장됩니다. 모델이 생성하는 자체 콘텐츠 (텍스트, 코드, 오디오, 이미지 또는 요약) 이러한 도구와 상호 작용할 때 남기는 흔적을 이해하는 데 중요한 요소입니다.

데이터 수집은 훈련에만 국한되지 않는다는 점에 유의하세요. 참석자는 실시간으로 활동을 기록할 수 있습니다. 사용 중(예: 확장 프로그램이나 플러그인을 사용하는 경우)에는 원격 측정 및 애플리케이션 이벤트가 포함됩니다. 따라서 권한을 제어하고 활동 설정을 검토하는 것이 중요합니다.

그들은 그 데이터를 무엇에 사용하며, 누가 볼 수 있나요?

기업들은 종종 광범위하고 반복적인 목적을 언급합니다. 서비스 제공, 유지 관리 및 개선, 경험 개인화 및 새로운 기능 개발여러분과 소통하고, 성과를 측정하고, 사용자와 플랫폼을 보호하기 위해 노력합니다. 이 모든 것은 머신 러닝 기술과 생성 모델 자체에도 적용됩니다.

프로세스의 민감한 부분은 다음과 같습니다. 인간 검토여러 공급업체는 내부 직원이나 서비스 제공업체가 보안 및 품질 향상을 위해 상호작용 샘플을 검토한다는 점을 인정합니다. 따라서 한결같이 다음과 같은 권고가 있습니다. 다른 사람에게 공개하고 싶지 않거나 모델을 개선하는 데 사용될 기밀 정보는 포함하지 마십시오.

알려진 정책에 따르면 일부 서비스는 광고 목적으로 특정 데이터를 공유하지 않는다고 명시하고 있습니다. 네, 당국에 정보를 제공할 수 있습니다. 법적 요구 사항에 따라. 다른 것들은 그 특성상 광고주 또는 파트너와 공유 분석 및 세분화를 위한 식별자와 집계된 신호를 통해 프로파일링의 문을 엽니다.

치료에는 다음이 포함됩니다. 사전 정의된 기간 동안 보존예를 들어, 일부 제공업체는 기본 자동 삭제 기간을 18개월(3개월, 36개월 또는 무기한으로 조정 가능)로 설정하고, 품질 및 보안을 위해 검토된 대화 내용을 더 오랜 기간 동안 보관합니다. 디지털 발자국을 최소화하려면 보관 기간을 확인하고 자동 삭제를 활성화하는 것이 좋습니다.

독점 콘텐츠 - 여기를 클릭하세요  내 구매가 보호되는지 어떻게 확인합니까?

AI 수명주기 전반에 걸친 개인 정보 위험

AI 장난감 선택

개인정보 보호는 단일 지점에서만 문제가 되는 것이 아니라 전체 체인에 걸쳐 문제가 됩니다. 데이터 수집, 학습, 추론 및 애플리케이션 계층대량 데이터 수집 시 적절한 동의 없이 민감한 데이터가 실수로 포함될 수 있으며, 학습 시 원래 사용 기대치를 초과하기 쉽습니다. 추론 중에는 모델이 개인적 특성을 추론하다 겉보기에 사소해 보이는 신호에서 시작합니다. 애플리케이션에서 API나 웹 인터페이스는 공격자에게 매력적인 대상입니다.

생성 시스템을 사용하면 위험이 증가합니다(예: AI 장난감). 명시적인 허가 없이 인터넷에서 추출된 데이터 세트 이러한 악성 메시지에는 개인 정보가 포함될 수 있으며, 특정 악성 메시지(프롬프트 인젝션)는 민감한 콘텐츠를 필터링하거나 위험한 명령을 실행하기 위해 모델을 조작하려고 합니다. 반면, 많은 사용자는 그들은 기밀 데이터를 붙여 넣습니다 모델의 향후 버전을 조정하는 데 저장되거나 사용될 수 있다는 점을 고려하지 않았습니다.

학술 연구는 특정 문제들을 밝혀냈습니다. 최근 분석에 따르면 브라우저 도우미 이 연구에서는 검색 콘텐츠, 민감한 양식 데이터, IP 주소가 제공자 서버로 전송되는 등 광범위한 추적 및 프로파일링 관행이 감지되었습니다. 또한, 연령, 성별, 소득, 관심사를 추론하는 능력이 입증되었으며, 개인화는 여러 세션에서 동일하게 유지되었습니다. 해당 연구에서는 단 하나의 서비스에서만 프로파일링 증거가 나타나지 않았습니다..

사고의 역사는 위험이 이론적인 것이 아니라는 사실을 일깨워줍니다. 보안 위반 그들은 채팅 기록이나 사용자 메타데이터를 노출시켰고, 공격자들은 이미 모델링 기법을 활용하여 훈련 정보를 추출하고 있습니다. 설상가상으로, AI 파이프라인 자동화 처음부터 개인정보 보호장치를 설계하지 않으면 개인정보 문제를 감지하기 어렵습니다.

법률과 프레임워크는 무엇을 말하고 있나요?

대부분의 국가는 이미 개인정보 보호 규칙 시행 중이며, 모든 조항이 AI에만 적용되는 것은 아니지만 개인 데이터를 처리하는 모든 시스템에 적용됩니다. 유럽에서는 RGPD 합법성, 투명성, 최소화, 목적 제한 및 보안이 필요합니다. AI법 유럽은 위험 범주를 도입하고, 영향력이 큰 관행(예: 사회적 점수 공개)하고 고위험 시스템에 엄격한 요구 사항을 부과합니다.

미국에서는 다음과 같은 주 규정이 있습니다. CCPA 또는 텍사스 법률 그들은 유타법과 같은 이니셔티브를 통해 데이터 판매에 대한 접근, 삭제 및 거부 권한을 부여합니다. 사용자가 상호 작용할 때 명확한 알림을 요구합니다. 생성 시스템과 함께. 이러한 규범적 계층은 사회적 기대와 공존합니다. 여론 조사는 책임 있는 사용에 대한 눈에 띄는 불신 기업의 데이터 활용 방식과 사용자의 자기 인식과 실제 행동(예: 정책을 읽지 않고 수락하는 것) 간의 불일치.

위험 관리를 위한 프레임워크 NIST(AI RMF) 이 접근법은 거버넌스(책임 있는 정책 및 감독), 맵(맥락 및 영향 이해), 측정(지표를 활용한 위험 평가 및 모니터링), 그리고 관리(우선순위 설정 및 완화)의 네 가지 지속적인 기능을 제안합니다. 컨트롤을 조정하는 데 도움이 됩니다 시스템의 위험 수준에 따라.

가장 많이 수집하는 사람은 누구인가: 가장 인기 있는 챗봇의 엑스레이

최근 비교에서는 다양한 보조자들이 컬렉션 스펙트럼에 배치되었습니다. 구글 제미니가 순위 1위를 차지했습니다. 다양한 카테고리(권한이 부여된 경우 모바일 연락처 포함)에 걸쳐 가장 많은 고유 데이터 포인트를 수집함으로써 다른 경쟁사에서는 거의 볼 수 없는 이점을 제공합니다.

중간 범위에서는 다음과 같은 솔루션이 포함됩니다. Claude, Copilot, DeepSeek, ChatGPT 및 Perplexity10~13가지 유형의 데이터를 포함하고 있으며, 연락처, 위치, 식별자, 콘텐츠, 기록, 진단, 사용 및 구매 간의 조합이 다양합니다. 그록 신호가 더 제한적인 아래쪽에 위치합니다.

독점 콘텐츠 - 여기를 클릭하세요  FIFA 계정을 보호하는 방법은 무엇입니까?

또한 차이점이 있습니다 이후 사용일부 서비스는 광고주 및 비즈니스 파트너와 세분화를 위한 특정 식별자(예: 암호화된 이메일) 및 신호를 공유하는 반면, 다른 서비스는 광고 목적으로 데이터를 사용하거나 판매하지 않는다고 명시하지만 법적 요청에 응답하거나 데이터를 사용할 권리는 보유합니다. 시스템을 개선하다사용자가 삭제를 요청하지 않는 한.

최종 사용자의 관점에서 보면 이는 한 가지 명확한 조언으로 해석됩니다. 각 공급자의 정책을 검토하세요앱의 권한을 조정하고, 특히 파일을 업로드하거나 민감한 콘텐츠를 공유하려는 경우 각 상황에서 어떤 정보를 제공할지 신중하게 결정하세요.

개인 정보를 보호하기 위한 필수 모범 사례

먼저, 각 어시스턴트에 대한 설정을 신중하게 구성하세요. 무엇이 얼마나 오랫동안, 어떤 목적으로 저장되는지 알아보세요.가능한 경우 자동 삭제를 활성화하세요. 정책은 자주 변경되고 새로운 제어 옵션이 포함될 수 있으므로 정기적으로 검토하세요.

공유를 피하십시오 개인 및 민감한 데이터 프롬프트에 비밀번호, 신용카드 번호, 의료 기록, 회사 내부 문서 등을 입력하지 마세요. 민감한 정보를 처리해야 하는 경우 익명화 메커니즘, 폐쇄형 환경 또는 사내 솔루션을 고려하세요. 강화된 거버넌스.

강력한 비밀번호로 계정을 보호하세요. 2단계 인증(XNUMXFA)귀하의 계정에 대한 무단 액세스는 귀하의 검색 기록, 업로드한 파일 및 기본 설정을 노출시켜 매우 신뢰할 수 있는 소셜 엔지니어링 공격이나 불법적인 데이터 판매에 사용될 수 있습니다.

플랫폼이 허용한다면, 채팅 기록 비활성화 또는 임시 방편을 사용하세요. 이 간단한 조치는 과거 인기 AI 서비스와 관련된 사고에서 입증되었듯이, 침해 발생 시 노출 위험을 줄여줍니다.

답을 맹목적으로 믿지 마세요. 모델은 환각을 보거나, 편견을 갖거나, 조종당하다 악의적인 인스턴트 인젝션을 통해 잘못된 지시, 허위 데이터 또는 민감한 정보 추출이 발생할 수 있습니다. 법률, 의료 또는 금융 문제의 경우 공식 출처.

극도로 조심하세요 링크, 파일 및 코드 AI가 전달하는 악성 콘텐츠나 의도적으로 삽입된 취약점(데이터 포이즈닝)이 있을 수 있습니다. 클릭하기 전에 URL을 확인하고 신뢰할 수 있는 보안 솔루션을 사용하여 파일을 검사하세요.

불신 확장 프로그램 및 플러그인 출처가 불분명합니다. AI 기반 애드온은 넘쳐나지만, 모두 신뢰할 수 있는 것은 아닙니다. 악성 코드 감염 위험을 최소화하려면 신뢰할 수 있는 출처에서 필수 애드온만 설치하세요.

기업 영역에서는 입양 절차를 체계적으로 정리합니다. AI 관련 거버넌스 정책필요한 데이터 수집을 제한하고, 정보 제공에 동의하고, 공급업체와 데이터 세트(공급망)를 감사하고, 기술적 제어(DLP, AI 앱 트래픽 모니터링 등)를 배포합니다. 세분화된 액세스 제어).

인식은 방패의 일부입니다. 팀을 구성하세요 AI 위험, 지능형 피싱, 그리고 윤리적 사용에 대한 인식이 높아지고 있습니다. 전문 기관이 주도하는 AI 사고 관련 정보를 공유하는 업계 이니셔티브는 지속적인 학습과 향상된 방어 체계 구축을 촉진합니다.

Google Gemini에서 개인정보 보호 및 활동 구성

Gemini를 사용하는 경우 계정에 로그인하여 "Gemini 앱의 활동여기에서 상호작용을 보고 삭제할 수 있으며 자동 삭제 기간(기본 18개월, 3개월 또는 36개월로 조정 가능, 무기한)을 변경하고 해당 상호작용을 사용할지 여부를 결정할 수 있습니다. AI 개선 구글.

저장이 비활성화된 경우에도 다음 사항을 아는 것이 중요합니다. 귀하의 대화는 응답하는 데 사용됩니다. 검토자의 지원을 받아 시스템 보안을 유지합니다. 검토된 대화(및 언어, 기기 유형, 대략적인 위치 등의 관련 데이터)는 보관될 수 있습니다. 최대 3년.

모바일에서는 앱 권한을 확인하세요위치, 마이크, 카메라, 연락처 또는 화면 콘텐츠 접근 권한. 받아쓰기 또는 음성 활성화 기능을 사용하는 경우, 키워드와 유사한 소리로 인해 시스템이 실수로 활성화될 수 있다는 점을 기억하세요. 설정에 따라 이러한 스니펫이 모델 개선에 사용 원치 않는 활동을 줄입니다.

독점 콘텐츠 - 여기를 클릭하세요  바이러스 휴대폰 PC 제거

Gemini를 다른 앱(Google이나 타사)과 연결하는 경우 각 앱이 자체 정책에 따라 데이터를 처리한다는 점을 명심하세요. 그들만의 정책Canvas와 같은 기능을 사용하면 앱 제작자가 공유한 내용을 보고 저장할 수 있으며, 공개 링크가 있는 사람은 누구나 해당 데이터를 보고 편집할 수 있습니다. 신뢰할 수 있는 앱에만 공유하세요.

해당 지역에서는 특정 경험으로 업그레이드할 수 있습니다. 통화 및 메시지 내역 가져오기 웹 및 앱 활동부터 Gemini 관련 활동까지, 추천 기능(예: 연락처)을 개선하는 데 활용될 수 있습니다. 원하지 않으시면 계속하기 전에 설정을 조정하세요.

'섀도우 AI' 대량 사용·규제·추세

채택이 압도적입니다. 최근 보고서에 따르면 대다수의 조직은 이미 AI 모델을 배포하고 있습니다.그럼에도 불구하고 많은 팀은 보안과 거버넌스 측면에서 충분한 성숙도가 부족합니다. 특히 엄격한 규정이 있거나 대량의 민감한 데이터를 다루는 분야에서는 더욱 그렇습니다.

비즈니스 부문에 대한 연구에서는 단점이 드러났습니다. 스페인의 조직 중 매우 높은 비율 AI 기반 환경을 보호할 준비가 되어 있지 않습니다.대부분의 기업은 클라우드 모델, 데이터 흐름 및 인프라를 보호하기 위한 필수적인 관행이 부족합니다. 동시에 규제 조치가 강화되고 새로운 위협이 부상하고 있습니다. 불이행에 대한 처벌 GDPR 및 현지 규정을 준수합니다.

그 사이에, 현상 그림자 AI 이러한 문제는 점점 더 심각해지고 있습니다. 직원들이 업무에 외부 비서나 개인 계정을 사용하고, 보안 통제나 공급업체와의 계약 없이 내부 데이터를 노출하고 있습니다. 효과적인 대응책은 모든 것을 금지하는 것이 아니라, 안전한 사용을 가능하게 하다 통제된 환경에서 승인된 플랫폼을 갖추고 정보 흐름을 모니터링합니다.

소비자 측면에서 주요 공급업체들은 정책을 조정하고 있습니다. 최근의 변화는 예를 들어 다음과 같은 사항을 설명합니다. 제미니와의 "서비스 개선" 활동임시 대화, 활동 및 사용자 지정 제어와 같은 옵션을 제공합니다. 동시에 메시징 회사는 다음을 강조합니다. 개인 채팅은 여전히 ​​접근이 불가능합니다. 기본적으로 AI에 정보를 전송하지만, 회사에 알리고 싶지 않은 정보는 AI에 전송하지 않는 것이 좋습니다.

공공 교정도 있습니다: 서비스 파일 전송 그들은 약관 변경에 대한 우려를 제기한 후, 사용자 콘텐츠를 모델 학습에 사용하거나 제3자에게 판매하지 않는다고 밝혔습니다. 이러한 사회적, 법적 압력으로 인해 그들은 더 명확하게 설명해야 합니다. 사용자에게 더 많은 제어권을 제공하다.

미래를 내다보며 기술 회사들은 다음과 같은 방법을 모색하고 있습니다. 민감한 데이터에 대한 의존도를 줄이세요자가 개선 모델, 더 나은 프로세서, 그리고 합성 데이터 생성. 이러한 발전은 데이터 부족과 동의 문제를 완화할 것으로 기대되지만, 전문가들은 AI가 자체 역량을 강화하고 사이버 침입이나 조작과 같은 분야에 적용될 경우 새로운 위험이 발생할 수 있다고 경고합니다.

AI는 방어수단이자 위협수단입니다. 보안 플랫폼은 이미 모델을 통합하고 있습니다. 감지하고 대응하다 공격자는 LLM을 사용하여 더 빠르게 설득력 있는 피싱과 딥페이크이러한 줄다리기에는 기술 통제, 공급업체 평가, 지속적인 감사에 대한 지속적인 투자가 필요합니다. 지속적인 장비 업데이트.

AI 비서는 사용자가 입력하는 콘텐츠부터 기기 데이터, 사용 현황, 위치 정보까지 사용자에 대한 다양한 신호를 수집합니다. 이러한 정보 중 일부는 서비스에 따라 사람이 직접 검토하거나 제3자와 공유될 수 있습니다. 개인정보를 침해하지 않고 AI를 활용하려면 세부 조정(기록, 권한, 자동 삭제), 운영상의 신중함(민감한 데이터 공유 금지, 링크 및 파일 확인, 파일 확장자 제한), 접근 보호(강력한 비밀번호 및 2FA), 그리고 개인정보에 영향을 줄 수 있는 정책 변경 및 새로운 기능에 대한 적극적인 모니터링을 병행해야 합니다. 귀하의 데이터가 어떻게 사용되고 저장되는지.

제미니 딥 리서치 구글 드라이브
관련 기사 :
Gemini Deep Research는 Google Drive, Gmail 및 Chat과 연결됩니다.