- Памочнікі штучнага інтэлекту захоўваюць кантэнт, ідэнтыфікатары, выкарыстанне, месцазнаходжанне і дадзеныя аб прыладзе, а ў некаторых выпадках праглядаюць яго чалавекам.
- На працягу ўсяго жыццёвага цыклу (праглынанне, навучанне, высновы і прымяненне) існуюць рызыкі, у тым ліку імгненная ін'екцыя і ўцечка.
- GDPR, Закон аб штучным інтэлекце і такія структуры, як NIST AI RMF, патрабуюць празрыстасці, мінімізацыі і кантролю, прапарцыйнага рызыцы.
- Наладжвайце актыўнасць, дазволы і аўтаматычнае выдаленне; абараняйце канфідэнцыйныя даныя, выкарыстоўвайце 2FA і праглядайце палітыкі і пастаўшчыкоў.

Штучны інтэлект за рэкордна кароткі час перайшоў ад абяцання да руціны, і разам з ім узніклі вельмі канкрэтныя сумневы: Якія дадзеныя збіраюць памочнікі са штучным інтэлектам?Як яны іх выкарыстоўваюць і што мы можам зрабіць, каб абараніць нашу інфармацыю. Калі вы карыстаецеся чат-ботамі, памочнікамі браўзера або генератыўнымі мадэлямі, варта як мага хутчэй узяць пад кантроль сваю прыватнасць.
Акрамя таго, што гэтыя сістэмы з'яўляюцца надзвычай карыснымі інструментамі, яны апрацоўваюць вялікія аб'ёмы дадзеных. Аб'ём, паходжанне і апрацоўка гэтай інфармацыі Яны ўводзяць новыя рызыкі: ад высноў аб асабістых рысах да выпадковага раскрыцця канфідэнцыйнага кантэнту. Тут вы падрабязна і без лішніх слоў даведаецеся, што яны фіксуюць, чаму яны гэта робяць, што кажа закон і Як абараніць свае акаўнты і сваю актыўнасцьДавайце даведаемся ўсё пра Якія дадзеныя збіраюць памочнікі са штучным інтэлектам і як абараніць вашу прыватнасць.
Якія дадзеныя насамрэч збіраюць памочнікі са штучным інтэлектам?
Сучасныя памочнікі апрацоўваюць значна больш, чым проста вашы пытанні. Кантактная інфармацыя, ідэнтыфікатары, выкарыстанне і змест Звычайна яны ўваходзяць у стандартныя катэгорыі. Гаворка ідзе пра імя і адрас электроннай пошты, а таксама пра IP-адрасы, інфармацыю пра прыладу, журналы ўзаемадзеяння, памылкі і, вядома ж, пра кантэнт, які вы ствараеце або загружаеце (паведамленні, файлы, выявы або публічныя спасылкі).
У экасістэме Google паведамленне аб прыватнасці Gemini дакладна апісвае, што збірае кампанія. інфармацыя з падлучаных праграм (напрыклад, гісторыя пошуку або YouTube, кантэкст Chrome), дадзеныя прылады і браўзера (тып, налады, ідэнтыфікатары), паказчыкі прадукцыйнасці і адладкі, а таксама нават сістэмныя дазволы на мабільных прыладах (напрыклад, доступ да кантактаў, журналаў выклікаў і паведамленняў або экраннага кантэнту), калі карыстальнік іх аўтарызаваў.
Яны таксама маюць справу дадзеныя аб месцазнаходжанні (прыблізнае месцазнаходжанне прылады, IP-адрас або адрасы, захаваныя ў акаўнце) і звесткі аб падпісцы, калі вы карыстаецеся платнымі тарыфнымі планамі. Акрамя таго, захоўваюцца наступныя звесткі: уласны кантэнт, які генеруюць мадэлі (тэкст, код, аўдыё, выявы або рэзюмэ), што з'яўляецца ключом да разумення таго следу, які вы пакідаеце пры ўзаемадзеянні з гэтымі інструментамі.
Варта адзначыць, што збор дадзеных не абмяжоўваецца толькі навучаннем: Удзельнікі могуць запісваць актыўнасць у рэжыме рэальнага часу Падчас выкарыстання (напрыклад, калі вы выкарыстоўваеце пашырэнні або плагіны) гэта ўключае тэлеметрыю і падзеі праграм. Гэта тлумачыць, чаму кантроль дазволаў і праверка налад актыўнасці маюць вырашальнае значэнне.
Для чаго яны выкарыстоўваюць гэтыя дадзеныя і хто іх можа бачыць?
Кампаніі часта спасылаюцца на шырокія і паўтаральныя мэты: Для прадастаўлення, падтрымання і паляпшэння паслугі, персаналізацыі вопыту і распрацоўкі новых функцыймець зносіны з вамі, вымяраць прадукцыйнасць і абараняць карыстальніка і платформу. Усё гэта таксама распаўсюджваецца на тэхналогіі машыннага навучання і самі генератыўныя мадэлі.
Адчувальнай часткай працэсу з'яўляецца праверка чалавекамРозныя пастаўшчыкі прызнаюць, што ўнутраныя супрацоўнікі або пастаўшчыкі паслуг правяраюць узоры ўзаемадзеяння для павышэння бяспекі і якасці. Адсюль паслядоўная рэкамендацыя: пазбягайце ўключэння канфідэнцыйнай інфармацыі, якую вы не хацелі б, каб чалавек бачыў, або якая магла б быць выкарыстана для ўдасканалення мадэляў.
У вядомых палітыках некаторыя сэрвісы паказваюць, што яны не перадаюць пэўныя дадзеныя ў рэкламных мэтах, хоць Так, яны могуць прадастаўляць інфармацыю ўладам. паводле патрабаванняў заканадаўства. Іншыя, па сваёй прыродзе, падзяліцца з рэкламадаўцамі або партнёрамі ідэнтыфікатары і агрэгаваныя сігналы для аналітыкі і сегментацыі, адкрываючы дзверы для прафілявання.
Лячэнне таксама ўключае ў сябе, захоўванне на працягу загадзя вызначаных перыядаўНапрыклад, некаторыя пастаўшчыкі ўсталёўваюць тэрмін аўтаматычнага выдалення па змаўчанні 18 месяцаў (з магчымасцю рэгулявання на 3, 36 або бясконцы тэрмін) і захоўваюць правераныя размовы даўжэйшыя перыяды з меркаванняў якасці і бяспекі. Рэкамендуецца праглядаць тэрміны захоўвання і актываваць аўтаматычнае выдаленне, калі вы хочаце мінімізаваць свой лічбавы след.
Рызыкі для прыватнасці на працягу ўсяго жыццёвага цыклу штучнага інтэлекту

Канфідэнцыяльнасць пагражае не ў адным пункце, а ва ўсім ланцужку: прыём дадзеных, навучанне, высновы і ўзровень прыкладанняПры масавым зборы дадзеных канфідэнцыйныя дадзеныя могуць быць выпадкова ўключаны без належнай згоды; падчас навучання лёгка перавысіць першапачатковыя чаканні выкарыстання; а падчас высноў мадэлі могуць рабіць высновы аб асабістых рысах пачынаючы з, здавалася б, трывіяльных сігналаў; а ў дадатку API або вэб-інтэрфейсы з'яўляюцца прывабнымі мішэнямі для зламыснікаў.
Пры выкарыстанні генератыўных сістэм рызыкі памнажаюцца (напрыклад, Цацкі са штучным інтэлектам). Наборы дадзеных, атрыманыя з Інтэрнэту без відавочнага дазволу Яны могуць утрымліваць асабістую інфармацыю, а некаторыя шкоднасныя падказкі імкнуцца маніпуляваць мадэллю, каб фільтраваць канфідэнцыйны кантэнт або выконваць небяспечныя інструкцыі. З іншага боку, многія карыстальнікі Яны ўстаўляюць канфідэнцыйныя дадзеныя не ўлічваючы, што іх можна захоўваць або выкарыстоўваць для карэкціроўкі будучых версій мадэлі.
Акадэмічныя даследаванні выявілі канкрэтныя праблемы. Нядаўні аналіз памочнікі браўзера У даследаванні былі выяўлены шырока распаўсюджаныя практыкі адсочвання і прафілявання, пры якіх на серверы правайдэра перадаваліся пошукавы кантэнт, канфідэнцыйныя дадзеныя формаў і IP-адрасы. Акрамя таго, было прадэманстравана здольнасць вызначаць узрост, пол, даход і інтарэсы, прычым персаналізацыя захоўвалася на працягу розных сесій; у гэтым даследаванні, Толькі адзін сэрвіс не паказаў доказаў прафілявання.
Гісторыя інцыдэнтаў нагадвае нам, што рызыка не з'яўляецца тэарэтычнай: парушэнні бяспекі Яны раскрылі гісторыю чатаў або метададзеныя карыстальнікаў, і зламыснікі ўжо выкарыстоўваюць метады мадэлявання для атрымання інфармацыі аб навучанні. Што яшчэ горш, Аўтаматызацыя канвеера штучнага інтэлекту Гэта ўскладняе выяўленне праблем з прыватнасцю, калі меры бяспекі не распрацаваны з самага пачатку.
Што кажуць законы і правілы?
Большасць краін ужо маюць палітыка прыватнасці дзеючыя, і хоць не ўсе яны тычацца канкрэтна штучнага інтэлекту, яны прымяняюцца да любой сістэмы, якая апрацоўвае персанальныя даныя. У Еўропе RGPD Гэта патрабуе законнасці, празрыстасці, мінімізацыі, абмежавання мэты і бяспекі; акрамя таго, Закон аб ІІ Еўрапейская ўводзіць катэгорыі рызыкі, забараняе практыкі з высокім уздзеяннем (напрыклад, сацыяльны бал публічны) і ўводзіць строгія патрабаванні да сістэм высокай рызыкі.
У ЗША такія дзяржаўныя правілы, як CCPA або закон Тэхаса Яны даюць правы доступу, выдалення і адмовы ад продажу дадзеных, у той час як такія ініцыятывы, як закон штата Юта Яны патрабуюць выразных апавяшчэнняў пры ўзаемадзеянні карыстальніка з генератыўнымі сістэмамі. Гэтыя нарматыўныя пласты суіснуюць з сацыяльнымі чаканнямі: апытанні грамадскай думкі паказваюць, што прыкметны недавер да адказнага выкарыстання дадзеных кампаніямі, а таксама разыходжанне паміж самаўспрыманнем карыстальнікаў і іх рэальнымі паводзінамі (напрыклад, прыняцце палітык без іх азнаямлення).
Для кіравання рызыкамі наземнага ўзроўню, структура NIST (AI RMF) Прапануюцца чатыры бягучыя функцыі: кіраванне (адказная палітыка і кантроль), картаграфаванне (разуменне кантэксту і наступстваў), вымярэнне (ацэнка і маніторынг рызык з дапамогай метрык) і кіраванне (прыярытэзацыя і змякчэнне). Гэты падыход дапамагае адаптаваць элементы кіравання у залежнасці ад узроўню рызыкі сістэмы.
Хто збірае больш за ўсё: рэнтген самых папулярных чат-ботаў
Нядаўнія параўнанні размяшчаюць розных памочнікаў у спектры калекцый. Gemini ад Google узначальвае рэйтынг збіраючы найбольшую колькасць унікальных кропак дадзеных па розных катэгорыях (у тым ліку мабільных кантактаў, калі дазволы прадастаўлены), што рэдка сустракаецца ў іншых канкурэнтаў.
У сярэднім дыяпазоне рашэнні ўключаюць такія, як Клод, Copilot, DeepSeek, ChatGPT і Perplexity, з дзесяццю-трынаццаццю тыпамі дадзеных, якія ўключаюць кантакты, месцазнаходжанне, ідэнтыфікатары, кантэнт, гісторыю, дыягназы, выкарыстанне і пакупкі. Грок Ён размешчаны ў ніжняй частцы з больш абмежаваным наборам сігналаў.
Ёсць таксама адрозненні ў наступнае выкарыстаннеДакументальна пацверджана, што некаторыя сэрвісы перадаюць пэўныя ідэнтыфікатары (напрыклад, зашыфраваныя электронныя лісты) і сігналы для сегментацыі рэкламадаўцам і бізнес-партнёрам, у той час як іншыя заяўляюць, што не выкарыстоўваюць дадзеныя ў рэкламных мэтах і не прадаюць іх, хоць пакідаюць за сабой права адказваць на юрыдычныя запыты або выкарыстоўваць іх для... палепшыць сістэму, калі толькі карыстальнік не запытае выдаленне.
З пункту гледжання канчатковага карыстальніка, гэта перакладаецца ў адну выразную параду: Азнаёмцеся з палітыкай кожнага пастаўшчыкаАдкарэктуйце дазволы праграмы і свядома вырашайце, якую інфармацыю вы перадаяце ў кожным кантэксце, асабліва калі вы збіраецеся загружаць файлы або дзяліцца канфідэнцыйным кантэнтам.
Асноўныя найлепшыя практыкі для абароны вашай прыватнасці
Перш за ўсё, старанна наладзьце параметры для кожнага памочніка. Даследуйце, што захоўваецца, як доўга і для якой мэты.і ўключыце аўтаматычнае выдаленне, калі даступна. Перыядычна правярайце правілы, бо яны часта мяняюцца і могуць уключаць новыя параметры кантролю.
Пазбягайце абмену асабістыя і канфідэнцыйныя дадзеныя У вашых падказках: ніякіх пароляў, нумароў крэдытных картак, медыцынскіх запісаў або ўнутраных дакументаў кампаніі. Калі вам трэба апрацоўваць канфідэнцыйную інфармацыю, разгледзьце механізмы ананімізацыі, закрытае асяроддзе або лакальныя рашэнні. умацаванае кіраванне.
Абараніце свае акаўнты з дапамогай надзейных пароляў і двухэтапная аўтэнтыфікацыя (2FA)Несанкцыянаваны доступ да вашага ўліковага запісу раскрывае гісторыю прагляду, загружаныя файлы і налады, што можа быць выкарыстана для вельмі праўдападобных атак сацыяльнай інжынерыі або для незаконнага продажу дадзеных.
Калі платформа дазваляе, адключыць гісторыю чата Або выкарыстоўвайце часовыя мадальнасці. Гэтая простая мера зніжае рызыку ўзлому, як паказалі мінулыя інцыдэнты з удзелам папулярных сэрвісаў штучнага інтэлекту.
Не давярайце сляпа адказам. Мадэлі могуць галюцынаваць, быць прадузятым або маніпуляваць праз шкоднаснае ўвядзенне запыту, што прыводзіць да памылковых інструкцый, ілжывых дадзеных або здабывання канфідэнцыйнай інфармацыі. У юрыдычных, медыцынскіх або фінансавых пытаннях, у адрозненне ад афіцыйныя крыніцы.
Будзьце надзвычай асцярожныя з спасылкі, файлы і код які пастаўляецца штучным інтэлектам. Можа быць шкоднасны кантэнт або наўмысна ўведзеныя ўразлівасці (атручэнне дадзеных). Праверце URL-адрасы перад тым, як націскаць на іх, і скануйце файлы з дапамогай надзейных рашэнняў бяспекі.
Будзьце асцярожныя пашырэнні і плагіны сумніўнага паходжання. Існуе мора дапаўненняў на аснове штучнага інтэлекту, і не ўсе яны надзейныя; усталёўвайце толькі неабходныя з надзейных крыніц, каб мінімізаваць рызыку заражэння шкоднаснымі праграмамі.
У карпаратыўнай сферы ўпарадкуйце працэс укаранення. Вызначце Палітыка кіравання, спецыфічная для штучнага інтэлектуЁн абмяжоўвае збор дадзеных неабходным, патрабуе інфармаванай згоды, праводзіць аўдыты пастаўшчыкоў і набораў дадзеных (ланцужок паставак) і выкарыстоўвае тэхнічныя меры кантролю (напрыклад, DLP, маніторынг трафіку да праграм штучнага інтэлекту і падрабязны кантроль доступу).
Усведамленне — гэта частка шчыта: пабудаваць сваю каманду у рызыках штучнага інтэлекту, прасунутым фішынгу і этычным выкарыстанні. Галіновыя ініцыятывы, якія абменьваюцца інфармацыяй аб інцыдэнтах са штучным інтэлектам, напрыклад, тыя, што праводзяцца спецыялізаванымі арганізацыямі, спрыяюць бесперапыннаму навучанню і паляпшэнню абароны.
Наладзьце прыватнасць і актыўнасць у Google Gemini
Калі вы карыстаецеся Gemini, увайдзіце ў свой уліковы запіс і пастаўце галачку «Актыўнасць у праграмах GeminiТам вы можаце праглядаць і выдаляць узаемадзеянні, змяняць перыяд аўтаматычнага выдалення (па змаўчанні 18 месяцаў, можна наладзіць на 3 або 36 месяцаў або на нявызначаны тэрмін) і вырашаць, ці будуць яны выкарыстоўвацца для палепшыць штучны інтэлект Google.
Важна ведаць, што нават калі захаванне адключана, Вашы размовы выкарыстоўваюцца для адказаў і падтрымліваць бяспеку сістэмы з дапамогай рэцэнзентаў-людзей. Правераныя размовы (і звязаныя з імі дадзеныя, такія як мова, тып прылады або прыблізнае месцазнаходжанне) могуць захоўвацца. да трох гадоў.
На мабільных прыладах, Праверце дазволы праграмыМесцазнаходжанне, мікрафон, камера, кантакты або доступ да экраннага кантэнту. Калі вы выкарыстоўваеце функцыі дыктоўкі або актывацыі голасам, памятайце, што сістэма можа быць выпадкова актывавана гукамі, падобнымі на ключавое слова; у залежнасці ад налад, гэтыя фрагменты могуць выкарыстоўвацца для паляпшэння мадэляў і паменшыць непажаданыя актывацыі.
Калі вы падключаеце Gemini да іншых праграм (Google або старонніх), майце на ўвазе, што кожная з іх апрацоўвае дадзеныя ў адпаведнасці са сваімі ўласнымі палітыкамі. іх уласная палітыкаУ такіх функцыях, як Canvas, стваральнік праграмы можа бачыць і захоўваць тое, чым вы дзеліцеся, і любы чалавек з публічнай спасылкай можа праглядаць або рэдагаваць гэтыя дадзеныя: дзяліцеся толькі з надзейнымі праграмамі.
У рэгіёнах, дзе гэта магчыма, магчыма пераход на пэўныя функцыі Імпартаваць гісторыю званкоў і паведамленняў З вашай гісторыі актыўнасці ў інтэрнэце і праграмах да актыўнасці, характэрнай для Gemini, каб палепшыць прапановы (напрыклад, кантакты). Калі вы гэтага не хочаце, адрэгулюйце элементы кіравання, перш чым працягнуць.
Масавае выкарыстанне, рэгуляванне і тэндэнцыя «ценявога штучнага інтэлекту»
Усынаўленне пераважнае: нядаўнія справаздачы паказваюць, што Пераважная большасць арганізацый ужо ўкараняе мадэлі штучнага інтэлектуТым не менш, многім камандам не хапае дастатковай сталасці ў галіне бяспекі і кіравання, асабліва ў сектарах са строгімі правіламі або вялікімі аб'ёмамі канфідэнцыйных дадзеных.
Даследаванні ў бізнес-сектары выяўляюць недахопы: вельмі высокі працэнт арганізацый у Іспаніі Ён не гатовы абараняць асяроддзі на базе штучнага інтэлектуі ў большасці з іх адсутнічаюць неабходныя практыкі для абароны воблачных мадэляў, патокаў дадзеных і інфраструктуры. Паралельна з гэтым узмацняюцца рэгулятарныя меры і з'яўляюцца новыя пагрозы. штрафы за невыкананне GDPR і мясцовых правілаў.
Тым часам, з'ява ценявы штучны інтэлект Гэта расце: супрацоўнікі выкарыстоўваюць знешніх памочнікаў або асабістыя акаўнты для выканання працоўных задач, раскрываючы ўнутраныя дадзеныя без кантролю бяспекі або кантрактаў з пастаўшчыкамі. Эфектыўным адказам з'яўляецца не поўная забарона, а... забяспечыць бяспечнае выкарыстанне у кантраляваных умовах, з выкарыстаннем зацверджаных платформаў і маніторынгам інфармацыйных патокаў.
Што датычыцца спажыўцоў, буйныя пастаўшчыкі карэктуюць сваю палітыку. Нядаўнія змены тлумачаць, напрыклад, як дзейнасць з Gemini для «паляпшэння паслуг»прапануюць такія опцыі, як часовая размова, а таксама элементы кіравання актыўнасцю і наладамі. У той жа час кампаніі, якія займаюцца абменам паведамленнямі, падкрэсліваюць, што Асабістыя чаты застаюцца недаступнымі па змаўчанні перадаюцца штучнаму інтэлекту, хоць яны раяць не адпраўляць штучнаму інтэлекту інфармацыю, якую вы не хочаце, каб кампанія ведала.
Існуюць таксама дзяржаўныя папраўчыя ўстановы: паслугі перадача файлаў Яны ўдакладнілі, што не выкарыстоўваюць карыстальніцкі кантэнт для навучання мадэляў і не прадаюць яго трэцім асобам, пасля таго, як выказалі занепакоенасць з нагоды змяненняў умоў. Гэты сацыяльны і юрыдычны ціск падштурхоўвае іх да больш выразнай і зразумелай тлумачальнай працы. даць карыстальніку большы кантроль.
Гледзячы ў будучыню, тэхналагічныя кампаніі шукаюць спосабы знізіць залежнасць ад канфідэнцыйных дадзеныхСамаўдасканальвальныя мадэлі, лепшыя працэсары і генерацыя сінтэтычных дадзеных. Гэтыя дасягненні абяцаюць паменшыць недахоп дадзеных і праблемы са згодай, хоць эксперты папярэджваюць аб новых рызыках, калі штучны інтэлект паскорыць свае ўласныя магчымасці і будзе ўжывацца ў такіх галінах, як кіберўварванне або маніпуляцыі.
Штучны інтэлект — гэта і абарона, і пагроза. Платформы бяспекі ўжо інтэгруюць мадэлі для выявіць і адрэагаваць хутчэй, у той час як зламыснікі выкарыстоўваюць LLM для пераканаўчы фішынг і глыбокія фэйкіГэтае перацягванне каната патрабуе пастаянных інвестыцый у тэхнічны кантроль, ацэнку пастаўшчыкоў, пастаянны аўдыт і пастаянныя абнаўленні абсталявання.
Памочнікі штучнага інтэлекту збіраюць мноства сігналаў пра вас, ад кантэнту, які вы ўводзіце, да дадзеных аб прыладзе, выкарыстання і месцазнаходжанні. Некаторая з гэтай інфармацыі можа быць праверана людзьмі або перададзена трэцім асобам у залежнасці ад сэрвісу. Калі вы хочаце выкарыстоўваць штучны інтэлект, не парушаючы сваю прыватнасць, спалучайце тонкую наладу (гісторыя, дазволы, аўтаматычнае выдаленне), аперацыйную абачлівасць (не перадавайце канфідэнцыйныя дадзеныя, правярайце спасылкі і файлы, абмяжоўвайце пашырэнні файлаў), абарону доступу (надзейныя паролі і 2FA) і актыўны маніторынг змяненняў палітыкі і новых функцый, якія могуць паўплываць на вашу прыватнасць. як выкарыстоўваюцца і захоўваюцца вашы даныя.
Захапляўся тэхнікай з малых гадоў. Мне падабаецца быць у курсе падзей у сектары і, перш за ўсё, паведамляць пра гэта. Вось чаму я шмат гадоў займаюся камунікацыяй на вэб-сайтах тэхналогій і відэагульняў. Вы можаце знайсці, як я пішу пра Android, Windows, MacOS, iOS, Nintendo або любую іншую сумежную тэму, якая прыйдзе вам на розум.