Ի՞նչ տվյալներ են հավաքում արհեստական ​​բանականության օգնականները և ինչպե՞ս պաշտպանել ձեր գաղտնիությունը

Վերջին թարմացումը. 16/11/2025

  • Արհեստական ​​​​ինտելեկտի օգնականները պահպանում են բովանդակությունը, նույնականացուցիչները, օգտագործումը, գտնվելու վայրը և սարքի տվյալները, որոշ դեպքերում՝ մարդկային ստուգմամբ։
  • Ռիսկեր կան ողջ կյանքի ցիկլի ընթացքում (կուլ տալը, մարզվելը, եզրակացնելը և կիրառելը), ներառյալ արագ ներարկումը և արտահոսքը։
  • GDPR-ը, արհեստական ​​բանականության մասին օրենքը և NIST AI RMF-ի նման շրջանակները պահանջում են թափանցիկություն, նվազագույնի հասցնել և ռիսկին համարժեք վերահսկողություն։
  • Կարգավորեք գործունեությունը, թույլտվությունները և ավտոմատ ջնջումը, պաշտպանեք զգայուն տվյալները, օգտագործեք 2FA (երկկողմանի անվտանգության համակարգ) և վերանայեք քաղաքականությունն ու մատակարարներին։

Ի՞նչ տվյալներ են հավաքում արհեստական ​​բանականության օգնականները և ինչպե՞ս պաշտպանել ձեր գաղտնիությունը

Արհեստական ​​բանականությունը ռեկորդային ժամանակում խոստումնալից վերածվել է առօրյայի, և դրա հետ մեկտեղ առաջացել են շատ կոնկրետ կասկածներ. Ի՞նչ տվյալներ են հավաքում արհեստական ​​բանականության օգնականները։Ինչպես են նրանք օգտագործում դրանք և ինչ կարող ենք անել մեր տեղեկատվությունը անվտանգ պահելու համար։ Եթե դուք օգտագործում եք չաթբոտներ, դիտարկիչի օգնականներ կամ գեներատիվ մոդելներ, լավ գաղափար է հնարավորինս շուտ վերահսկել ձեր գաղտնիությունը։

Բացի չափազանց օգտակար գործիքներ լինելուց, այս համակարգերը սնվում են մեծածավալ տվյալներով։ Այդ տեղեկատվության ծավալը, ծագումը և մշակումը Դրանք նոր ռիսկեր են ներմուծում՝ անձնական հատկանիշների ենթադրությունից մինչև զգայուն բովանդակության պատահական բացահայտումը: Այստեղ դուք մանրամասն և առանց ավելորդ մանրամասների կգտնեք, թե ինչ են նրանք արձանագրում, ինչու են դա անում, ինչ է ասում օրենքը և այլն: Ինչպես պաշտպանել ձեր հաշիվները և ձեր գործունեությունըԵկեք ամեն ինչ իմանանք Ի՞նչ տվյալներ են հավաքում արհեստական ​​բանականության օգնականները և ինչպե՞ս պաշտպանել ձեր գաղտնիությունը։ 

Ի՞նչ տվյալներ են իրականում հավաքում արհեստական ​​բանականության օգնականները։

Ժամանակակից օգնականները մշակում են ոչ միայն ձեր հարցերը։ Կոնտակտային տեղեկություններ, նույնականացուցիչներ, օգտագործում և բովանդակություն Սրանք սովորաբար ներառված են ստանդարտ կատեգորիաներում: Մենք խոսում ենք անվան և էլ. փոստի մասին, բայց նաև IP հասցեների, սարքի տեղեկատվության, փոխազդեցության գրանցամատյանների, սխալների և, իհարկե, ձեր կողմից ստեղծված կամ վերբեռնված բովանդակության (հաղորդագրություններ, ֆայլեր, պատկերներ կամ հանրային հղումներ):

Google էկոհամակարգի շրջանակներում Gemini-ի գաղտնիության քաղաքականությունը ճշգրիտ նկարագրում է, թե ինչ է այն հավաքում։ կապակցված հավելվածներից ստացված տեղեկատվություն (օրինակ՝ Որոնման կամ YouTube-ի պատմությունը, Chrome-ի համատեքստը), սարքի և դիտարկիչի տվյալները (տեսակը, կարգավորումները, նույնականացուցիչները), կատարողականի և վրիպազերծման չափանիշները, և նույնիսկ համակարգային թույլտվությունները բջջային սարքերում (օրինակ՝ կոնտակտներին, զանգերի գրանցամատյաններին և հաղորդագրություններին կամ էկրանին ցուցադրվող բովանդակությանը մուտք գործելու հնարավորություն), երբ դրանք թույլատրվում են օգտատիրոջ կողմից։

Նրանք նաև զբաղվում են գտնվելու վայրի տվյալներ (սարքի մոտավոր գտնվելու վայրը, IP հասցեն կամ հաշվում պահված հասցեները) և բաժանորդագրության մանրամասները, եթե դուք օգտագործում եք վճարովի պլաններ: Բացի այդ, պահվում են հետևյալ տվյալները՝ սեփական բովանդակությունը, որը մոդելները ստեղծում են (տեքստ, կոդ, աուդիո, պատկերներ կամ ամփոփումներ), ինչ-որ բան, որը կարևոր է այս գործիքների հետ փոխազդելիս ձեր թողած հետքը հասկանալու համար։

Պետք է նշել, որ տվյալների հավաքագրումը չի սահմանափակվում միայն ուսուցմամբ. Մասնակիցները կարող են գրանցել իրենց գործունեությունը իրական ժամանակում Օգտագործման ընթացքում (օրինակ, երբ դուք օգտագործում եք ընդլայնումներ կամ պլագիններ), սա ներառում է հեռաչափումը և հավելվածի իրադարձությունները: Սա բացատրում է, թե ինչու է կարևոր թույլտվությունների վերահսկումը և գործունեության կարգավորումների վերանայումը:

Ինչի՞ համար են նրանք օգտագործում այդ տվյալները, և ո՞վ կարող է տեսնել դրանք։

Ընկերությունները հաճախ վկայակոչում են լայն և կրկնվող նպատակներ՝ Ծառայությունը մատուցելու, պահպանելու և բարելավելու, փորձը անհատականացնելու և նոր հնարավորություններ մշակելու համարձեզ հետ շփվելու, արդյունավետությունը չափելու և օգտատիրոջն ու հարթակը պաշտպանելու համար: Այս ամենը վերաբերում է նաև մեքենայական ուսուցման տեխնոլոգիաներին և հենց գեներատիվ մոդելներին:

Գործընթացի զգայուն մասը հետևյալն է. մարդկային վերանայումՏարբեր մատակարարներ ընդունում են, որ ներքին անձնակազմը կամ ծառայություն մատուցողները վերանայում են փոխազդեցության նմուշները՝ անվտանգությունն ու որակը բարելավելու համար: Հետևաբար, հետևողական խորհուրդն է՝ խուսափեք այնպիսի գաղտնի տեղեկություններ ներառելուց, որոնք չէիք ցանկանա, որ մարդը տեսնի կամ որոնք կօգտագործվեն մոդելները կատարելագործելու համար:

Հայտնի քաղաքականություններում որոշ ծառայություններ նշում են, որ որոշակի տվյալներ չեն կիսում գովազդային նպատակներով, չնայած Այո, նրանք կարող են տեղեկատվություն տրամադրել իշխանություններին։ իրավական պահանջի համաձայն։ Մյուսները, իրենց բնույթով, կիսվել գովազդատուների կամ գործընկերների հետ նույնականացուցիչներ և ագրեգացված ազդանշաններ վերլուծության և սեգմենտացիայի համար, բացելով դուռը պրոֆիլավորման համար։

Բուժումը ներառում է նաև՝ պահպանում նախապես սահմանված ժամանակահատվածների համարՕրինակ, որոշ մատակարարներ սահմանում են 18 ամսվա ավտոմատ ջնջման լռելյայն ժամկետ (կարող է կարգավորվել մինչև 3, 36 կամ անորոշ ժամկետով) և պահպանում են վերանայված զրույցները ավելի երկար ժամանակահատվածով՝ որակի և անվտանգության նկատառումներից ելնելով: Խորհուրդ է տրվում վերանայել պահպանման ժամկետները և ակտիվացնել ավտոմատ ջնջումը, եթե ցանկանում եք նվազագույնի հասցնել ձեր թվային հետքը:

Բացառիկ բովանդակություն - Սեղմեք այստեղ  Ինչպե՞ս կարող եմ համոզվել, որ իմ գնումները պաշտպանված են:

Գաղտնիության ռիսկերը արհեստական ​​բանականության ողջ կյանքի ցիկլի ընթացքում

Արհեստական ​​բանականության խաղալիք ընտրելը

Գաղտնիությունը վտանգված է ոչ թե մեկ կետում, այլ ամբողջ շղթայի ընթացքում։ տվյալների ընդունում, ուսուցում, եզրակացություն և կիրառման շերտԶանգվածային տվյալների հավաքագրման ժամանակ զգայուն տվյալները կարող են պատահաբար ներառվել առանց պատշաճ համաձայնության։ Ուսուցման ընթացքում հեշտ է գերազանցել սկզբնական օգտագործման սպասումները, իսկ եզրակացության ժամանակ մոդելները կարող են եզրակացնել անձնական հատկանիշներ սկսած թվացյալ աննշան ազդանշաններից, իսկ ծրագրում API-ները կամ վեբ ինտերֆեյսները գրավիչ թիրախներ են հարձակվողների համար։

Գեներատիվ համակարգերի դեպքում ռիսկերը բազմապատկվում են (օրինակ՝ Արհեստական ​​​​ինտելեկտի խաղալիքներ). Ինտերնետից առանց հստակ թույլտվության վերցված տվյալների հավաքածուներ Դրանք կարող են պարունակել անձնական տեղեկություններ, և որոշակի չարամիտ հուշումներ (prompt injection) փորձում են մանիպուլյացիայի ենթարկել մոդելը՝ զգայուն բովանդակությունը զտելու կամ վտանգավոր հրահանգներ կատարելու համար: Մյուս կողմից, շատ օգտատերեր Նրանք գաղտնի տվյալներ են տեղադրում առանց հաշվի առնելու, որ դրանք կարող են պահվել կամ օգտագործվել մոդելի ապագա տարբերակները կարգավորելու համար։

Ակադեմիական հետազոտությունները լույս են սփռել կոնկրետ խնդիրների վրա։ Վերջերս կատարված վերլուծությունը դիտարկիչի օգնականներ Այն հայտնաբերեց լայնորեն տարածված հետևողականության և պրոֆիլավորման պրակտիկա՝ որոնման բովանդակության, զգայուն ձևաթղթերի տվյալների և IP հասցեների մատակարարի սերվերներին փոխանցմամբ։ Ավելին, այն ցույց տվեց տարիքը, սեռը, եկամուտը և հետաքրքրությունները որոշելու ունակությունը՝ անհատականացման պահպանմամբ տարբեր սեսիաների ընթացքում։ Այդ ուսումնասիրության մեջ՝ Միայն մեկ ծառայություն ցույց չտվեց պրոֆիլավորման որևէ ապացույց.

Դեպքերի պատմությունը մեզ հիշեցնում է, որ ռիսկը տեսական չէ։ անվտանգության խախտումներ Նրանք բացահայտել են զրույցների պատմությունը կամ օգտատիրոջ մետատվյալները, և հարձակվողներն արդեն օգտագործում են մոդելավորման տեխնիկան՝ մարզումների մասին տեղեկատվություն ստանալու համար։ Իրավիճակն էլ ավելի է վատանում, Արհեստական ​​բանականության խողովակաշարերի ավտոմատացում Դժվար է հայտնաբերել գաղտնիության հետ կապված խնդիրները, եթե սկզբից պաշտպանության միջոցներ չեն մշակվել։

Ի՞նչ են ասում օրենքներն ու շրջանակները։

Երկրների մեծ մասն արդեն ունի գաղտնիության քաղաքականություն ուժի մեջ են, և չնայած ոչ բոլորն են հատուկ արհեստական ​​ինտելեկտին, դրանք վերաբերում են անձնական տվյալներ մշակող ցանկացած համակարգի: Եվրոպայում RGPD Այն պահանջում է օրինականություն, թափանցիկություն, նվազագույնի հասցնել, նպատակի սահմանափակում և անվտանգություն։ Ավելին, AI Act Եվրոպական միությունը ներկայացնում է ռիսկի կատեգորիաներ, արգելում է բարձր ազդեցություն ունեցող գործելակերպերը (օրինակ՝ սոցիալական գնահատական հանրային) և խիստ պահանջներ է սահմանում բարձր ռիսկային համակարգերի համար։

ԱՄՆ-ում նահանգային կանոնակարգերը, ինչպիսիք են՝ CCPA կամ Տեխասի օրենք Նրանք իրավունքներ են տալիս մուտք գործելու, ջնջելու և տվյալների վաճառքից հրաժարվելու, մինչդեռ այնպիսի նախաձեռնություններ, ինչպիսին է Յուտայի ​​օրենքը Նրանք պահանջում են հստակ ծանուցումներ, երբ օգտատերը փոխազդում է գեներատիվ համակարգերի հետ։ Այս նորմատիվ շերտերը համակեցության մեջ են սոցիալական սպասումների հետ. հասարակական կարծիքի հարցումները ցույց են տալիս պատասխանատու օգտագործման նկատմամբ նկատելի անվստահություն ընկերությունների կողմից տվյալների բաշխումը և օգտատերերի ինքնաընկալման և նրանց իրական վարքագծի միջև անհամապատասխանությունը (օրինակ՝ քաղաքականությունների ընդունումը՝ դրանք կարդալու առանց):

Հողի ռիսկերի կառավարման համար, շրջանակը NIST (AI RMF) Այն առաջարկում է չորս շարունակական գործառույթ՝ Կառավարում (պատասխանատու քաղաքականություն և վերահսկողություն), Քարտեզագրում (համատեքստի և ազդեցությունների ըմբռնում), Չափում (ռիսկերի գնահատում և մոնիթորինգ չափանիշներով) և Կառավարում (առաջնահերթության սահմանում և մեղմացում): Այս մոտեցումը օգնում է հարմարեցնել վերահսկողությունը համակարգի ռիսկի մակարդակի համաձայն։

Ո՞վ է ամենաշատը հավաքում. ամենատարածված չաթբոտերի ռենտգենյան լուսանկարը

Վերջին համեմատությունները տարբեր օգնականներ են տեղադրում հավաքածուի սպեկտրում։ Google-ի Gemini-ն գլխավորում է վարկանիշը հավաքելով տարբեր կատեգորիաների (ներառյալ բջջային կոնտակտները, եթե թույլտվություններ են տրամադրվել) եզակի տվյալների ամենամեծ քանակը, ինչը հազվադեպ է հանդիպում մյուս մրցակիցների մոտ։

Միջին միջակայքում լուծումները ներառում են, ինչպիսիք են՝ Կլոդ, Copilot, DeepSeek, ChatGPT և Perplexity, տասից տասներեք տեսակի տվյալներով, որոնք տարբերվում են կոնտակտային տվյալների, գտնվելու վայրի, նույնականացուցիչների, բովանդակության, պատմության, ախտորոշումների, օգտագործման և գնումների համադրությամբ։ Գրոկ Այն գտնվում է ստորին մասում՝ ազդանշանների ավելի սահմանափակ հավաքածուով։

Բացառիկ բովանդակություն - Սեղմեք այստեղ  Ինչպե՞ս պաշտպանել ձեր ՖԻՖԱ-ի հաշիվը:

Կան նաև տարբերություններ՝ հետագա օգտագործումըՓաստագրված է, որ որոշ ծառայություններ գովազդատուների և բիզնես գործընկերների հետ կիսվում են որոշակի նույնականացուցիչներով (օրինակ՝ կոդավորված էլեկտրոնային նամակներով) և սեգմենտացիայի ազդանշաններով, մինչդեռ մյուսները նշում են, որ չեն օգտագործում տվյալները գովազդային նպատակներով կամ չեն վաճառում դրանք, չնայած նրանք իրավունք ունեն արձագանքել իրավական հարցումներին կամ օգտագործել դրանք։ բարելավել համակարգը, եթե օգտատերը չի խնդրում ջնջել։

Վերջնական օգտագործողի տեսանկյունից սա թարգմանվում է որպես մեկ հստակ խորհուրդ. Վերանայեք յուրաքանչյուր մատակարարի քաղաքականությունըԿարգավորեք հավելվածի թույլտվությունները և գիտակցաբար որոշեք, թե յուրաքանչյուր համատեքստում ինչ տեղեկատվություն եք տրամադրում, հատկապես, եթե պատրաստվում եք ֆայլեր վերբեռնել կամ գաղտնի բովանդակություն կիսվել։

Ձեր գաղտնիությունը պաշտպանելու համար անհրաժեշտ լավագույն գործելակերպերը

Նախևառաջ, ուշադիր կարգավորեք յուրաքանչյուր օգնականի կարգավորումները: Ուսումնասիրեք, թե ինչ է պահվում, որքան ժամանակով և ինչ նպատակով։և միացրեք ավտոմատ ջնջումը, եթե հնարավոր է: Պարբերաբար վերանայեք քաղաքականությունները, քանի որ դրանք հաճախ են փոխվում և կարող են ներառել նոր կառավարման տարբերակներ:

Խուսափեք կիսվելուց անձնական և զգայուն տվյալներ Ձեր հուշումներում՝ գաղտնաբառեր, վարկային քարտերի համարներ, բժշկական գրառումներ կամ ընկերության ներքին փաստաթղթեր չկան: Եթե անհրաժեշտ է կարգավորել զգայուն տեղեկատվություն, դիտարկեք անանունացման մեխանիզմները, փակ միջավայրերը կամ տեղական լուծումները: ուժեղացված կառավարում.

Պաշտպանեք ձեր հաշիվները ուժեղ գաղտնաբառերով և երկքայլ նույնականացում (2FA)Ձեր հաշվին չարտոնված մուտքը բացահայտում է ձեր զննարկման պատմությունը, վերբեռնված ֆայլերը և նախընտրությունները, որոնք կարող են օգտագործվել բարձր հավաստի սոցիալական ինժեներիայի հարձակումների կամ տվյալների անօրինական վաճառքի համար։

Եթե ​​հարթակը թույլ է տալիս, անջատել զրույցի պատմությունը Կամ օգտագործեք ժամանակավոր միջոցներ: Այս պարզ միջոցը նվազեցնում է ձեր ազդեցությունը խախտման դեպքում, ինչպես ցույց են տվել նախկինում տեղի ունեցած միջադեպերը, որոնք կապված էին հայտնի արհեստական ​​բանականության ծառայությունների հետ:

Կուրորեն մի՛ վստահեք պատասխաններին։ Մոդելները կարող են հալյուցինացիաներ ունենալ, կողմնակալ լինել կամ մանիպուլյացիայի ենթարկվել չարամիտ արագ ներարկման միջոցով, որը հանգեցնում է սխալ հրահանգների, կեղծ տվյալների կամ զգայուն տեղեկատվության արդյունահանման: Իրավական, բժշկական կամ ֆինանսական հարցերի համար համեմատեք պաշտոնական աղբյուրներ.

Ցուցաբերեք ծայրահեղ զգուշություն հղումներ, ֆայլեր և կոդ որը մատակարարվում է արհեստական ​​բանականության կողմից: Կարող է դիտավորյալ ներմուծվել վնասակար բովանդակություն կամ խոցելիություններ (տվյալների թունավորում): Սեղմեք դրանց վրա սեղմելուց առաջ ստուգեք URL-ները և սկանավորեք ֆայլերը հեղինակավոր անվտանգության լուծումներով:

Անվստահություն, կասկած ընդլայնումներ և պլագիններ կասկածելի ծագում ունեն: Արհեստական ​​բանականության վրա հիմնված հավելումների ծով կա, և դրանցից ոչ բոլորն են հուսալի. տեղադրեք միայն անհրաժեշտները՝ հեղինակավոր աղբյուրներից, որպեսզի նվազագույնի հասցնեք վնասակար ծրագրերի ռիսկը:

Կորպորատիվ ոլորտում կարգուկանոն հաստատել ընդունման գործընթացում։ Սահմանել Արհեստական ​​բանականությանը հատուկ կառավարման քաղաքականություններԱյն սահմանափակում է տվյալների հավաքագրումը անհրաժեշտի սահմաններում, պահանջում է տեղեկացված համաձայնություն, աուդիտ է անցկացնում մատակարարների և տվյալների հավաքածուների (մատակարարման շղթա) և կիրառում է տեխնիկական վերահսկողություն (օրինակ՝ DLP, արհեստական ​​բանականության հավելվածների երթևեկության մոնիթորինգ և այլն): մանրացված մուտքի վերահսկում).

Իրազեկությունը վահանի մի մասն է. կառուցեք ձեր թիմը արհեստական ​​ինտելեկտի ռիսկերի, առաջադեմ ֆիշինգի և էթիկական օգտագործման մեջ: Արդյունաբերության նախաձեռնությունները, որոնք փոխանակվում են արհեստական ​​ինտելեկտի միջադեպերի վերաբերյալ տեղեկատվությամբ, ինչպիսիք են մասնագիտացված կազմակերպությունների կողմից իրականացվողները, խթանում են շարունակական ուսուցումը և բարելավում են պաշտպանությունը:

Կարգավորեք գաղտնիությունը և գործունեությունը Google Gemini-ում

Եթե ​​օգտագործում եք Gemini, մուտք գործեք ձեր հաշիվ և նշեք «Գործունեություն Gemini հավելվածներումԱյնտեղ կարող եք դիտել և ջնջել փոխազդեցությունները, փոխել ավտոմատ ջնջման ժամանակահատվածը (նախնական՝ 18 ամիս, կարգավորելի՝ 3 կամ 36 ամիս, կամ անորոշ) և որոշել, թե արդյոք դրանք օգտագործվելու են բարելավել արհեստական ​​բանականությունը Google.

Կարևոր է իմանալ, որ նույնիսկ խնայողությունը անջատված լինելու դեպքում, Ձեր զրույցները օգտագործվում են պատասխանելու համար և պահպանել համակարգի անվտանգությունը՝ մարդկային վերանայողների աջակցությամբ: Վերանայված զրույցները (և դրանց հետ կապված տվյալները, ինչպիսիք են լեզուն, սարքի տեսակը կամ մոտավոր գտնվելու վայրը) կարող են պահպանվել: մինչև երեք տարի.

Բջջային սարքերի վրա, Ստուգեք հավելվածի թույլտվություններըՏեղանքը, միկրոֆոնը, տեսախցիկը, կոնտակտները կամ էկրանին ցուցադրվող բովանդակությանը մուտք գործելը։ Եթե դուք ապավինում եք թելադրման կամ ձայնային ակտիվացման գործառույթներին, հիշեք, որ համակարգը կարող է սխալմամբ ակտիվացվել բանալի բառին նման ձայներով. կարգավորումներից կախված՝ այս հատվածները կարող են օգտագործվել մոդելները բարելավելու համար և նվազեցնել անցանկալի ակտիվացումները։

Բացառիկ բովանդակություն - Սեղմեք այստեղ  Հեռացնել վիրուսը բջջային հեռախոսի համակարգչից

Եթե ​​Gemini-ն կապում եք այլ հավելվածների հետ (Google-ի կամ երրորդ կողմերի), հիշեք, որ յուրաքանչյուրը մշակում է տվյալները իր սեփական քաղաքականության համաձայն։ իրենց սեփական քաղաքականությունըCanvas-ի նման գործառույթներում հավելվածի ստեղծողը կարող է տեսնել և պահպանել ձեր կիսածը, և հանրային հղում ունեցող ցանկացած անձ կարող է դիտել կամ խմբագրել այդ տվյալները. կիսվեք միայն վստահելի հավելվածների հետ։

Այն տարածաշրջաններում, որտեղ կիրառելի է, որոշակի փորձառությունների անցնելը կարող է Ներմուծել զանգերի և հաղորդագրությունների պատմությունը Ձեր վեբ և հավելվածների գործունեությունից մինչև Gemini-ին հատուկ գործունեություն՝ առաջարկները (օրինակ՝ կոնտակտները) բարելավելու համար: Եթե չեք ցանկանում դա, շարունակելուց առաջ կարգավորեք կառավարման տարրերը:

«Ստվերային արհեստական ​​բանականության» զանգվածային օգտագործումը, կարգավորումը և միտումը

Ընդունումը ճնշող է. վերջին հաղորդագրությունները ցույց են տալիս, որ Կազմակերպությունների մեծ մասն արդեն իսկ կիրառում է արհեստական ​​բանականության մոդելներԱյնուամենայնիվ, շատ թիմեր բավարար հասունություն չունեն անվտանգության և կառավարման ոլորտում, հատկապես այն ոլորտներում, որտեղ կան խիստ կանոնակարգեր կամ զգայուն տվյալների մեծ ծավալներ։

Գործարար ոլորտի ուսումնասիրությունները բացահայտում են թերություններ. Իսպանիայում կազմակերպությունների շատ բարձր տոկոսը Այն պատրաստ չէ պաշտպանել արհեստական ​​բանականությամբ աշխատող միջավայրերըև մեծ մասը չունի ամպային մոդելների, տվյալների հոսքերի և ենթակառուցվածքների պաշտպանության համար անհրաժեշտ գործելակերպեր: Զուգահեռաբար, կարգավորող միջոցառումները խստացվում են, և ի հայտ են գալիս նոր սպառնալիքներ: չկատարման համար նախատեսված տույժեր GDPR-ի և տեղական կանոնակարգերի համաձայն։

Միևնույն ժամանակ, երևույթը ստվերային AI Այն աճում է. աշխատակիցները աշխատանքային առաջադրանքների համար օգտագործում են արտաքին օգնականներ կամ անձնական հաշիվներ՝ բացահայտելով ներքին տվյալներ առանց անվտանգության վերահսկողության կամ մատակարարների հետ պայմանագրերի: Արդյունավետ արձագանքը ամեն ինչ արգելելը չէ, այլ... միացնել անվտանգ օգտագործումը վերահսկվող միջավայրերում, հաստատված հարթակներով և տեղեկատվական հոսքի մոնիթորինգով։

Սպառողների տեսանկյունից խոշոր մատակարարները ճշգրտում են իրենց քաղաքականությունը։ Վերջին փոփոխությունները, օրինակ, բացատրում են, թե ինչպես է գործունեություն Gemini-ի հետ՝ «ծառայությունների բարելավման» համարառաջարկելով այնպիսի տարբերակներ, ինչպիսիք են ժամանակավոր զրույցը և գործունեության ու անհատականացման կառավարումը: Միևնույն ժամանակ, հաղորդագրությունների ընկերությունները շեշտում են, որ Անձնական զրույցները մնում են անհասանելի լռելյայնորեն՝ արհեստական ​​բանականություններին, չնայած նրանք խորհուրդ չեն տալիս արհեստական ​​բանականությանը ուղարկել այնպիսի տեղեկություններ, որոնք դուք չեք ուզում, որ ընկերությունը իմանա։

Կան նաև հանրային ուղղիչ հիմնարկներ՝ ծառայություններ ֆայլերի փոխանցում Նրանք պարզաբանեցին, որ չեն օգտագործում օգտատիրոջ բովանդակությունը մոդելներին մարզելու կամ երրորդ կողմերին վաճառելու համար՝ պայմանների փոփոխությունների վերաբերյալ մտահոգություններ հայտնելուց հետո: Այս սոցիալական և իրավական ճնշումը նրանց ստիպում է ավելի հստակ և օգտատիրոջը ավելի շատ վերահսկողություն տալ.

Նայելով ապագային՝ տեխնոլոգիական ընկերությունները ուսումնասիրում են ուղիներ, որոնք կ... նվազեցնել զգայուն տվյալներից կախվածությունըԻնքնակատարելագործվող մոդելներ, ավելի լավ պրոցեսորներ և սինթետիկ տվյալների ստեղծում։ Այս առաջընթացները խոստանում են մեղմել տվյալների պակասը և համաձայնության հետ կապված խնդիրները, չնայած մասնագետները զգուշացնում են ի հայտ եկող ռիսկերի մասին, եթե արհեստական ​​բանականությունը արագացնի իր սեփական հնարավորությունները և կիրառվի այնպիսի ոլորտներում, ինչպիսիք են կիբերներխուժումը կամ մանիպուլյացիան։

Արհեստական ​​բանականությունը և՛ պաշտպանություն է, և՛ սպառնալիք։ Անվտանգության հարթակներն արդեն իսկ ինտեգրում են մոդելներ հայտնաբերել և արձագանքել ավելի արագ, մինչդեռ հարձակվողները օգտագործում են LLM-ներ համոզիչ ֆիշինգ և խորը կեղծիքներԱյս պարանի քաշքշուկը պահանջում է կայուն ներդրումներ տեխնիկական վերահսկողության, մատակարարների գնահատման, շարունակական աուդիտի և սարքավորումների անընդհատ թարմացումներ.

Արհեստական ​​բանականության օգնականները հավաքում են ձեր մասին բազմաթիվ ազդանշաններ՝ սկսած ձեր մուտքագրած բովանդակությունից մինչև սարքի տվյալներ, օգտագործում և գտնվելու վայր: Այս տեղեկատվության մի մասը կարող է վերանայվել մարդկանց կողմից կամ կիսվել երրորդ կողմերի հետ՝ կախված ծառայությունից: Եթե ցանկանում եք օգտագործել արհեստական ​​բանականությունը՝ առանց ձեր գաղտնիությունը վտանգելու, համատեղեք նուրբ կարգավորումը (պատմություն, թույլտվություններ, ավտոմատ ջնջում), գործառնական զգուշությունը (չկիսվել զգայուն տվյալներով, ստուգել հղումներն ու ֆայլերը, սահմանափակել ֆայլերի ընդլայնումները), մուտքի պաշտպանությունը (ուժեղ գաղտնաբառեր և 2FA) և քաղաքականության փոփոխությունների և նոր գործառույթների ակտիվ մոնիթորինգը, որոնք կարող են ազդել ձեր գաղտնիության վրա: ինչպես են ձեր տվյալները օգտագործվում և պահվում.

Gemini Deep Research Google Drive
Առնչվող հոդված.
Gemini Deep Research-ը կապվում է Google Drive-ի, Gmail-ի և Chat-ի հետ