Miért ne hozz létre jelszavakat a ChatGPT-vel és más mesterséges intelligenciákkal?

Utolsó frissítés: 13/05/2025

  • A ChatGPT és más mesterséges intelligencia által generált jelszavak kiszámítható mintákat mutatnak.
  • A ChatGPT képes azonos jelszavakat javasolni több felhasználónak, és tárolja a megadott adatokat.
  • A szakértők professzionális jelszógenerátorok és jelszókezelők használatát javasolják.
  • A digitális biztonság szempontjából kulcsfontosságú, hogy ne vigyünk be bizalmas adatokat mesterséges intelligencia platformokra.
Miért nem használod a chatgpt-t jelszavak létrehozására?

Az elmúlt években, mesterséges intelligencia alkalmazása a háztartásban és a szakmai szférában mindennapi eszközzé vált. Sokan már használnak olyan asszisztenseket, mint a ChatGPT, szövegek írásához, információk elemzéséhez, ötletek generálásához, sőt, digitális biztonsággal kapcsolatos feladatokhoz, például jelszavak generálásához is. Viszont, Valóban biztonságos, ha egy mesterséges intelligenciára bízzuk a személyes vagy munkahelyi fiókjaink védelmét?

Bár kényelmesnek, sőt futurisztikusnak tűnhet megkérni a ChatGPT-t vagy hasonló modelleket, hogy találjanak ki egy „biztonságos” jelszót, a valóság egészen más: Vannak rejtett kockázatok és technikai korlátok, amelyek miatt ez a gyakorlat nemcsak nem ajánlott, de kibertámadásoknak vagy váratlan szivárgásoknak teheti ki Önt.

Az alábbiakban részletesen ismertetjük a Okok, amiért nem szabad a ChatGPT-t (vagy más hasonló mesterséges intelligenciát) használni jelszavak létrehozásához és milyen alternatívák állnak rendelkezésére fiókjai biztonságának megőrzése érdekében.

Legfontosabb okok, amiért kerülni kell a ChatGPT használatát jelszó létrehozásához

AI jelszóbiztonság

A ChatGPT és más generatív mesterséges intelligencia népszerűsítése oda vezetett, hogy egyre több felhasználó fordul hozzájuk olyan változatos feladatokhoz, mint a szöveggenerálás és a problémamegoldás. A jelszavak létrehozásával kapcsolatban azonban a kiberbiztonsági szakértők között egyértelmű a konszenzus: ez nem egy megbízható megoldás.

  • MintaelőrejelzésA mesterséges intelligencia rendszerei, bármennyire kifinomultak is, nem generálnak valóban véletlenszerű kombinációkat. Gyakran ismételnek bizonyos mintákat vagy sorozatokat, amelyeket a kiberbűnözők kihasználhatnak.
  • Nem egyedi jelszavakA ChatGPT ugyanazt a jelszót javasolhatja különböző felhasználóknak, ha hasonló utasításokat kap, ami növeli annak kockázatát, hogy több fiók is ugyanazt a sebezhető jelszót használja.
  • Felhőalapú adattárolásMinden, amit a ChatGPT-be beír, naplózásra kerül a vállalat szerverein, így ezek a jelszavak vonzó célpontot jelenthetnek a potenciális biztonsági incidensek vagy szivárgások számára. Ismerje meg, hogyan kezelheti jelszavait a Google-ban hogy elkerüljük a hasonló kockázatokat.
  • A nem biztonságos javaslatok kockázataSzámos tesztben a ChatGPT jelszavakat generált szimbólumokká álcázott gyakori szavakkal, kiszámítható kifejezésekkel vagy könnyen kitalálható számmintákkal.
Exkluzív tartalom – Kattintson ide  Hogyan kell formázni az Acer Extensámat?

Ezek az okok nem csupán elméletiek. A Kaspersky nemrégiben közzétett jelentése és különféle szakértők elemzése több ezer mesterséges intelligencia által generált jelszó, köztük a ChatGPT, a Meta Llama és a DeepSeek jelszó robusztusságát tesztelte, és riasztó eredményeket hozott mind a jelszó kiszámíthatósága, mind a kibertámadásokkal szembeni ellenállás tekintetében.

Miért nem generálnak a mesterséges intelligencia modellek valóban erős jelszavakat?

biztonság és technológia

A professzionális jelszógenerátorok és a társalgási mesterséges intelligencia közötti alapvető különbség a véletlenszerűség és az egyediség fogalmában rejlik. Speciális generátorok Kriptográfiailag biztonságos algoritmusokat használnakMíg nyelvi modellek mint a ChatGPT Nagy mennyiségű szövegből tanult statisztikai minták alapján működnek.. Ez okozza:

  • Minta utánzásA mesterséges intelligencia olyan kulcsokat hoz létre, amelyek bár véletlenszerűnek tűnnek, olyan szabályszerűségeket és struktúrákat követnek, amelyek felismerhetők azok számára, akik ismerik ezeknek a modelleknek a működését.
  • Teljes véletlenszerűség generálásának képtelenségeAz olyan nagy nyelvi modellek (LLM-ek), mint a ChatGPT, nem a kriptográfiára jellemző véletlenszerűsítő függvényeket használják, hanem a tanulásuk alapján legvalószínűbb eredmény alapján jósolják meg a következő betűt vagy karaktert.
  • Gyakori szavak és sorozatok használataGyakori, hogy egyes generált jelszavak számokkal vagy szimbólumokkal álcázott szótári szavakat tartalmaznak (pl. „B@n@n@7”, „S1mP1eL1on”), vagy olyan kombinációkat, mint az „123” vagy a „jelszó” szó, ami erősen nem ajánlott.

Ez azt jelenti, hogy egy hackerek általi nagyszabású, nyers erővel történő támadás esetén a kísérletek a leggyakoribb mintákra összpontosíthatnak a teljesen véletlenszerűek helyett, ami jelentősen felgyorsítja a hitelesítő adatok feltörésének esélyét.

Friss tanulmány eredményei: Mennyire sebezhetőek ezek a mesterséges intelligencia által generált kulcsok?

A mesterséges intelligencia által létrehozott jelszavak bizonytalanságával kapcsolatos aggodalmak nem csupán elméleti értékelések. A Kaspersky kutatócsoportja elvégzett egy... tanulmányozás a ChatGPT, a Llama és a DeepSeek által generált több ezer kulccsal, ellenőrzi a robusztusságát és az automatikus támadásokkal szembeni túlélési képességét.

  • A DeepSeek esetébenegy a jelszavak 88%-a a generáltakat nyers erő tesztekkel fejtették meg.
  • Láma közel volt, egy A kulcsok 87%-a kevesebb mint egy óra alatt esett le.
  • A ChatGPT jobb eredményeket kínált, de még mindig, A létrehozott jelszavak 33%-át nem tartották biztonságosnak szakmai mércék szerint.
Exkluzív tartalom – Kattintson ide  Az alkalmazások frissítése

A sikerességi arányon túl a kutatók azt is megállapították, hogy A mesterséges intelligencia által javasolt jelszavakban számos karakter, szám és szimbólum ismétlődött., ami csökkenti a hatékonyságát az automatizált támadásokkal szemben. Például bizonyos szimbólumok és betűk szisztematikusan jelentek meg, és a modellek néha nem tartalmazták az ajánlott minimális 12 karakteres hosszt vagy az összes szükséges karaktertípust.

A veszély, ha érzékeny információkat bízunk a ChatGPT-re

sora Európában elérhető-5

Minden, amit a ChatGPT-be beírsz, a cég szerverein tárolódik, ami veszélyeztetheti az adataidat bizalmasan kezelendő adatok védelmét. Ez a tároló sebezhető lehet a biztonsági résekkel szemben. vagy az OpenAI általi információkkal való visszaélés.

  • Jelszavak kiszivároghatnak adatvédelmi incidens esetén.
  • Az OpenAI elemezheti, megoszthatja vagy harmadik feleknek továbbíthatja az Ön adatait. bizonyos körülmények között növelve a potenciális kockázatokat.
  • Nincs garantált titoktartás– Hacsak nem konfigurálja az összes adatvédelmi beállítást és nem tiltja le a csevegési előzményeket, adatait tárolhatjuk és felhasználhatjuk.

Ezért a szakértők azt javasolják soha ne adjon meg kritikus adatokat a mesterséges intelligencia platformokon, különösen a jelszavak és más érzékeny adatok tekintetében, a potenciális sebezhetőségek elkerülése érdekében.

Miért fordulhat elő, hogy a jelszavak több felhasználó között is duplikálódtak?

Ha általános parancsokkal kérsz jelszavakat a ChatGPT-től, akkor más felhasználók is ugyanazokat a javaslatokat kaphatják. Ez azért történik, mert:

  • Hasonló kérdések egyenlő válaszokat eredményeznekHa sokan kérdezik, hogy „adj nekem 10 erős jelszót”, a válaszok hasonlóak vagy ugyanazok lesznek.
  • A véletlenszerűség korlátaiNincs garancia a kizárólagosságra, függetlenül attól, hogy mennyire bonyolultnak tűnik a kulcs.

Ennek következtében többen is használhatják ugyanazt a jelszót, ami megkönnyíti a kiberbűnözők számára, hogy ezt a kombinációt különböző szolgáltatásokban kipróbálják, és sikeresen hozzáférjenek több fiókhoz is. A jelszavaknak egyedieknek és nem átruházhatóaknak kell lenniük., amit a jelenlegi mesterséges intelligencia nem tud garantálni.

Valós példák mesterséges intelligencia által létrehozott nem biztonságos jelszavakra

ChatGPT webhely

Tanulmányok mutatják Példák a ChatGPT, a Llama és a DeepSeek által generált jelszavakra, olyan mintákkal, mint:

  • B@n@n@7
  • S1mP1eL1on
  • P@ssw0rd
  • P@ssw0rd!23
  • qLUx@^9Wp#YZ
  • LU#@^9WpYqxZ
  • YLp^9W#qX@zv

Sokan szimbólumokkal álcázott szótári szavakat tartalmaznak, így azok sebezhető a szótári támadásokkal szemben. Mások, bár véletlenszerűnek tűnnek, ismétlődő szimbólumokat és mintákat tartalmaznak, így az automatizálás megkönnyíti a megfejtésüket és csökkenti a biztonságukat.

Exkluzív tartalom – Kattintson ide  Mi a Genshin Impact level up rendszere?

Jelszógenerátor és ChatGPT közötti különbségek

Az általános MI-modellekhez képest az erős jelszavak létrehozásának konkrét megoldásai a következők:

  • jelszógenerátorokKriptográfiailag biztonságos algoritmusokat használnak, amelyek kiszámíthatatlan, konfigurálható hosszúságú és különböző típusú karakterekből álló karakterláncokat hoznak létre, kiküszöbölve az ismétlődő mintákat.
  • JelszókezelőkA hitelesítő adatok titkosított dobozokban történő tárolása mellett sokuk olyan generátorokat is tartalmaz, amelyek nagyon erős, véletlenszerű kulcsokat állítanak elő.

Mindig ajánlott ezeket a megoldásokat használni, mert:

  • Lehetővé teszik hosszú, egyedi és véletlenszerű jelszavak létrehozását anélkül, hogy a memóriára vagy a nem biztonságos kombinációkra támaszkodna.
  • Megkönnyítik az automatikus kiegészítést, a szinkronizálást és a szivárgásriasztásokat.
  • A végponttól végpontig terjedő titkosítás megakadályozza, hogy harmadik felek hozzáférjenek a kulcsaidhoz.
Kapcsolódó cikk:
Hogyan védhetem meg banki jelszavaimat a Google Pay használata során?

Milyen adatvédelmi kockázatokat jelent a ChatGPT használata jelszavak létrehozására?

Biztonság

Fontos szempont, amit figyelembe kell venni, hogy Minden, amit a ChatGPT-be beírsz, a szervereiken tárolódik.. Ez kockázatot jelenthet, ha adatai, beleértve a jelszavakat is, kiszivárognak, vagy az Ön beleegyezése nélkül használják fel őket.

  • A szerverek elleni támadások kockázataEgy biztonsági incidens kiszivárogtathatja jelszavait és bizalmas adatait.
  • Adatmegosztás lehetősége harmadik felekkelAz OpenAI bizonyos esetekben megoszthat információkat, növelve a kitettséget.
  • A garantált titoktartás hiányaNem ajánlott érzékeny adatokat megadni a platformon.

Emiatt minden szakértő azt tanácsolja, hogy Kerülje a fontos vagy bizalmas adatok bevitelét a ChatGPT-be vagy hasonló platformokon.

Gyakorlati tippek és biztonságos alternatívák fiókjai védelmére

1Password

Erős és egyedi jelszavak létrehozásához és fenntartásához kövesse az alábbi ajánlásokat:

  • Használjon professzionális jelszógenerátorokat, olyan kezelőprogramokba integrálva, mint a Keeper, a Dashlane, az 1Password, a Bitwarden vagy a Kaspersky Password Manager.
  • Válassz hosszú jelszavakat (legalább 16 karakter), nagybetűk, kisbetűk, számok és szimbólumok kombinálásával, szótári szavak nélkül.
  • Ne használja újra a jelszavakat különböző szolgáltatásokban.
  • Tárolja jelszavait megbízható kezelőkben és kerüld a titkosítatlan jegyzeteket, e-maileket vagy csevegéseket.
  • Aktiválja a kétlépcsős azonosítást amikor csak tudsz.
  • Ne oszd meg és ne add meg jelszavaidat mesterséges intelligencia platformokon vagy ismeretlen oldalakon..

Jelszavak használata esetén kombináljon több véletlenszerű szót és különböző karaktert a biztonság növelése és a feltörés nehezítése érdekében.

A ChatGPT vagy egy másik mesterséges intelligencia általi jelszógenerálás kényelme nem kompenzálja a kockázatokat a kiszámíthatósággal, az ismétlődéssel és a külső szervereken történő tárolással kapcsolatos. Ma már léteznek megbízható, könnyen használható, titkosított alternatívák, amelyek valódi védelmet nyújtanak digitális fiókjaid számára.