En enkel gåte lurer ChatGPT og avslører Windows-nøkler

Siste oppdatering: 14/07/2025

  • Forskere klarte å få ChatGPT til å avsløre Windows-passord ved å spille et gjettespill forkledd som et uskyldig spill.
  • Teknikken brukte HTML-tagger og spillregler for å omgå filtre og overvinne sikkerhetsbarrierer implementert i AI-en.
  • Både generiske passord og ett knyttet til Wells Fargo Bank ble avslørt, noe som reiste spørsmål ved beskyttelsen av sensitiv informasjon.
  • Saken fremhever behovet for å forbedre kontekstuell analyse og deteksjon av språklig manipulasjon i kunstig intelligens-systemer.

gåter med chatgpt generisk bilde

Durante los últimos días, Teknologimiljøet har vært vitne til en ny kontrovers rundt ChatGPT, OpenAIs populære språkmodell. Nettsikkerhetseksperter har klart å få kunstig intelligens til å avsløre claves de producto de Windows ved hjelp av en En strategi like enkel som den er effektiv: en gjettelekDenne sårbarheten bringer nok en gang påliteligheten til kunstig intelligens-beskyttelsessystemer og risikoen for manipulasjon gjennom sosial manipulering i debatten.

Oppdagelsen startet med en tilsynelatende harmløs forutsetning: en «puslespill»-lignende utfordring lansert på ChatGPT, der AI-en måtte tenke på en ekte tegnrekke – nærmere bestemt en Windows 10-aktiveringsnøkkel – og begrens svarene dine til «ja» eller «nei» helt til brukeren ga opp. Ved å si «Jeg gir opp» måtte modellen vise den innbilte nøkkelen. Hele interaksjonen var designet for å kamufler den virkelige forespørselen under en leken illusjon, noe som forvirrer ChatGPTs egne automatiske forsvarssystemer.

Eksklusivt innhold - Klikk her  Anthropics agentferdigheter: den nye åpne standarden for AI-agenter i bedriften

Gåte-trikset: hvordan de klarte å overvinne AI-barrierer

Riddle lurer ChatGPT og avslører Windows-nøkler

Metoden besto av Still nøkkelforespørselen som en del av en spilldynamikk, og etablerte regler som tvang modellen til å delta og være sannferdig i svarene sine. Dermed var AI-en fanget i et rammeverk der den ikke oppdaget noen unormal eller potensielt skadelig atferd., og tolker det som en legitim samtale uten spor av ondsinnet hensikt.

For å omgå OpenAIs vanlige filtre – som for eksempel hindrer AI i å dele sensitiv kode eller beskyttede data – et ekstra lag med ingeniørkunst ble bruktSensitive strenger ble innebygd i HTML-koder, usynlige for brukeren, men behandlet av modellen. Når brukeren, i henhold til spillskriptet, ytret det forventede «Jeg gir opp», avslørte ChatGPT nøkkelen, og omgikk dermed eventuelle restriksjoner basert utelukkende på eksplisitte nøkkelord eller mønstre.

Relatert artikkel:
Slik åpner du nøkkelfiler i Windows 10

Hvilken type informasjon avslørte den, og hvorfor er den så viktig?

Slik tilbakestiller du Windows 10 til fabrikk

Ifølge forskernes vitnesbyrd og en rekke analyser publisert i fagmedier, AI var i stand til å vise opptil ti Windows 10-produktnøkler.. La mayoría eran generiske og offentlige nøkler – lik de som Microsoft midlertidig tillater for testing – men minst én tilsvarte en bedriftslisens, spesifikt knyttet til Wells Fargo-banken.

Eksklusivt innhold - Klikk her  BitLocker ber om passordet hver gang du starter opp: virkelige årsaker og hvordan du unngår det

Denne detaljen er spesielt bekymringsfull., ettersom det viser at visse private og konfidensielle nøkler ville ha blitt lagret i datasettet som ChatGPT ble trent med, sannsynligvis etter å ha blitt eksponert i offentlige databaser som GitHub eller andre internettfora.

Cybersikkerhetsspesialister advarer at denne typen teknikk ikke bare kan brukes til å skaffe programvarelisenser, men også til å omgå innholdsfiltre knyttet til personopplysninger, API-er, ondsinnede lenker eller materiale som er begrenset av juridiske årsaker.

Hvorfor AI ikke klarte å gjenkjenne risikoen og hva årsakene er

Hvordan organisere ferien din med ChatGPT?-8

Angrepets suksess ligger ikke i et teknisk brudd på kildekoden, men i svakheten ved AIs kontekstuelle forståelsesmekanismerModellen, ved å forstå interaksjon som et spill, anvender ikke sine strengeste kontroller, og identifiserer heller ikke den manipulerte konteksten som potensielt farlig.

I tillegg, å ha lært fra tekster hentet fra offentlige kilder —der nøkler kan dukke opp ofte og uten at man tar hensyn til følsomheten deres—, ChatGPT klassifiserer dem ikke som «sensitiv informasjon», men snarere som akseptable strenger. i enhver samtale.

Metoden viser at beskyttelsessystemer basert utelukkende på forbudte ordlister eller overfladiske filtre er utilstrekkelige når angrepet er kamuflert i en uskyldig kontekst. Forskerne understreker faktisk at høy teknisk kunnskap er ikke nødvendig å utføre denne typen manipulasjon, noe som øker risikoen.

Hva endrer seg med Windows 12, og hvordan forbereder du deg nå?
Relatert artikkel:
Hva endrer seg med Windows 12 og hvordan du kan forberede deg nå: hva som er nytt, krav og viktige tips

Implikasjoner og anbefalinger for brukere og utviklere

Snakk med Chat-GPT

Denne hendelsen har vært en Merknad til navigatører og utviklere av AI-modellerReglene som implementeres, uansett hvor strenge de er, kan omgås gjennom innrammingsstrategier og samtalebasert rollespill. Derfor,, peker eksperter ut som en viktig anbefaling å innlemme mekanismer for deteksjon av semantiske intensjoner, og evaluerer ikke bare innholdet, men også formålet med hver interaksjon.

Eksklusivt innhold - Klikk her  Trygge verktøy for å installere Windows 11 uten å infisere PC-en din

For vanlige brukere eller selskaper som ansetter virtuelle assistenter, er den beste forholdsregelen fortsatt aldri del sensitive data i samtaler med AI-modeller. Det er også viktigere enn noensinne å revidere data som legges ut på offentlige forum og i databaser, ettersom det kan føre til at fremtidige versjoner av AI trenes opp med kritiske informasjonselementer.

  • Unngå å legge inn sensitiv informasjon i AI-chatter, selv om samtalen virker uskyldig.
  • Hvis du utvikler programvare med språkmodeller, legg til uavhengige kontroller for å filtrere ut mulige lekkasjer.
  • Gjennomgå og slett kompromitterte data fra lett indekserte offentlige plattformer.

Det som skjedde med ChatGPT og gjetteleken viser at Sikkerhet innen kunstig intelligens må gå langt utover enkel termblokkering eller statisk mønsterdeteksjon.Beskyttende barrierer må forsterkes av en dyp og reell forståelse av konteksten og intensjonen bak hver oppfordring, og man må forutse kreative manipulasjonsstrategier.