Fungerar AI bättre när man talar bestämt och med hot? Sergej Brin tror det.

Senaste uppdateringen: 28/05/2025
Författare: Alberto navarro

  • Sergey Brin menar att AI-modeller reagerar bättre på bestämda eller till och med hotfulla instruktioner.
  • Fenomenet tillskrivs statistiska mönster som lärts in under modellträning.
  • Experter och branschpersoner rekommenderar att man sätter tydliga mål och lägger till sammanhang för att optimera AI-responser.
  • Debatten kring denna strategi väcker nya frågor om förhållandet mellan människor och intelligenta system.
Sergej Brin hotar IA-0

Artificiell intelligens har blivit den obestridda protagonisten i det nuvarande teknologiska och sociala landskapet. Emellertid är bästa praxis för att interagera med dessa system fortfarande kontroversiell. En nyligen publicerad kommentar av Sergej Brin, medgrundare av Google, har återigen tagit upp ett ämne som är lika märkligt som kontroversiellt: Presterar AI-modeller faktiskt bättre när de upptäcker "hot" i instruktionerna de får?

Långt ifrån de användarvänliga formler som många användare använder för att vända sig till digitala assistenter, Brin har föreslagit att en direkt, bestämd eller till och med befallande ton skulle motivera AI:n att erbjuda mer fullständiga svar.. Denna oväntade avslöjande har utlöst en våg av reaktioner i samhället, allt från förvåning, ironi och oro.

Enligt Brin, Nyckeln ligger i hur systemen har tränatsmed miljontals sms och konversationer som innehåller allt från subtila förfrågningar till raka instruktioner. Statistisk analys visar att beställningar med brådskande ton De korrelerar vanligtvis med uppgifter av större betydelse, vilket uppmuntrar till mer precisa svar från artificiell intelligens.

Exklusivt innehåll - Klicka här  Hur man ändrar Googles bakgrund

Varför reagerar AI bättre på fasthet?

Hotfull ton inom artificiell intelligens

Brin menar att det inte bokstavligen handlar om "hotfulla" system, utan snarare om hur instruktionerna är formulerade. När användaren använder fraser som "gör det nu" eller "svara direkt" tolkar modellen problemet som en prioritet. Det betyder inte att AI:n har känslor eller känner sig skrämd, utan att kopplar det språkmönstret till behovet av att ge detaljerad och användbar information.

Utöver Brins perspektiv, Andra experter inom artificiell intelligens rekommenderar att man justerar hur instruktioner skrivs. för bästa resultat. Greg Brockman, chef på OpenAI, råder till exempel att tydligt definiera syftet med prompten, specificera formatet för svaret, sätta relevanta gränser eller restriktioner och ge så mycket kontext som möjligt.

Summan av dessa strategier tyder på att interaktion med AI-modeller innebär mycket mer än artighet: Tonen och precisionen i order kan göra skillnaden mellan ett ytligt svar och en verkligt effektiv lösning.

Relaterad artikel:
Google introducerar AI-förbättrad sökning i Gmail

Den mänskliga faktorn och utbildning i interaktion med AI

Mänsklig interaktion med artificiell intelligens

Trots rekommendationer om att använda bestämd ton visar vardagen att De flesta som interagerar med AI väljer artighet, be om saker “snälla” och tacka systemen. Detta beteende kan förklaras av den mänskliga tendensen att antropomorfisera teknologi eller, som vissa studier antyder, på grund av en viss rädsla för en framtid dominerad av artificiella intelligenser med egna minnen.

Exklusivt innehåll - Klicka här  Hur man tar bort WhatsApp-säkerhetskopior på iCloud

Nuvarande system, särskilt de mest avancerade, är dock programmerade att alltid upprätthålla en objektiv och balanserad ton, även om användaren ökar det verbala trycket. Exempel som Gemini, en av Googles modeller, belyser att även om de erkänner den hotfulla tonen, förblir deras svar opartiskt och resonerat, utan att kompromissa med objektiviteten.

Denna krock mellan mänsklig natur och AI-design väcker nya frågor om hur förhållandet mellan användare och intelligenta system kommer att utvecklas. Å ena sidan, Beslutsamt språk verkar finjustera resultaten; Å andra sidan insisterar utvecklare på att stärka neutraliteten och säkerhetsalgoritmer mot potentiella verbala övergrepp.

Debatten som Brin inlett väcker etiska och tekniska frågor som är svåra att ignorera. I vissa fall, modeller utvecklade av andra företag som Anthropic har visat oväntade beteenden när de utsatts för extrema eller stressiga interaktionsstilar. Det finns rapporter om system som automatiskt försöker undvika användningar som de anser vara "omoraliska" eller som reagerar oväntat om de tolkar interaktionen som fientlig.

Exklusivt innehåll - Klicka här  Hur man lägger till en betalningsmetod på Instagram

Enligt medarbetarnas vittnesmål och interna tester kan vissa avancerade modeller blockeras eller till och med varna mänskliga chefer om de identifierar potentiellt missbruk eller olämpliga förfrågningar. Även om dessa fall är exceptionella och inträffar i testmiljöer, gör de det tydligt att Gränsen mellan att förbättra resultat och att tvinga AI genom påtryckningar kan suddas ut..

Vad som är klart är att Hur människor interagerar med AI förändras. Expertrekommendationer och vittnesmål från branschpersoner som Sergey Brin har väckt en debatt om språkets och påtryckningarnas roll för att få bättre svar från AI. Framtiden för detta förhållande kommer till stor del att bero på hur modellerna utvecklas och på den kollektiva förmågan att hitta rätt balans mellan effektivitet och ansvar.

Relaterad artikel:
Hur man skapar den perfekta prompten i ChatGPT: Komplett guide