- Elon Musk va criticar obertament el seu IA Grok per considerar esbiaixada la seva resposta sobre violència política.
- El debat sobre biaix algorítmic i control de narratives torna a centrar latenció en el paper de la intel·ligència artificial.
- Musk va prometre recalibrar Grok, generant preocupació sobre la integritat de les dades i l'autonomia de la IA.
- La controvèrsia reflecteix la polarització sociopolítica i planteja qüestions sobre l‟ètica i la transparència en el desenvolupament d‟IA.
Elon Musk es troba al centre d'una nova tempesta mediàtica després de carregar contra Grok, la intel·ligència artificial desenvolupada per la seva empresa xAI, per emetre respostes que considera errònies i esbiaixades sobre la violència política als Estats Units. La reacció de l'empresari es va produir després que Grok afirmés, recolzat en diverses fonts acadèmiques i periodístiques, que els actes violents més letals des del 2016 han estat vinculats principalment amb l'extrema dreta, citant episodis com l'assalt al Capitoli i diversos tirotejos massius.
La resposta de la IA, integrada a la plataforma X (abans Twitter), va provocar un encès debat tant entre els usuaris com a l'esfera política. Musk, visiblement molest, va titllar aquesta resposta d'“objectivament falsa” i va acusar Grok de limitar-se a repetir el que ell anomena com a discurs dels “mitjans tradicionals”, anunciant que treballaria personalment per corregir-ho. Aquest gest ha obert un qüestionament intens sobre la independència de les IA i el grau d'intervenció per part dels seus propis creadors.
El desencadenant: una simple pregunta i molta controvèrsia
Tot es va originar arran d'una pregunta llançada a la xarxa social per un usuari que va requerir sobre quin dels dos espectres polítics havia protagonitzat més violència des del 2016. Grok, recorrent a estudis del Centre d'Estudis Estratègics i Internacionals (CSIS) i l'Oficina de Responsabilitat Governamental (GAO), va concloure que la dreta radical va ser responsable d'un nombre més gran d'incidents violents i morts, encara que també va reconèixer un augment d'incidents de l'esquerra des de les protestes del 2020.
Musk no va trigar a mostrar la seva desaprovació davant la resposta de Grok, assegurant que la informació oferta era un “gran error” i va insistir que la seva IA estava, segons les seves paraules, “repetint els mitjans tradicionals”. El magnat va expressar públicament la seva intenció de recalibrar el sistema perquè les seves respostes fossin, d'ara endavant, més precises i allunyades del que ell veu com a biaix mediàtic.
Aquesta intervenció va provocar reaccions trobades, tant de defensors de l'autonomia de la IA com dels que comparteixen la visió crítica de Musk sobre la fiabilitat dels grans mitjans i el seu influx sobre els models d'intel·ligència artificial.
El debat sobre els biaixos i la neutralitat de la intel·ligència artificial

L'incident revifa una antiga discussió sobre el biaix algorítmic i qui vigila el vigilant en el desenvolupament tecnològic. Les respostes de Grok estaven recolzades en estadístiques i estudis independents, però el desacord entre les dades i la visió de Musk posa sobre la taula la qüestió de si una IA s'ha d'ajustar per complaure els propietaris o dir allò que reflecteixen els fets i l'evidència empírica.
Al rerefons, n'hi ha una inquietud que intervenir en la programació d'una IA per adaptar-la a una perspectiva concreta pugui suposar una forma de censura, especialment en temes tan delicats com la violència política o la polarització social.
El propi Grok, després de ser consultat sobre la polèmica creada per Musk, va replicar amb dades de fonts acadèmiques, subratllant que no es limitava a repetir narratives mediàtiques, sinó que es basava en xifres verificades, cosa que va generar encara més debat sobre la independència i objectivitat d'aquests sistemes.
Reaccions en cadena i conseqüències en el context sociopolític
El cas no s'ha quedat a l'esfera digital, sinó que ha alimentat la conversa sobre la responsabilitat dels que desenvolupen i ajusten IA en plataformes influents. Diversos experts en intel·ligència artificial i acadèmics han advertit sobre el risc de manipulació narrativa si les respostes dels bots es modifiquen per coincidir amb els interessos dels seus creadors o el corrent ideològic dominant.
En un context on el clima polític als Estats Units es manté especialment crispat, fets recents com l?assassinat de la senadora estatal de Minnesota Melissa Hortman i el debat sobre l?escalada d?atacs polítics incrementen la pressió perquè les plataformes tecnològiques actuïn amb màxima transparència i responsabilitat.
Tot aquest episodi amb Grok i Musk posa en qüestió fins a quin punt una IA pot ser realment neutral i qui decideix quines dades o narratives han de prevaldre. La situació reflecteix com la tecnologia pot reflectir, amplificar i, de vegades, aprofundir les divisions socials. El control sobre la interpretació i la comunicació de dades es converteix en un tema central tant per a l'ètica tecnològica com per a la cohesió social actual.
Sóc un apassionat de la tecnologia que ha convertit els seus interessos frikis en professió. Porto més de 10 anys de la meva vida utilitzant tecnologia d'avantguarda i traslladant tota mena de programes per pura curiositat. Ara he especialitzat en tecnologia d'ordinador i videojocs. Això és perquè des de fa més de 5 anys que treballo redactant per a diverses webs en matèria de tecnologia i videojocs, creant articles que busquen donar-te la informació que necessites amb un llenguatge comprensible per tothom.
Si tens qualsevol pregunta, els meus coneixements van des de tot allò relacionat amb el sistema operatiu Windows així com Android per a mòbils. I és que el meu compromís és amb tu, sempre estic disposat a dedicar-te uns minuts i ajudar-te a resoldre qualsevol dubte que tinguis a aquest món d'internet.
