Musk provoca polèmica al criticar públicament Grok, la seva IA, per biaixos en respostes sobre violència política

Última actualització: 23/06/2025

  • Elon Musk va criticar obertament el seu IA Grok per considerar esbiaixada la seva resposta sobre violència política.
  • El debat sobre biaix algorítmic i control de narratives torna a centrar latenció en el paper de la intel·ligència artificial.
  • Musk va prometre recalibrar Grok, generant preocupació sobre la integritat de les dades i l'autonomia de la IA.
  • La controvèrsia reflecteix la polarització sociopolítica i planteja qüestions sobre l‟ètica i la transparència en el desenvolupament d‟IA.
musk critica grok-7

Elon Musk es troba al centre d'una nova tempesta mediàtica després de carregar contra Grok, la intel·ligència artificial desenvolupada per la seva empresa xAI, per emetre respostes que considera errònies i esbiaixades sobre la violència política als Estats Units. La reacció de l'empresari es va produir després que Grok afirmés, recolzat en diverses fonts acadèmiques i periodístiques, que els actes violents més letals des del 2016 han estat vinculats principalment amb l'extrema dreta, citant episodis com l'assalt al Capitoli i diversos tirotejos massius.

La resposta de la IA, integrada a la plataforma X (abans Twitter), va provocar un encès debat tant entre els usuaris com a l'esfera política. Musk, visiblement molest, va titllar aquesta resposta d'“objectivament falsa” i va acusar Grok de limitar-se a repetir el que ell anomena com a discurs dels “mitjans tradicionals”, anunciant que treballaria personalment per corregir-ho. Aquest gest ha obert un qüestionament intens sobre la independència de les IA i el grau d'intervenció per part dels seus propis creadors.

Contingut exclusiu - Clic Aquí  Així és MAI-Image-1, el model d'IA amb què Microsoft competeix amb Midjourney

El desencadenant: una simple pregunta i molta controvèrsia

Biaixos IA i debat social Grok

Tot es va originar arran d'una pregunta llançada a la xarxa social per un usuari que va requerir sobre quin dels dos espectres polítics havia protagonitzat més violència des del 2016. Grok, recorrent a estudis del Centre d'Estudis Estratègics i Internacionals (CSIS) i l'Oficina de Responsabilitat Governamental (GAO), va concloure que la dreta radical va ser responsable d'un nombre més gran d'incidents violents i morts, encara que també va reconèixer un augment d'incidents de l'esquerra des de les protestes del 2020.

Musk no va trigar a mostrar la seva desaprovació davant la resposta de Grok, assegurant que la informació oferta era un “gran error” i va insistir que la seva IA estava, segons les seves paraules, “repetint els mitjans tradicionals”. El magnat va expressar públicament la seva intenció de recalibrar el sistema perquè les seves respostes fossin, d'ara endavant, més precises i allunyades del que ell veu com a biaix mediàtic.

Aquesta intervenció va provocar reaccions trobades, tant de defensors de l'autonomia de la IA com dels que comparteixen la visió crítica de Musk sobre la fiabilitat dels grans mitjans i el seu influx sobre els models d'intel·ligència artificial.

Contingut exclusiu - Clic Aquí  Com Reemplaçar a L'Estat De Mèxic 2022

El debat sobre els biaixos i la neutralitat de la intel·ligència artificial

Debat violència política IA Grok

L'incident revifa una antiga discussió sobre el biaix algorítmic i qui vigila el vigilant en el desenvolupament tecnològic. Les respostes de Grok estaven recolzades en estadístiques i estudis independents, però el desacord entre les dades i la visió de Musk posa sobre la taula la qüestió de si una IA s'ha d'ajustar per complaure els propietaris o dir allò que reflecteixen els fets i l'evidència empírica.

Al rerefons, n'hi ha una inquietud que intervenir en la programació d'una IA per adaptar-la a una perspectiva concreta pugui suposar una forma de censura, especialment en temes tan delicats com la violència política o la polarització social.

El propi Grok, després de ser consultat sobre la polèmica creada per Musk, va replicar amb dades de fonts acadèmiques, subratllant que no es limitava a repetir narratives mediàtiques, sinó que es basava en xifres verificades, cosa que va generar encara més debat sobre la independència i objectivitat d'aquests sistemes.

Contingut exclusiu - Clic Aquí  Chrome Gemini: així canvia el navegador de Google

Reaccions en cadena i conseqüències en el context sociopolític

El cas no s'ha quedat a l'esfera digital, sinó que ha alimentat la conversa sobre la responsabilitat dels que desenvolupen i ajusten IA en plataformes influents. Diversos experts en intel·ligència artificial i acadèmics han advertit sobre el risc de manipulació narrativa si les respostes dels bots es modifiquen per coincidir amb els interessos dels seus creadors o el corrent ideològic dominant.

En un context on el clima polític als Estats Units es manté especialment crispat, fets recents com l?assassinat de la senadora estatal de Minnesota Melissa Hortman i el debat sobre l?escalada d?atacs polítics incrementen la pressió perquè les plataformes tecnològiques actuïn amb màxima transparència i responsabilitat.

Tot aquest episodi amb Grok i Musk posa en qüestió fins a quin punt una IA pot ser realment neutral i qui decideix quines dades o narratives han de prevaldre. La situació reflecteix com la tecnologia pot reflectir, amplificar i, de vegades, aprofundir les divisions socials. El control sobre la interpretació i la comunicació de dades es converteix en un tema central tant per a l'ètica tecnològica com per a la cohesió social actual.

Article relacionat:
Com analitzar informació digital?