Claude e il cane robot: cosa ha dimostrato l'esperimento Anthropic

Ultimo aggiornamento: 21/11/2025

  • Claude ha contribuito alla programmazione e al funzionamento di un Unitree Go2, automatizzando gran parte del lavoro presso il Progetto Fetch.
  • Il team guidato dall'intelligenza artificiale ha risolto alcuni compiti più velocemente, come camminare e localizzare una palla, rispetto al gruppo senza aiuto.
  • L'analisi dell'interazione ha rivelato una minore confusione con Claude, grazie a una connessione più semplice e a un'interfaccia più utilizzabile.
  • I progressi evidenziano sia opportunità che rischi: i protocolli e le misure di sicurezza fisica devono essere rafforzati quando si introduce l'LLM nel mondo reale.

Cane robot controllato dall'intelligenza artificiale

Il nuovo test di Antropico Si concentra su un problema che non è più fantascienza: Cosa succede quando un modello linguistico coordina un robot?. In Progetto FetchIl loro sistema Claude ha aiutato a far funzionare un cane robot, con l'obiettivo di testare fino a che punto il robot potesse arrivare. IA fisica passaggio dal testo al movimento.

Oltre al titolo, l'esperimento fornisce chiari indizi sulle capacità e sui limiti: Claude ha automatizzato gran parte della programmazione necessaria affinché il quadrupede potesse compiere azioni fisiche, e Ha funzionato da catalizzatore per un team di persone per avanzare più rapidamente in determinati compiti.

Intelligenza artificiale e mondo fisico: dal laboratorio all'azione

Robot quadrupede in fase di test

Anthropic, fondata da ex ricercatori di OpenAI, ha studiato a lungo i rischi e le applicazioni pratiche dei modelli avanzati. Questa volta, l'ipotesi era semplice: se un LLM padroneggia sempre di più la codifica e l'interazione con software, può iniziare a influenzare oggetti realiIl team di sicurezza interna (red team) voleva osservare questa transizione in un ambiente controllato.

Contenuti esclusivi: clicca qui  Armaldo

I ricercatori sottolineano che i modelli attuali non governano ancora completamente un robot complesso, ma Si prevede che le versioni future avranno più margine di manovra.Pertanto, è utile analizzare come gli esseri umani si affidano all'intelligenza artificiale per programmare e orchestrare i comportamenti fisici, soprattutto in robot umanoidiprima che arrivi quel momento.

Come è stato progettato Project Fetch

Progetto Unitree Go2 Fetch

Il test ha messo a confronto due team senza alcuna esperienza pregressa in robotica: uno assistito da Claude e l'altro che programmava senza l'ausilio dell'intelligenza artificiale. Entrambi i team dovevano prendere il controllo di un cane robot Unitree Go2 utilizzando un telecomando e scrivere codice, lavorando con controller e piattaforme come Arduino Uno Q, per svolgere compiti di difficoltà crescente, dal camminare verso un punto all'individuazione di un oggetto.

Il gruppo con Claude è riuscito a raggiungere alcuni obiettivi più velocemente, tra cui il quadrupede Camminerei e troverei una palla da spiaggiaUn risultato che il team composto esclusivamente da esseri umani non è riuscito a ottenere nelle condizioni di test. La chiave non è stata la magia: il modello ha generato e perfezionato il codice, velocizzando la connessione con il robot e riducendo l'attrito.

Anthropic ha registrato e analizzato le dinamiche di lavoro. Nelle trascrizioni, il team senza IA ha espresso maggiore frustrazione e dubbi, mentre l'assistente di Claude Sembrava facilitare un'interfaccia di controllo più comprensibile. e un avvio più fluido. Tuttavia, non tutti gli obiettivi sono stati raggiunti e l'autonomia è risultata limitata.

Contenuti esclusivi: clicca qui  Immagini HD

Il cane robot scelto: Unitree Go2 e il suo scopo

Unitree Go2

Per la valutazione è stato scelto il modello Go2, prodotto da Unitree a Hangzhou, in Cina. Costa circa $16.900, una cifra relativamente contenuta rispetto ad altre apparecchiature del settore, e viene utilizzata in attività di ispezione a distanza, pattugliamenti di sicurezza o visite guidate in edilizia e produzione.

Questo quadrupede può muoversi in modo indipendente, ma in pratica dipende da ordini di alto livello o il controllo di una personaSecondo recenti analisi di mercato, i sistemi Unitree sono tra i più diffusi, il che li rende un interessante banco di prova per verificare fino a che punto la programmazione assistita dall'intelligenza artificiale possa spingersi oltre i limiti.

Cosa rivelano i risultati sugli LLM?

I grandi modelli linguistici non si limitano più a scrivere testi: negli ultimi anni si sono specializzati nella generare codice e gestire softwareNel progetto Fetch, questa capacità si è tradotta in una riduzione del tempo dedicato a compiti di programmazione ripetitivi e in una guida passo passo per correggere gli errori e adattare i comportamenti dei robot.

L'interpretazione prudente è che, sebbene non si parli di controllo totale, L'intelligenza artificiale riduce la barriera all'ingresso per i team non esperti Consentono a una piattaforma fisica di eseguire azioni utili. È un cambiamento qualitativo: da semplici generatori di testo, gli LLM stanno iniziando a fungere da orchestratori di sistemi.

Contenuti esclusivi: clicca qui  Amazon punta sull'intelligenza artificiale personale con l'acquisizione di Bee

Rischi e tutele: come evitare gli spaventi

Dare all'intelligenza artificiale la capacità di agire sulle macchine comporta dei rischi evidenti: errori di codice, dati errati o uso improprio deliberato Questi guasti possono avere conseguenze fisiche. La robotica industriale ha imparato da tempo a mitigare questi guasti con protezioni indipendenti. software.

In questo contesto, gli esperti suggeriscono di combinare diversi livelli: limiti operativi, audit del codice generato e, soprattutto, interruttori di emergenza meccanici e protocolli che non dipendono dal modello. Lo studio Anthropic si inquadra proprio in quella logica preventiva.

Applicazioni emergenti e precauzioni necessarie

Con le opportune misure di sicurezza, lo stesso approccio potrebbe essere applicato alla logistica, alla manutenzione, all'ispezione o assistenza in ambienti dove la presenza umana è complessaL'idea non è quella di sostituire i tecnici, ma di fornire strumenti che accelerino le configurazioni e consentano risposte più adattive.

Affinché questi benefici si concretizzino, sarà necessario concordare pratiche sicure, una documentazione chiara e criteri di distribuzione responsabileIn caso contrario, i progressi tecnici potrebbero entrare in conflitto con la fiducia del pubblico o con rischi operativi perfettamente evitabili.

L'esperienza del Progetto Fetch suggerisce una svolta: Claude ha dimostrato che un LLM può ridurre la distanza tra codice e azioneSemplificare le attività del mondo reale in un robot quadrupede, ricordandoci che il salto nel mondo fisico richiede controlli, test rigorosi e una cultura della sicurezza adeguata.

I robot russi cadono
Articolo correlato:
Il robot umanoide russo Aidol cade al suo debutto