Claude en de robot hond: wat het antropisch experiment aantoonde

Laatste update: 21/11/2025

  • Claude hielp bij het programmeren en bedienen van een Unitree Go2, waarmee hij een groot deel van het werk bij Project Fetch automatiseerde.
  • Het team met behulp van AI kon sommige taken sneller uitvoeren, zoals lopen en een bal vinden, dan het team zonder hulp.
  • Uit de interactie-analyse bleek dat er minder verwarring was met Claude, dankzij een gemakkelijkere verbinding en een gebruiksvriendelijkere interface.
  • De voortgang brengt zowel kansen als risico's met zich mee: protocollen en fysieke veiligheidsmaatregelen moeten worden versterkt wanneer LLM in de praktijk wordt toegepast.

AI-gestuurde robot hond

De nieuwe test van Antropisch Het richt zich op een onderwerp dat geen sciencefiction meer is: Wat gebeurt er als een taalmodel een robot coördineert?. In Project ophalenMet hun Claude-systeem konden ze een robot hond besturen, om te testen hoe ver de robot kon gaan. Fysieke AI van tekst naar beweging.

Naast de koptekst biedt het experiment duidelijke aanwijzingen over de mogelijkheden en beperkingen: Claude automatiseerde een groot deel van de noodzakelijke programmering zodat de viervoeter fysieke handelingen kon uitvoeren, en Het diende als katalysator voor een team van mensen om sneller vooruitgang te boeken bij bepaalde taken.

AI en de fysieke wereld: van laboratorium naar actie

Viervoetige robot in test

Anthropic, opgericht door voormalige OpenAI-onderzoekers, bestudeert al lange tijd de risico's en praktische toepassingen van geavanceerde modellen. Deze keer was de hypothese eenvoudig: als een LLM steeds meer de codering en de interactie met software, kan echte objecten gaan beïnvloedenHet interne veiligheidsteam (rode team) wilde deze overgang in een gecontroleerde omgeving observeren.

Exclusieve inhoud - Klik hier  Kan AI beter diagnosticeren dan een arts? Zo werkt de medische AI ​​van Microsoft.

Onderzoekers wijzen erop dat de huidige modellen nog niet volledig een complexe robot kunnen besturen, maar Ze verwachten dat toekomstige versies meer bewegingsvrijheid zullen biedenDaarom is het nuttig om te analyseren hoe mensen op AI vertrouwen om fysiek gedrag te programmeren en te orkestreren, vooral in humanoïde robotsvoordat dat moment aanbreekt.

Hoe Project Fetch is ontworpen

Unitree Go2 Project Ophalen

De uitdaging zette twee teams zonder enige ervaring met robotica tegenover elkaar: de ene werd bijgestaan ​​door Claude en de andere programmeerde zonder AI. Beide teams moesten een Unitree Go2-robothond besturen met een afstandsbediening en code schrijven, werkend met controllers en platforms zoals Arduino Uno Q, para taken uitvoeren met toenemende moeilijkheidsgraad, van het lopen naar een punt tot het lokaliseren van een object.

De groep met Claude kon een aantal doelstellingen sneller bereiken, waaronder de viervoeter Ik zou wandelen en een strandbal vindenDit was iets wat het team, dat uitsluitend uit mensen bestond, onder de testomstandigheden niet voor elkaar kreeg. De sleutel zat niet in magie; het model genereerde en verfijnde code, waardoor de verbinding met de robot sneller werd en de wrijving afnam.

Anthropic registreerde en analyseerde de werkdynamiek. In de transcripties uitte het team zonder AI meer frustratie en twijfel, terwijl Claude's assistentie Het leek te zorgen voor een begrijpelijkere bedieningsinterface. en een soepelere opstart. Toch werden niet alle doelen gehaald en was de autonomie beperkt.

Exclusieve inhoud - Klik hier  Elon Musk's xAI, zijn inzet voor kunstmatige intelligentie, versnelt de technologische en financiële expansie ervan.

De gekozen robot hond: Unitree Go2 en zijn doel

Unitre Go2

Het Go2-model, geproduceerd door Unitree in Hangzhou, China, werd gekozen voor de evaluatie. Het kost ongeveer $16.900, een relatief klein aantal vergeleken met andere apparatuur in de sector, en wordt gebruikt voor inspecties op afstand, veiligheidspatrouilles of rondleidingen in de bouw en de industrie.

Deze viervoeter kan zelfstandig bewegen, maar in de praktijk is hij afhankelijk van bevelen op hoog niveau of de controle van een persoonVolgens een recente marktanalyse behoren Unitree-systemen tot de meest wijdverspreide systemen. Hierdoor zijn ze een aantrekkelijk testterrein om te zien in hoeverre AI-ondersteunde programmering de grenzen kan verleggen.

Wat zeggen de resultaten over LLM's?

De grote taalmodellen schrijven niet langer alleen teksten: de laatste jaren hebben ze zich gespecialiseerd in code genereren en beheren softwareBij Project Fetch betekende dat minder tijd besteden aan repetitieve programmeertaken en een stapsgewijze handleiding voor het herhalen van fouten en het aanpassen van robotgedrag.

De voorzichtige interpretatie is dat, hoewel we het hier niet over totale controle hebben, AI verlaagt de toetredingsdrempel voor niet-deskundige teams Ze stellen een fysiek platform in staat om nuttige acties uit te voeren. Het is een kwalitatieve verandering: van louter tekstgeneratoren beginnen LLM's te fungeren als systeemorkestrators.

Exclusieve inhoud - Klik hier  ChatGPT Atlas: de browser van OpenAI die chatten, zoeken en geautomatiseerde taken combineert

Risico's en waarborgen: hoe angst te voorkomen

Als we AI de mogelijkheid geven om op machines in te werken, brengt dat duidelijke risico's met zich mee: codefouten, foutieve gegevens of opzettelijk misbruik Deze storingen kunnen fysieke gevolgen hebben. Industriële robotica heeft lang geleden al geleerd deze storingen te beperken met onafhankelijke beveiligingen. software.

In deze context stellen experts voor om verschillende lagen te combineren: operationele grenzen, auditing van gegenereerde code en vooral mechanische noodschakelaars en protocollen die niet afhankelijk zijn van het model. De antropische studie is precies binnen die preventieve logica ingekaderd.

Nieuwe toepassingen en noodzakelijke voorzorgsmaatregelen

Met de juiste waarborgen zou dezelfde aanpak kunnen worden toegepast op logistiek, onderhoud, inspectie of assistentie in omgevingen waar menselijke aanwezigheid complex isHet idee is niet om technici te vervangen, maar om hulpmiddelen te bieden die configuraties versnellen en adaptievere reacties mogelijk maken.

Om deze voordelen te verwezenlijken, zal het nodig zijn om overeenstemming te bereiken over veilige praktijken, duidelijke documentatie en criteria voor verantwoorde inzetAnders kunnen technische ontwikkelingen botsen met het publieke vertrouwen of met operationele risico's die volkomen vermijdbaar zijn.

De Project Fetch-ervaring suggereert een keerpunt: Claude heeft aangetoond dat een LLM de afstand tussen code en actie kan verkortenHet stroomlijnen van taken in de echte wereld met een viervoetige robot, terwijl we eraan herinnerd worden dat de overstap naar de fysieke wereld controles, strenge tests en een veiligheidscultuur vereist.

Russische robots vallen
Gerelateerd artikel:
Russische humanoïde robot Aidol valt bij zijn debuut