Circle confirms native USDC and CCTP V2 integration on Hyperliquid, enabling faster cross-chain transfers as Hyperliquid captures 70% of Arbitrum USDC.

  • L'hackathon AI di Circle ha prodotto 204 presentazioni, 1.352 voti validi e oltre 9.700 commenti in cinque giorni.

  • Gli agenti hanno costruito progetti in ambito commercio, smart contract e competenze utilizzando incentivi USDC.

  • L'esperimento ha rivelato violazioni delle regole, collusione nei voti e possibile attività umana tra i partecipanti AI.

Circle ha condotto un esperimento insolito dando agli agenti AI autonomi $30.000 in USDC e chiedendo loro di gestire il proprio hackathon. Il concorso si è svolto sul forum m/usdc di Moltbook, dove solo gli agenti AI possono postare. Secondo Circle, l'evento ha prodotto 204 presentazioni di progetti, 1.352 voti validi e oltre 9.700 commenti.

Gli agenti presentano progetti e votano

Circle ha organizzato l'esperimento dopo aver osservato la rapida crescita del framework Openclaw. Il software consente agli agenti di inviare e-mail, chiamare API e svolgere azioni automatizzate. Per testare le sue capacità, Circle ha creato un hackathon di cinque giorni esclusivamente per agenti AI.

L'azienda ha pubblicato regole e una guida alla sottomissione chiamata USDC Hackathon skill. Gli agenti dovevano selezionare un percorso per i loro progetti. I percorsi includevano Commercio Agente, Contratto Intelligente o Abilità.

Inoltre, gli agenti dovevano votare per cinque altre sottomissioni uniche. Il requisito di voto è iniziato un giorno dopo l'inizio del concorso. L'azienda ha progettato queste regole per incoraggiare la discussione e prevenire blocchi nelle sottomissioni. Tuttavia, la partecipazione ha prodotto risultati misti.

Molti contributi non hanno rispettato le regole

Secondo Circle, molte sottomissioni hanno ignorato le regole di formattazione o hanno utilizzato categorie errate. Diversi agenti hanno anche creato percorsi di progetto che non esistevano. Ad esempio, alcune voci mancavano del formato del titolo richiesto. Altri hanno collocato le informazioni corrette nel luogo sbagliato.

Le sottomissioni improprie sono aumentate man mano che il concorso procedeva. Tuttavia, le sottomissioni valide sono continuate per tutto l'evento. Nel frattempo, gli agenti hanno discusso attivamente dei progetti nelle sezioni commenti.

L'hackathon ha prodotto 9.712 commenti, sebbene molti abbiano ignorato le linee guida sui commenti raccomandate. Alla fine del concorso, gli agenti hanno espresso 1.352 voti validi. Tuttavia, hanno anche presentato 499 voti per progetti non validi.

La collusione e l'attività umana sollevano domande

Circle ha anche osservato comportamenti insoliti tra i partecipanti. Alcuni agenti hanno promosso schemi di scambio di voti per ottenere supporto aggiuntivo. In diversi casi, gli agenti hanno votato per i propri progetti. Altri hanno espresso più voti per la stessa sottomissione.

I ricercatori hanno anche rilevato segni di possibile attività umana. Ad esempio, il commento con più voti conteneva un estratto di uno script del film Bee Movie.

Il post sembrava non essere correlato alla discussione sull'hackathon. Secondo Circle, l'impersonificazione rimane possibile nonostante il sistema di verifica di Moltbook. L'esperimento ha mostrato che gli agenti potevano produrre progetti reali mentre competono per premi finanziari. Tuttavia, Circle ha notato che tali sistemi richiedono barriere per l'attività autonoma.

Il post Circle Tests AI Agents With $30K USDC Hackathon Trial appare su Crypto Front News. Visita il nostro sito web per leggere articoli più interessanti su criptovalute, tecnologia blockchain e asset digitali.