Die aktuelle On-Chain-Welt fühlt sich ein wenig wie ein beschleunigter Prozess an: Verträge werden automatisch ausgeführt, Strategien werden automatisch gehandelt, und die Abrechnung wird automatisch ausgelöst. Früher konnte man viele Probleme auf "Menschen machen Fehler" zurückführen, jetzt sieht man sich mit "Maschinen hören nicht auf" konfrontiert. Besonders nachdem AI-Agenten populär wurden, sehen viele nur ein Bild: Sie können die Märkte für dich beobachten, Aufträge für dich platzieren und Chancen enger erfassen. Das klingt schön, aber ich stelle mir immer wieder eine nicht ganz passende Frage: Worauf basiert ihr Urteil? Sind die Signale, die sie erhalten, zuverlässig? Wenn das Signal falsch ist, wie wird es dann falsch?
Menschen machen Fehler, oft durch "Zögern" oder "emotionale Überlastung"; AI-Agenten machen Fehler meist "sehr entschlossen falsch" oder "ständig falsch". Du gibst ihm ein falsches Signal, und er sagt nicht "okay, ich warte mal", sondern er betrachtet das falsche Signal als Wahrheit und verwandelt den Fehler so schnell wie möglich in Handlung. Das ist, als ob man das autonome Fahren einer unzuverlässigen Verkehrsinfo anvertraut: Es ist nicht sicherer, langsamer zu fahren, sondern je schneller, desto gefährlicher.
Deshalb habe ich immer mehr das Gefühl, dass im Zeitalter der AI-Agenten Orakel nicht mehr nur "Datenanbieter" sind, sondern mehr wie "ein Teil des Bremssystems". Du willst nicht nur schnelleres Gas, sondern auch stabilere Bremsbeläge. APRO kommt in meinen Augen näher an "die Leute, die Bremsbeläge herstellen": Es kümmert sich darum, wie Signale kommen, wie sie bewiesen und wie sie geliefert werden, und das Wichtigste – wie sie auf der Blockchain gebunden verwendet werden.
Viele Menschen mögen das Wort "Beschränkung" nicht, weil sie denken, dass es die Effizienz verringert. Aber wenn du einen Agenten ein paar Tage lang losläufst, wirst du feststellen, dass Beschränkungen keine Fesseln sind, sondern Schutzgeländer. Ohne Schutzgeländer ist Effizienz nur ein schneller Ausbruch aus der Bahn.
Ich mag es, die Sache aus der Perspektive einer "Entscheidungskette" zu betrachten: Ein Signal kommt rein, eine Entscheidung wird getroffen, eine Aktion wird ausgeführt. Es scheint nur drei Schritte zu geben, aber jeder Schritt kann zu einem Unfall führen. Signale können kontaminiert werden, Entscheidungen könnten alte Daten falsch verwenden, und Aktionen könnten bei Überlastung außer Kontrolle geraten. Wenn du das System stabil gestalten möchtest, ist der effektivste Weg nicht, "zu hoffen, dass es keine Fehler gibt", sondern die falschen Wege zu blockieren und die Ausgänge für Ausnahmen offen zu halten.
Im Abschnitt "Signal" kommt der Wert von APRO von seiner Betonung auf "Lieferung mit Nachweis". Du kannst es so verstehen: Es gibt dir nicht nur ein Wort, sondern auch einen Grund, warum du es glauben kannst. AI-Agenten fürchten nicht die Komplexität, sondern die Intransparenz. Transparenz bedeutet, dass du Regeln festlegen kannst: Welche Signalquellen verfügbar sind, innerhalb welches Zeitrahmens Signale verfügbar sind, unter welchen Bedingungen Signale neu abgerufen werden müssen und unter welchen Bedingungen eine Herabstufung erforderlich ist. Solange AI-Agenten Regeln haben, können sie stabil wie eine Maschine arbeiten; ihre erschreckende Seite ist, dass du keine Regeln gegeben hast, und sie können nur auf die einfachste und brutalste Weise handeln.
Als wir in den Abschnitt "Entscheidungen" kamen, war die häufigste Art, wie viele Protokolle scheiterten, nicht, dass "Daten nicht abgerufen werden konnten", sondern dass "falsche Daten abgerufen wurden". Ein sehr häufiges, aber auch schmerzhaftes Beispiel: Du hast in einer kritischen Aktion einen Preis gelesen, hast aber seine Zeitinformationen nicht überprüft. Wenn der Markt ruhig ist, ist alles in Ordnung; bei extremen Schwankungen könnte dein System jedoch mit "alten Preisen innerhalb des verfügbaren Fensters" abwickeln oder abrechnen. Stell dir vor, ein Agent sieht "der Preis hat den Schwellenwert erreicht" und löst sofort eine Kette von Aktionen aus, wobei dieser Schwellenwert tatsächlich veraltet ist – das ist kein Rechenfehler, sondern eine unklare Ingenieursgrenze.
Deshalb betrachte ich "Zeitstempel" als die zweite Lebensader der On-Chain-Entscheidungen. Die erste Lebensader ist die Signatur, die beweist, dass du nicht manipuliert wurdest, die zweite Lebensader ist die Zeit, die beweist, dass du nicht zur falschen Zeit das Richtige getan hast. Es klingt kompliziert, aber es wird direkt entscheiden, wie dein System unter Drucktests abschneidet: Ob es wie eine Feder zurückfedert oder wie Glas zerbricht.
Im Abschnitt "Ausführung" sind die Probleme von AI-Agenten eher wie Verkehrsunfälle: Stau, Verzögerungen, falsche Reihenfolgen, fehlgeschlagene Wiederholungen. Wenn du keine Rückfallstrategie hast, wird es wie eine Person mit starkem Besessenheit: Nach einem Misserfolg kommt er wieder, nach einem weiteren Misserfolg kommt er weiterhin, bis er sein Vertrauen, seine Kosten und sogar sein Kapital vollständig aufgebraucht hat. Ein reifes System sollte in der Lage sein, "bei einem Misserfolg herunterzustufen und bei einem Rückschlag zu stoppen", anstatt "bei einem Misserfolg nachzulegen". Zu diesem Zeitpunkt wird die verlässliche Datenlieferung des Orakels sowie die Einschränkungen zu "verfügbarem Fenster, maximaler Verzögerung, Ausnahmebehandlung" im Vertrag zum Schutzschild für den Agenten.
Du könntest dich fragen: Das klingt nach einer Sache für Entwickler, was interessiert es den normalen Leser? Eigentlich ganz einfach: Jedes Chain-Produkt, das du verwendest, solange es Hebel, Abwicklung und automatische Abrechnung hat, lebt im Grunde von diesen Orakeln. Wenn das Orakel stabil ist, ist das Produkterlebnis wie eine Stadt mit stabiler Elektrizität: Du bist dir dessen nicht bewusst, aber alles läuft reibungslos. Wenn das Orakel instabil ist, ist das Erlebnis wie ein Stromausfall: Du wirst plötzlich dir bewusst, dass es die zugrunde liegende Stromversorgung ist.
Und APRO lässt mich denken, dass es "geeignet für die Ära der AI-Agenten" ist, weil es mehr wie ein Ökosystem aufbaut, das eine "Signalebene" schafft und nicht nur auf einen einzigen Datentyp achtet. AI-Agenten betrachten nicht nur Preise, sondern auch Marktbedingungen, Ereignisinformationen und sogar komplexere Kombinationen von Signalen. Je komplexer das Signal, desto klarere Grenzen werden benötigt, desto mehr wird nachweisbare Lieferung benötigt. Andernfalls wird der Agent wie ein Klatschliebhaber, der auf jedes Gerücht reagiert: Sobald eine Nachricht eintrifft, wird er aufgeregt und handelt unüberlegt.
Natürlich, letztendlich war Systemdesign nie "hundertprozentig sicher". Was wir tun können, ist, das Risiko von "schwarzen Kästen" in "kontrollierbare Variablen" zu verwandeln. Kontrollierbare Variablen in Regeln schreiben, Regeln in Verträge schreiben und die Ausführung der Verträge in Audits schreiben. Es klingt sehr ingenieurtechnisch, aber das ist der reife Zustand.
Wenn du ein Entwickler bist, würde ich dir vorschlagen, eine besonders einfache Übung zu machen: Betrachte deinen AI-Agenten als einen sehr gewissenhaften, aber völlig ahnungslosen Praktikanten. Du sagst "mach nach diesem Signal", und er macht es; du hast nicht gesagt "das Signal muss frisch sein", also verwendet er auch alte Signale; du hast nicht gesagt "bei Ausnahmen anhalten", er wird auch bei einem Misserfolg weiterarbeiten. Du wirst feststellen, dass das, was am dringendsten ergänzt werden muss, nicht das Modell ist, sondern die Regeln. Ansätze wie APRO, die auf nachweisbaren Lieferungen und kombinierbare Verwendung setzen, können dir helfen, die Regeln auf die Ebene "ausführbar" zu bringen.


