👑 KRIPTOVALŪTU PRINCESE PRIVĀTA ČATS — TAGAD ATVĒRTA 👑
Binance ģimene,
Es oficiāli esmu uzsākusi savu ekskluzīvo Binance Square Čata telpu — veltīta vieta, kur reāli tirgotāji savienojas, analizē un izpilda kopā.
Šeit stratēģija satiek izpildi.
Grupā jūs saņemsiet: ✨ Reāllaika tirdzniecības diskusijas ✨ Manas precīzās nākotnes iestatījumi & atjauninājumi ✨ Ienākšana / SL / TP pielāgojumi ✨ Tirgus struktūras analīze ✨ Airdrop iespējas ✨ Makro ieskati & riska kontroles vadlīnijas
Ja esat sekojuši manam saturam un gaidāt tuvāku tirdzniecības vidi — šī ir tā.
🚀 Kā pievienoties:
1️⃣ Apmeklējiet manu Binance Square profilu 2️⃣ Noklikšķiniet uz Čata telpas 3️⃣ Skenējiet QR kodu — vai — Pievienojieties nekavējoties šeit: https://app.binance.com/uni-qr/group-chat-landing?channelToken=88Xw8AKsZCdmX41enN8Cjw&type=1&entrySource=sharing_link
Šis nav tikai vēl viens grupas. Tas ir fokusēts tirgotāju loks, kuri ir nopietni par izaugsmi, disciplīnu un konsekvenci.
Ja esat gatavi pacelt savu tirdzniecību — Es jūs redzēšu iekšā. 💛
Mira un brīdis, kad es sapratu, ka AI joprojām vajag uzraudzību
Ir bijusi brīža, kad es pamanīju, ka uzticos AI iznākumam nedaudz pārāk ātri. Tas nebija liels lēmums. Tikai pētījums. Skaitļi. Strukturēts izskaidrojums, kas izklausījās tīrs un pārliecinošs. Bet, kad es to pārbaudīju vēlreiz, daļas no tā bija nedaudz nepareizas. Ne absurds. Ne acīmredzami falsificēts. Vienkārši... nedaudz nepareizi. Tad man tas trāpīja. Problēma ar mūsdienu AI nav tā, ka tas ir muļķīgs. Problēma ir tā, ka tas ir pārliecināti probabilistiski. Un tas ir attālums, ko Mira Network cenšas aizvērt.
Robo un kāpēc robotikas pārvaldība šķiet kā īsts šahts
Es nenācu Robo, domājot par tokeniem. Es ienācu tajā, domājot par kaut ko, kas mani ir uztraucis jau kādu laiku. Mēs daudz runājam par robotiem, kas kļūst gudrāki. Labāki modeļi. Labāka kustība. Labāka autonomija. Bet es reti redzu, ka kāds nopietni runā par to, kas tos kontrolē, kad tie ir visur. Un tas nav mazs sīkums. Kad es sāku izpētīt Fabric Protocol, tas, kas izcēlās, nebija robotikas naratīvs. Tas bija infrastruktūras naratīvs. Fabric nemēģina uzbūvēt robotu. Tas cenšas uzbūvēt tīkla slāni, kas koordinē, kā roboti tiek būvēti, pārvaldīti un atjaunināti.
Es nesāku pievērst uzmanību Mira Network, jo domāju, ka AI nepieciešama lielāka jauda.
Tam jau ir jauda.
Kas tam konsekventi trūkst, ir disciplīna.
Es esmu izmantojis pietiekami daudz AI rīku, lai zinātu, kāda ir shēma. Izvade izskatās strukturēta, pārliecināta, gluda. Pēc tam tu pārbaudi vienu faktu, un tas ir nedaudz nepareizs. Ne pilnīgi salauzts, vienkārši nepietiekami precīzs, lai tas būtu svarīgi. Tas ir pieņemami ikdienas lietošanai. Tas nav pieņemami finanšu pētījumiem, pārvaldībai vai autonomiem aģentiem.
Mira šķiet saprot šo plaisu.
Vietā, lai mēģinātu padarīt vienu modeli perfektu, tā pārstrukturē uzticības slāni. Katrs iznākums tiek sadalīts apgalvojumos. Katrs apgalvojums tiek neatkarīgi validēts decentralizētā AI modeļu tīklā. Konsensuss veidojas ap to, kas iztur pārbaudi. Precizitāte kļūst par ekonomisku procesu, nevis zīmola solījumu.
Šī maiņa ir svarīga.
Šodien lielākā daļa AI validācijas ir centralizēta. Viena kompānija nosaka, kas ir pieņemams. Mira to virza uz ārpusi. Verifikācija kļūst izplatīta un caurspīdīga. Kad konsensuss tiek sasniegts, tas tiek nostiprināts ķēdē, veidojot ierakstu par to, kā vienošanās tika izveidota.
Tas ir svarīgi, ja AI sāk pieņemt reālus lēmumus.
Ir, protams, izmaksas. Verifikācija pievieno koordinācijas slogu. Tas nav tik tūlītējs kā viens modelis, kas atbild milisekundēs. Bet ātrums bez uzticamības kļūst par risku, kad sistēmas darbojas autonomi.
Kas man izceļas, ir tas, ka Mira nekonkurē ar inteliģenci.
Tā konkurē ar atbildību.
Tā nesola visradošāko iznākumu. Tā sola aizstāvējamus iznākumus.
Un, ja AI pāries no asistenta uz operatoru, šī atšķirība kļūst strukturāla, nevis izvēles.
Paraugs: Likviditātes pārklāšana → bāzes atgūšana → bullish turpinājums
Risks: Vidējs–Augsts (zema tirgus svārstība)
Piezīmes: • Spēcīga reakcija pēc pārklāšanas zem 0.022 • Struktūra mēģina veidot augstāku zemu • Pārkāpjot 0.026 apstiprina momenta maiņu • Paplašināšanās potenciāls uz 0.032, ja apjoms palielinās • Nodrošināt daļēju pie TP1, turpināt pēc TP2
Noklikšķiniet šeit 👇 un tirgojieties, lai atbalstītu mani 💛 #KATUSDT #kat
Es nesāku pētīt Fabric protokolu, jo mani fascinē roboti.
Es sāku, jo nepārtraukti domāju par mērogu.
Šobrīd lielākā daļa robotu darbojas kontrolētās vidēs. Viena uzņēmuma uzbūvē tos. Viena uzņēmuma atjaunina tos. Viena uzņēmuma fiksē, ko viņi dara. Tas darbojas mazā mērogā. Tas kļūst trausls, kad mašīnas sāk darboties dažādās nozarēs un jurisdikcijās.
Fabric šķiet izstrādāts nākamajam posmam.
Tā vietā, lai izturētos pret robotiem kā pret izolētiem ierīcēm, tas izturas pret tiem kā pret dalībniekiem kopīgā koordinācijas tīklā. Dati plūst, aprēķinu pierādījumi, pārvaldības atjauninājumi — viss tiek fiksēts, izmantojot pārbaudāmu skaitļošanu publiskajā grāmatvedībā. Uzsvars nav tikai uz spējām. Tas ir izsekojamība.
Šī atšķirība ir svarīga.
Ja robots atjaunina savu loģiku, šai attīstībai nevajadzētu būt neredzamai. Ja tas veic augsta riska darbību, tam aiz tā stāvošajam aprēķinam jābūt pārbaudāmam. Fabric cenšas padarīt šos procesus caurspīdīgus pēc dizaina, nevis pēc izvēles.
Aģenta-dabiskā infrastruktūras perspektīva ir tā, kas man patiešām izcēlās.
Lielākā daļa blokķēdes sistēmu pieņem, ka cilvēki paraksta darījumus. Fabric pieņem, ka mašīnas mijiedarbojas tieši ar infrastruktūru. Roboti koordinējas ar citiem robotiem, iesniedzot aprēķinu pierādījumus, piedaloties pārvaldības procesos, negaidot, kad cilvēks nospiedīs apstiprināt.
Tas šķiet saskaņots ar to, kur virzās automatizācija.
Un Fabric fonds, būdams bezpeļņas, nav mazs sīkums. Tas norāda, ka tas nav domāts, lai kļūtu par slēgtu robotikas mākoni. Mērķis šķiet būt atvērtas sliedes būvniecībai, pārvaldībai un sadarbības attīstībai.
$ROBO šajā ietvarā šķiet mazāk kā hype tokens un vairāk kā stimulu mehānisms. Būvētāji, validētāji, operatori — visi ekonomiski saskaņoti, lai uzturētu tīkla integritāti.
Tas ir agrs, nav šaubu.
Bet, ja vispārīgi roboti paplašināsies loģistikā, infrastruktūrā, publiskajos pakalpojumos — centralizēta uzraudzība nevienmērīgi attīstīsies. Verifikācijas un pārvaldības slāņi būs svarīgāki par neapstrādātu aparatūras specifikāciju.
Es nesāku pievērst uzmanību Mirai, jo domāju, ka mums vajag vēl vienu AI protokolu. Es sāku pievērst uzmanību, jo apzinājos kaut ko nepatīkamu: AI jau šķiet pietiekami gudrs. Tas, kas tam nepietrūkst, ir pietiekama uzticamība. Ir atšķirība. Kad es šodien lietoju AI, es neapšaubu, vai tas var ģenerēt saturu. Tas acīmredzot var. Patiesais jautājums ir, vai es varu uzticēties šim saturam, neveicot personīgu auditu. Un šobrīd godīgā atbilde ir nē. Tur ir vieta, kur iederas Mira tīkls.
Robo un kāpēc atvērtā robotikas pārvaldība šķiet neizbēgama
Es nenonācu pie Robo, jo meklēju citu žetonu. Es nonācu pie tā, jo turpināju domāt par kaut ko, ko lielākā daļa cilvēku ignorē, runājot par robotiku. Visi ir sajūsmā par gudrākām mašīnām. Labāka mākslīgā intelekta. Vairāk autonomijas. Bet gandrīz neviens neprasa, kas notiek, kad šīm mašīnām jākoordinējas pāri uzņēmumiem, robežām un regulējošām sistēmām. Tur ir vieta, kur Fabric Protokols sāka man likties jēdzīgs. Audums nepozicionē sevi kā robotikas ražotāju. Tas pozicionē sevi kā atvērtu protokolu - globālu koordinācijas slāni, kur roboti var tikt būvēti, pārvaldīti, atjaunināti un verificēti saskaņā ar caurspīdīgiem noteikumiem. Fakts, ka to atbalsta Fabric Foundation, jau pasaka, ka tas nav paredzēts kā slēgta korporatīva ekosistēma.
Es nesāku pētīt Fabric Protocol, jo man rūp robotiķu virsraksti.
Es sāku, jo nepārtraukti uzdevu vienkāršu jautājumu.
Kad roboti kļūst autonomi, kas viņus pārbauda?
Nevis tas, kurš tos izgatavo. Nevis tas, kurš tos pārdod. Kas pārbauda to, ko viņi faktiski dara.
Tā ir vieta, kur Fabric jūtas savādāk.
Lielākā daļa robotiķu uzņēmumu koncentrējas uz aparatūras precizitāti un AI iespējām. Fabric koncentrējas uz koordināciju. Tā izturas pret robotiem kā dalībniekiem kopīgā tīklā — kur dati, aprēķins un pat regulējošā loģika ir nostiprināta, izmantojot pārbaudāmu skaitļošanu.
Tas uzreiz maina toni.
Vietā, lai uzticētos slēgtam uzņēmuma serverim, darbības var validēt publiskā grāmatvedībā. Ja robots atjaunina savu darbības modeli, šī attīstība nav klusa. Ja tas veic uzdevumu, tā aiz tā esošais aprēķins var tikt audzēts.
Tas ir infrastruktūras domāšana.
Daļa, kas man izcēlās, ir aģenta-native dizains. Lielākā daļa blokķēdes sistēmu pieņem, ka cilvēki mijiedarbojas ar makiem. Fabric pieņem, ka mašīnas mijiedarbojas ar infrastruktūru. Roboti koordinējas ar citiem robotiem, iesniedz aprēķinus, attīstās caur pārvaldības mehānismiem.
Tas jūtas prognozējoši praktiskā veidā.
Un Fabric Foundation, kas ir bezpeļņas, ir svarīga. Tā norāda, ka tas nav domāts, lai kļūtu par vēl vienu centralizētu robotiķu mākoni. Mērķis šķiet būt atvērtām sliedēm — būvniecība, pārvaldība, sadarbīga attīstība — bez viena korporatīva vārtsarga, kas kontrolē visu.
$ROBO šajā kontekstā nesajūtas kā stāsta degviela.
Tas jūtas kā koordinācijas līme.
Ja roboti darbosies loģistikā, ražošanā, publiskajā infrastruktūrā — stimulu nepieciešams saskaņot starp būvētājiem, validētājiem, operatoriem. Tokeni kļūst par mehānismiem šai saskaņošanai, nevis mārketinga piederumiem.
Vēl ir agrs. Pieņemšana ir atvērtais jautājums.
Bet šeit ir tas, kas liek man skatīties:
AI sistēmas ir digitālas. Kļūdas ir abstraktas. Roboti darbojas fiziskajā pasaulē. Kļūdas ir taustāmas.
The more I think about Mira Network the more I realize how strange it is that we accepted unverified AI outputs so quickly. A few years ago if software produced uncertain data we would question it immediately. Now if a model answers smoothly we move on. That shift happened fast. Mira feels like a reaction to that speed.
What stands out to me is that it does not attack the intelligence layer directly. It does not claim to train a better model or eliminate hallucinations entirely. It assumes imperfection is permanent and then designs verification around it. By separating outputs into smaller claims and letting independent systems validate them it creates tension inside the network. A claim must survive scrutiny before it is treated as reliable. That feels healthier than blind trust.
The ledger element matters because verification without record becomes temporary. When validation is anchored publicly it creates accountability over time. You can trace how consensus formed not just that an answer appeared. That changes the power structure from centralized AI providers to distributed evaluators aligned by incentives.
There is a tradeoff in speed and cost but that tradeoff might be necessary if AI moves deeper into financial systems research and governance. Mira feels less like a consumer product and more like infrastructure quietly preparing for a world where machines cannot be allowed to guess.
Vairāk nekā desmit gadu, kriptovalūtu investori paļāvās uz vienkāršu ritmu: Pusēšana. Sūti. Altsezona. Kritums. Atkārto. Tas bija tīrs. Prognozējams. Gandrīz mehānisks. Bet tuvāk apskatieties šo ciklu. Ritms šķiet… izkropļots.
Kas agrāk notika Vēsturiski: • Bitcoin pusēšana samazina jauno piedāvājumu • Naratīvs veidojas mēnešiem iepriekš • Mazumtirdzniecība priekšlaicīgi rīkojas ar notikumu • Paraboliskā rallija sekos • Izsistamais augstums • 70–80% kritums Tas darbojās 2013. gadā. Tas darbojās 2017. gadā. Tas darbojās 2021. gadā. Tāpēc visi gaidīja, ka 2025–2026 būs kopēšana.
Mira lika man apšaubīt, cik daudz es patiesībā uzticos AI
Kad es pirmo reizi sāku nopietni izmantot AI rīkus, mani pārsteidza, cik viss izklausījās plūstoši, skaidras atbildes, strukturētas atbildes, gandrīz bez šaubām, bet laika gaitā es pamanīju kaut ko, kas mani satrauca - tā nebija reizi pa reizei kļūda, bet pārliecība aiz kļūdas. Tieši šeit Mira tīkls sāka šķist aktuāls man, jo, nevis cenšoties padarīt vienu modeli gudrāku, tas cenšas padarīt iznākumus verificējamus. Lielākā daļa AI sistēmu šodien darbojas pēc vienkārša modeļa: jūs jautājat kaut ko, modelis atbild, un jūs vai nu uzticaties tam, vai arī manuāli pārbaudāt to paši. Atbildība paliek lietotāja rokās, un tas labi neskaidros, kad AI sistēmas sāk risināt nopietnākus uzdevumus.
Robo lika man saprast, ka robotikai nepieciešama pārvaldība pirms uzplaukuma
Pirmo reizi, kad es paskatījos uz Fabric Protocol, es nebiju daudz domājis par tokenu, es biju vairāk ziņkārīgs par robotikas aspektu, kā, iespējams, lielākā daļa cilvēku, bet jo vairāk es sapratu struktūru, kas stāv aiz tā, jo vairāk es sāku redzēt, kāpēc $ROBO patiesībā ir svarīgs šajā sistēmā Mēs daudz runājam par robotiem, kas kļūst gudrāki, autonomāki, vairāk integrēti ikdienas dzīvē, bet gandrīz neviens nerunā par to, kurš tos pārvalda, kad tie ir visur, pārvietojot preces, palīdzot slimnīcās, darbojoties publiskās telpās, tas nav aparatūras jautājums, tas ir koordinācijas jautājums
Es sāku vairāk lasīt par Fabric Foundation un tās lomu aiz Fabric Protocol, un kaut kas par šo struktūru padara visu ideju nopietnāku. Kad robotiku kontrolē tikai privātie uzņēmumi, noteikumi paliek iekšēji, atjauninājumi ir klusi un stimulu nav vienmēr redzami. Nevalstiska fonds, kas atbalsta atvērtu tīklu, maina šo dinamiku vismaz nodomā. Tas norāda, ka mērķis ir kopīga infrastruktūra, nevis slēgtas platformas.
Kas mani visvairāk interesē, ir tas, kā Fabric izturas pret robotiem, mazāk kā pret produktiem un vairāk kā pret dalībniekiem koordinētā sistēmā. Dati plūst, aprēķinu loģika un regulējošie noteikumi nav izolēti, tie tiek ierakstīti un apstiprināti caur publisku grāmatu. Šis dizains pieņem, ka mašīnas darbosies dažādās jurisdikcijās, nozarēs un ieinteresētajās pusēs. Kad roboti pieņem lēmumus noliktavās, rūpnīcās vai pat publiskās telpās, jautājums nav tikai par to, ko viņi var darīt, bet arī par to, kurš apstiprina, ko viņi izdarīja, un kurš apstiprina, kā viņi attīstās.
Kopīgas evolūcijas ideja izceļas. Tā vietā, lai viena entitāte virzītu atjauninājumus, protokola ietvars ļauj veidot pārvaldību strukturētu un caurredzamu. Tas šķiet nepieciešams, ja vispārējā mērķa roboti kļūst plaši pieņemti. Uzticība nevar būt balstīta tikai uz zīmola reputāciju.
$ROBO šajā attēlā izskatās kā saskaņošanas mehānisms, nevis spekulācija. Stimuli uztur validētājus godīgus un dalībniekus iesaistītus tīkla uzturēšanā. Vēl joprojām ir agri, un liela mēroga izvietojums vēl nav šeit, bet, ja robotika patiešām kļūst par globālu infrastruktūru, tad kaut kas līdzīgs Fabric var būt nepieciešams, lai to atbildīgi koordinētu. Tas šķiet mazāk kā produkta izlaišana un vairāk kā pamatu likšana nākotnei, par kuru lielākā daļa cilvēku vēl nav pilnībā padomājusi.
Es atkal domāju par Mira Network, pēc tam, kad noķēru vēl vienu AI atbildi, kas izskatījās ideāli, bet sabruka, kad pārbaudīju skaitļus. Tas ir dīvaini par mūsdienu modeļiem, tie ir plūstoši, bet plūsma nav patiesība. Mira nemēģina sacensties, kuram ir gudrākais modelis, tā mēģina labot uzticības slāni ap tiem. Sadaliot atbildes mazākās pārbaudāmās prasībās un ļaujot neatkarīgām sistēmām apstiprināt katru daļu, tā ievieš berzi, kur tā patiešām ir svarīga. Ne berze lietotāja pieredzē, bet berze pārliecībā. Apgalvojumam jāiztur pārbaude no vairākiem aģentiem, pirms tas tiek uzskatīts par uzticamu. Tas šķiet tuvāk tam, kā nopietna informācija būtu jāapstrādā. Blokķēdes elements tad kļūst vairāk nekā uzglabāšana, tas kļūst par kopīgu pierādījumu, ka validācija notika un stimuli bija saskaņoti. Šeit ir acīmredzams kompromiss – vairāk aprēķinu, vairāk koordinācijas, varbūt lēnākas atbildes. Bet, ja AI pāries no asistenta uz autonomu aktoru, tad validācija nevar būt izvēles jautājums. Mira šķiet, ka tā būvē atbildības infrastruktūru, kāda pašreizējiem AI sistēmām klusi trūkst. Ne skaļāka inteliģence, tikai disciplinēti rezultāti, un tas varētu būt svarīgākais slānis ilgtermiņā.
Fabric Protocol un jautājums, ko neviens neprasa par robotiem
Jo vairāk es domāju par robotiku, jo vairāk es saprotu, ka lielākā daļa sarunu ir vērstas uz nepareizo slāni. Ikviens runā par labākiem sensoriem, spēcīgākiem dzinējiem, gudrākiem AI modeļiem. Ļoti nedaudzi cilvēki runā par to, kas kontrolē šos sistēmas, kad tās ir izvietotas mērogā. Tieši tur Fabric Protocol man kļūst interesants. Sākumā es pilnībā nesapratu, kāpēc robotikai būtu nepieciešams atvērts protokols. Uzņēmumi jau būvē robotus un pārvalda atjauninājumus iekšēji. Bet tas darbojas tikai tad, kad sistēmas ir izolētas un centrāli piederīgas. Kad roboti kļūst par vispārējas lietošanas aģentiem, kas strādā starp nozarēm, robežām un publiskām vidēm, kontrole kļūst sarežģīta. Pārvaldība vairs nav opcija, tā kļūst kritiska.
Mira Network un kāpēc es pārtraucu ticēt, ka “visticamāk pareizi” ir pietiekami labi
Jo vairāk es paļaujos uz AI ikdienas darba plūsmās, jo vairāk es pamanīju kaut ko nepatīkamu. Tas izklausās pareizi gandrīz vienmēr. Strukturēti teikumi, pārliecināta tonis, skaidras skaidrojumi. Bet izklausīties pareizi un būt pareizam ir divas atšķirīgas lietas. Šī atšķirība ir tieši tas, kur Mira Network sāk man saprast. Lielākā daļa AI sistēmu šodien darbojas uz uzticības pamata. Jūs uzdodiet jautājumu modelim, tas atbild, un jūs vai nu pieņemat to, vai arī manuāli to pārbaudāt pats. Atbildība gulstas uz lietotāju. Mira apgriež šo struktūru. Tā nemēģina padarīt vienu modeli gudrāku. Tā veido decentralizētu pārbaudes slāni, kas novērtē, ko modelis saka pēc fakta.
Es turpināju domāt par Mira Network pēc tam, kad pagājušā nedēļā izmantoju dažādus AI rīkus
Problēma nav tā, ka AI ir vājš Tas ir pārāk pārliecināts
Tas atbild kā zinot visu Pat kad tas nezina
Šī pārliecība ir bīstama, kad sistēmas kļūst autonomas Jūs nevarat ļaut aģentam izpildīt, pamatojoties uz kaut ko, kas tikai izklausās pareizi
Mira dara kaut ko citu Tas nemēģina padarīt vienu modeli perfektu Tas sadala rezultātus apgalvojumos Katrs apgalvojums tiek pārbaudīts ar citiem neatkarīgiem modeļiem Tad veidojas konsenss
Tas vairāk atgādina revīziju, nevis ģenerāciju
Vietā, lai jautātu, vai mēs uzticamies šim AI Jūs jautājat, vai šis apgalvojums var izturēt pārbaudi
Man patīk šī formulējuma pieeja
Blockchain daļa nav dekorācija Tas publiski nostiprina validētus apgalvojumus Ja kaut kas ir verificēts, ir ieraksts Nevis tikai iekšējā moderācija, ko neviens nevar redzēt
Protams, ir kompromiss Pārbaude prasa laiku Izmaksas palielinās Bet uzticamība nav bez maksas
Ja AI plāno pārvaldīt kapitālu vai darbināt sistēmas vai automatizēt pētījumus Halucinācijas vairs nav smieklīgas Tās kļūst par atbildību
Mira šķiet saprot to Tas koncentrējas uz atbildības slāni
Nevis lielākiem modeļiem Nevis skaļākiem apgalvojumiem Vienkārši pārbaude
Varbūt tas ir mazāk aizraujoši
Bet, ja AI kļūst par infrastruktūru Pārbaude būs svarīgāka par radošumu
Es turpināju domāt vairāk par Fabric Protocol pēc tam
Nevis par robotiem, kas pārvieto kastītes vai veic uzdevumus Par atjauninājumiem
Kad programmatūra atjaunina jūsu tālruni, jūs daudz nedomājat Bet, kad robots atjaunina savu lēmumu loģiku noliktavā vai slimnīcā, tas ir citādāk Kurš apstiprināja šo izmaiņu Kurš pārbaudīja, vai tas ir droši
Fabric cenšas padarīt šos atjauninājumus redzamākus Aprēķini tiek fiksēti Pārvaldība ir caurspīdīga Nav tikai jāuzticas uzņēmumam un jādodas tālāk
Šī daļa šķiet svarīga
Roboti vairs nav tikai rīki Viņi ir aģenti, kas pieņem lēmumus Ja šie lēmumi ir nepareizi, ir jābūt pēdām
Publiska grāmata koordinācijai izklausās smagi Bet varbūt smags ir labs, kad mašīnas darbojas reālajā pasaulē Gaišās sistēmas ir ātras, bet tās slēpj pārāk daudz
Aģenta dzimtā dizaina pieeja arī ir jēgpilna Mašīnas runā tieši ar infrastruktūru, nevis caur cilvēkiem, kas noklikšķina uz apstiprināt Tas ir nākotne, godīgi sakot Roboti negaidīs, kamēr parādīsies maku uznirstošās ziņas
$ROBO tad kļūst par daļu no koordinācijas Nevis hype degviela Vairāk kā saskaņošanas slānis starp dalībniekiem tīklā
Joprojām ir agrs, protams Pieņemšana ir liela jautājums Vai uzņēmumi uzticēsies atvērtajam tīklam robotikas pārvaldībai
Bet, ja mašīnas globāli paplašināsies Centrālā kontrole neizturēs mūžīgi
Fabric šķiet kā likme uz šo nākotni Nevis skaļš, nevis izsmalcināts Tikai klusi būvē dzelzceļu
Dažreiz garlaicīgā koordinācijas slānis ir patiesā inovācija Nevis robots pats