OpenAI vahvisti juuri tänään tekoälyn pohjantähden teesini julkaisemalla operaattoriagenttinsa. Tämä ei ollut vain ohjaava opinnäytetyöni $CODEC, vaan kaikki muutkin tekoälyinvestoinnit, mukaan lukien aiemmin tänä vuonna tekoälymanian aikana tehdyt investoinnit. Codecin kanssa on käyty paljon keskustelua robotiikasta, vaikka tällä vertikaalilla on oma tarinansa hyvin pian, perimmäinen syy siihen, miksi olin niin optimistinen Codecin suhteen ensimmäisestä päivästä lähtien, johtuu siitä, miten sen arkkitehtuuri käyttää operaattoriagentteja. Ihmiset aliarvioivat edelleen, kuinka suuri markkinaosuus on vaakalaudalla, kun rakennetaan ohjelmistoja, jotka toimivat itsenäisesti ja suoriutuvat paremmin kuin ihmistyöntekijät ilman jatkuvaa kehotusta tai valvontaa. Olen nähnyt paljon vertailuja $NUIT. Ensinnäkin haluan sanoa, että olen suuri fani siitä, mitä Nuit rakentaa, enkä toivo muuta kuin heidän menestystään. Jos kirjoitat sähkeeseeni "nuit", huomaat, että huhtikuussa sanoin, että jos minun olisi pitänyt pitää yhtä kolikkoa useita kuukausia, se olisi ollut Nuit operaattoriopinnäytetyöni vuoksi. Nuit oli paperilla lupaavin operaattoriprojekti, mutta laajan tutkimuksen jälkeen huomasin, että heidän arkkitehtuuristaan puuttui tarvittava syvyys perustella suurta investointia tai laittaa maineeni sen taakse. Tätä silmällä pitäen olin jo tietoinen olemassa olevien operaattoriagenttitiimien arkkitehtonisista puutteista ja etsin aktiivisesti projektia, joka vastaisi niihin. Pian Codecin ilmestymisen jälkeen (kiitos @0xdetweiler vaatia minua tutkimaan niitä syvemmälle) ja tämä on ero näiden kahden välillä: $CODEC vastaan $NUIT Codecin arkkitehtuuri on rakennettu kolmeen kerrokseen; Kone, järjestelmä ja älykkyys, jotka erottavat infrastruktuurin, ympäristörajapinnan ja tekoälylogiikan. Jokainen Codecin operaattoriagentti toimii omassa eristetyssä näennäiskoneessaan tai säilössään, mikä mahdollistaa lähes alkuperäisen suorituskyvyn ja vikojen eristämisen. Tämä kerrostettu rakenne tarkoittaa, että komponentit voivat skaalautua tai kehittyä itsenäisesti rikkomatta järjestelmää. Nuitin arkkitehtuuri kulkee erilaista polkua olemalla monoliittisempaa. Heidän pinonsa pyörii erikoistuneen verkkoselainagentin ympärillä, joka yhdistää jäsentämisen, tekoälypäättelyn ja toiminnan. Tämä tarkoittaa, että ne jäsentävät verkkosivut syvästi jäsennellyksi dataksi tekoälyn kulutettavaksi ja luottavat pilvikäsittelyyn raskaissa tekoälytehtävissä. Codecin lähestymistapa, jossa jokaiseen agenttiin upotetaan kevyt Vision-Language-Action (VLA) -malli, tarkoittaa, että se voi toimia täysin paikallisesti. Tämä ei vaadi jatkuvaa pingausta takaisin pilveen ohjeiden saamiseksi, viiveen leikkaamista ja käytettävyydestä ja kaistanleveydestä riippuvuuden välttämistä. Nuitin agentti käsittelee tehtäviä muuntamalla ensin verkkosivut semanttiseen muotoon ja käyttämällä sitten LLM-aivoja selvittääkseen, mitä tehdä, mikä paranee ajan myötä vahvistusoppimisen myötä. Vaikka tämä virta on tehokas verkkoautomaatiossa, se riippuu raskaasta pilvipuolen tekoälyn käsittelystä ja ennalta määritetyistä sivurakenteista. Codecin paikallinen laiteäly tarkoittaa, että päätökset tehdään lähempänä tietoja, mikä vähentää yleiskustannuksia ja tekee järjestelmästä vakaamman odottamattomille muutoksille (ei hauraita komentosarjoja tai DOM-oletuksia). Koodekin operaattorit seuraavat jatkuvaa havaitse-ajattele-toimi-silmukkaa. Konekerros suoratoistaa ympäristön (esim. live-sovelluksen tai robottisyötteen) älykkyyskerrokseen järjestelmäkerroksen optimoitujen kanavien kautta, jolloin tekoäly näkee senhetkisen tilan. Agentin VLA-malli tulkitsee sitten visualisointeja ja ohjeita yhdessä päättääkseen toiminnosta, jonka järjestelmäkerros suorittaa näppäimistö/hiiri-tapahtumien tai robottiohjauksen avulla. Tämä integroitu silmukka tarkoittaa, että se mukautuu live-tapahtumiin, vaikka käyttöliittymä siirtyisi, et katkaise virtaa. Yksinkertaisemmin sanottuna ajattele Codecin operaattoreita omavaraisena työntekijänä, joka sopeutuu yllätyksiin työssään. Nuitin agentti on kuin työntekijä, jonka pitää pysähtyä, kuvailla tilannetta esimiehelle puhelimitse ja odottaa ohjeita. Menemättä liikaa tekniseen kaninkoloon, tämän pitäisi antaa sinulle korkeatasoinen käsitys siitä, miksi valitsin koodekin ensisijaiseksi vedoksi operaattoreille. Kyllä, Nuitilla on YC:n, pinotun tiimin ja S-tason githubin tuki. Vaikka Codecin arkkitehtuuri on rakennettu horisontaalista skaalausta ajatellen, mikä tarkoittaa, että voit ottaa käyttöön tuhansia agentteja rinnakkain ilman jaettua muistia tai suorituskontekstia agenttien välillä. Codecin tiimi ei myöskään ole tavallisia kehittäjiä. Heidän VLA-arkkitehtuurinsa avaa lukuisia käyttötapauksia, jotka eivät olleet mahdollisia aiemmilla agenttimalleilla, koska he näkivät pikselien, ei kuvakaappausten läpi. Voisin jatkaa, mutta säästän sen tulevia postauksia varten.
Virtual Environments for Operator Agents: $CODEC My core thesis around the explosion of AI has always centered on the rise of operator agents. But for these agents to succeed, they require deep system access, effectively granting them control over your personal computer and sensitive data, which introduces serious security concerns. We’ve already seen how companies like OpenAI and other tech giants handle user data. While most people don’t care, the individuals who stand to benefit most from operator agents, the top 1% absolutely do. Personally, there's zero chance I’m giving a company like OpenAI full access to my machine, even if it means a 10× boost in productivity. So why Codec? Codec’s architecture is centered on launching isolated, on-demand “cloud desktops” for AI agents. At its core is a Kubernetes-based orchestration service (codenamed Captain) that provisions lightweight virtual machines (VMs) inside Kubernetes pods. Each agent gets its own OS-level isolated environment (a full Linux OS instance) where it can run applications, browsers, or any code, completely sandboxed from other agents and the host. Kubernetes handles scheduling, auto-scaling, and self-healing of these agent pods, ensuring reliability and the ability to spin up/down many agent instances as load demands Trusted Execution Environments (TEEs) are used to secure these VMs, meaning the agent’s machine can be cryptographically isolated, its memory and execution can be protected from the host OS or cloud provider. This is crucial for sensitive tasks: for example, a VM running in an enclave could hold API keys or crypto wallet secrets securely. When an AI agent (an LLM-based “brain”) needs to perform actions, it sends API requests to the Captain service, which then launches or manages the agent’s VM pod. The workflow: the agent requests a machine, Captain (through Kubernetes) allocates a pod and attaches a persistent volume (for the VM’s disk). The agent can then connect into its VM (via a secure channel or streaming interface) to issue commands. Captain exposes endpoints for the agent to execute shell commands, upload/download files, retrieve logs, and even snapshot the VM for later restoration. This design gives the agent a full operating system to work in, but with controlled, audited access. Because it’s built on Kubernetes, Codec can auto-scale horizontally, if 100 agents need environments, it can schedule 100 pods across the cluster, and handle failures by restarting pods. The agent’s VM can be equipped with various MCP servers (like a “USB port” for AI). For example, Codec’s Conductor module is a container that runs a Chrome browser along with a Microsoft Playwright MCP server for browser control. This allows an AI agent to open web pages, click links, fill forms, and scrape content via standard MCP calls, as if it were a human controlling the browser. Other MCP integrations could include a filesystem/terminal MCP (to let an agent run CLI commands securely) or application-specific MCPs (for cloud APIs, databases, etc.). Essentially, Codec provides the infrastructure “wrappers” (VMs, enclaves, networking) so that high-level agent plans can safely be executed on real software and networks. Use Cases Wallet Automation: Codec can embed wallets or keys inside a TEE-protected VM, allowing an AI agent to interact with blockchain networks (trade on DeFi, manage crypto assets) without exposing secret keys. This architecture enables onchain financial agents that execute real transactions securely, something that would be very dangerous in a typical agent setup. The platform’s tagline explicitly lists support for “wallets” as a key capability. An agent could, for instance, run a CLI for an Ethereum wallet inside its enclave, sign transactions, and send them, with the assurance that if the agent misbehaves, it’s confined to its VM and the keys never leave the TEE. Browser and Web Automation: CodecFlow agents can control full web browsers in their VM. The Conductor example demonstrates an agent launching Chrome and streaming its screen to Twitch in real-time. Through the Playwright MCP, the agent can navigate websites, click buttons, and scrape data just like a human user. This is ideal for tasks like web scraping behind logins, automated web transactions, or testing web apps. Traditional frameworks usually rely on API calls or simple headless browser scripts; in contrast, CodecFlow can run a real browser with a visible UI, making it easier to handle complex web applications (e.g. with heavy JavaScript or CAPTCHA challenges) under AI control. Real-World GUI Automation (Legacy Systems): Because each agent has an actual desktop OS, it can automate legacy GUI applications or remote desktop sessions, essentially functioning like robotic process automation (RPA) but driven by AI. For example, an agent could open an Excel spreadsheet in its Windows VM, or interface with an old terminal application that has no API. Codec’s site mentions enabling “legacy automation” explicitly. This opens up using AI to operate software that isn’t accessible via modern APIs, a task that would be very hacky or unsafe without a contained environment. The included noVNC integration suggests agents can be observed or controlled via VNC, which is useful for monitoring an AI driving a GUI. Simulating SaaS Workflows: Companies often have complex processes that involve multiple SaaS applications or legacy systems. for example, an employee might take data from Salesforce, combine it with data from an internal ERP, then email a summary to a client. Codec can enable an AI agent to perform this entire sequence by actually logging into these apps through a browser or client software in its VM, much like a human would. This is like RPA, but powered by an LLM that can make decisions and handle variability. Importantly, credentials to these apps can be provided to the VM securely (and even enclosed in a TEE), so the agent can use them without ever “seeing” plaintext credentials or exposing them externally. This could accelerate automation of routine back office tasks while satisfying IT that each agent runs with least privilege and full auditability (since every action in the VM can be logged or recorded). Roadmap - Launch public demo at end of the month - Feature comparison with other similar platforms (no web3 competitor) - TAO Integration - Large Gaming Partnership In terms of originality, Codec is built on a foundation of existing technologies but integrates them in a novel way for AI agent usage. The idea of isolated execution environments is not new (containers, VMs, and TEEs are standard in cloud computing), but applying them to autonomous AI agents with a seamless API layer (MCP) is extremely novel. The platform leverages open standards and tools wherever possible: it uses MCP servers like Microsoft’s Playwright for browser control instead of reinventing that wheel, and plans to support AWS’s Firecracker micro-VMs for faster virtualization. It also forked existing solutions like noVNC for streaming desktops. Demonstrating the project is standing on the foundations of proven tech (Kubernetes, enclave hardware, open-source libraries), focusing its original development on glue logic and orchestration (the “secret sauce” is how it all works together). The combination of open-source components and a upcoming cloud service (hinted by the mention of a $CODEC token utility and public product access) means Codec will soon be accessible in multiple forms (both as a service and self-hosted). Team Moyai: 15+ years dev experience, currently leading AI development at Elixir Games. lil’km: 5+ years AI developer, currently working with HuggingFace on the LeRobot project. HuggingFace is a huge robotics company and Moyai works as head of ai at elixir games (backed by square enix and solanafdn. I’ve personally video called the entire team and really like the energy they bring. My friend who put them on my radar also met them all at Token2049 and only had good things to say. Final Thoughts There’s still a lot left to cover, which I’ll save for future updates and posts in my Telegram channel. I’ve long believed cloud infrastructure is the future for operator agents. I’ve always respected what Nuit is building, but Codec is the first project that’s shown me the full-stack conviction I was looking for. The team are clearly top tier engineers. They’ve openly said marketing isn’t their strength, which is likely why this has flown under the radar. I’ll be working closely with them to help shape the GTM strategy that actually reflects the depth of what they’re building. With a $4 mil market cap and this level of infrastructure, it feels massively underpriced. If they can deliver a usable product, I think it could easily mark the beginning of the next AI infra cycle. As always, there’s risk and while I’ve vetted the team in stealth over the past few weeks, no project is ever completely rug proof. Price targets? A lot higher.
Tldr siitä, miksi valitsin koodekin > Nuitin operaattoreille: Koodekki käyttää kolmikerroksista arkkitehtuuria (kone, järjestelmä, älykkyys), joka mahdollistaa eristetyt, tehokkaat agentit alkuperäisellä ohjauksella. Jokainen koodekkiagentti toimii paikallisesti käyttämällä Vision-Language-Action (VLA) -silmukkaa, mikä vähentää viivettä ja lisää luotettavuutta. Nuitin malli perustuu selaimen jäsentämiseen + pilvipohjaisiin tekoälykutsuihin, mikä rajoittaa joustavuutta ja tuo haurautta. Pakkauksenhallinta skaalautuu vaakasuunnassa tuhansien agenttien kesken ilman jaettua tilaa ja vikasietoisaa modulaarisuutta.
Näytä alkuperäinen
11,12 t.
61
Tällä sivulla näytettävä sisältö on kolmansien osapuolten tarjoamaa. Ellei toisin mainita, OKX ei ole lainatun artikkelin / lainattujen artikkelien kirjoittaja, eikä OKX väitä olevansa materiaalin tekijänoikeuksien haltija. Sisältö on tarkoitettu vain tiedoksi, eikä se edusta OKX:n näkemyksiä. Sitä ei ole tarkoitettu minkäänlaiseksi suositukseksi, eikä sitä tule pitää sijoitusneuvontana tai kehotuksena ostaa tai myydä digitaalisia varoja. Siltä osin kuin yhteenvetojen tai muiden tietojen tuottamiseen käytetään generatiivista tekoälyä, tällainen tekoälyn tuottama sisältö voi olla epätarkkaa tai epäjohdonmukaista. Lue aiheesta lisätietoa linkitetystä artikkelista. OKX ei ole vastuussa kolmansien osapuolten sivustojen sisällöstä. Digitaalisten varojen, kuten vakaakolikoiden ja NFT:iden, omistukseen liittyy suuri riski, ja niiden arvo voi vaihdella merkittävästi. Sinun tulee huolellisesti harkita, sopiiko digitaalisten varojen treidaus tai omistus sinulle taloudellisessa tilanteessasi.