AI heeft een vertrouwensprobleem en het is groter dan bevooroordeelde uitkomsten of hallucinaties
Modellen kunnen regels van de ene op de andere dag veranderen, achterdeurtjes verbergen of code uitvoeren die je niet kunt verifiëren
Open gewichten garanderen niets
De oplossing? Verifieerbaarheid.
Evalueer het. Controleer het. Voer het uit op verifieerbare hardware.
Coördineer het verder dan een enkel controlepunt.
Van "vertrouw ons" → naar "verifieer jezelf." Dat is de verschuiving, en de grens is hier.
AI heeft een vertrouwensprobleem. Verifieerbaarheid is de oplossing.
Onze GM van AI @nima_vaziri ging zitten met @a16z’s @alive_eth en @danboneh van @Stanford om de diepste breuklijnen in AI vandaag in kaart te brengen.
☁️ Modellen waarop we niet kunnen vertrouwen ☁️
Huidige aanbieders kunnen censureren, afsluiten of regels van de ene op de andere dag veranderen. Uitbesteed trainen verbergt achterdeurtjes. Zelfs "open" gewichten bewijzen niet wat er daadwerkelijk draait.
Vertrouwen. Achterdeurtjes. Zwarte dozen.
De weg vooruit is duidelijk:
🔥 Verifieerbare evaluaties
🔥 Verifieerbare inferentie
🔥 TEEs voor hardware-ondersteunde integriteit
🔥 Infrastructuur voorbij enkele controlepunten
🔥 Blockchains als coördinatielagen voor AI
Van "vertrouw ons" naar "verifieer jezelf."
Dat is de verschuiving. Dat is de ontgrendeling.
De grens is hier. De bouwers bepalen wat er daarna komt.
Creëer en gebruik AI die in lijn is met jouw belangen.
Tijdstempels:
00:00:00 Introductie: Overzicht van de kruising tussen AI & Crypto
00:01:58 Vier Belangrijke AI-Crypto Trends
00:02:44 AI Agents Hebben Financiële Infrastructuur Nodig
00:04:03 Bewijs van Menselijkheid: Strijd tegen AI-gegenereerde Inhoud
00:04:17 Decentraliseren van AI Infrastructuurnetwerken
00:04:44 Synthetisch Leven: Autonome AI Agents
00:06:20 Verifieerbare AI
00:10:16 Huidige Prestatiecijfers voor AI Bewijzen
00:13:18 Het Tijdperk van Ervaring in AI Leren
00:14:56 AI Agents Hebben Een Eigen Leven
00:18:21 Algorithmische Billijkheid & Verifieerbare Modellen
00:23:18 Privacy in AI: Vertrouwde Uitvoeringsomgevingen
00:25:47 Economische Prikkel voor Open Gewicht Modellen
00:31:39 Toeschrijvingsprobleem: Wie Krijgt Betaling voor AI Training?
00:35:52 Inhouds Provenance & Authenticatie (C2PA)
00:48:03 AI Beveiliging: Het Vinden van Exploits & Kw vulnerabilities
00:54:53 Onderwijs Toepassingen: LLMs als Leerpartner
00:58:29 Afhankelijkheid van LLMs en Cognitieve Vermogens
01:03:57 De Vrees van Inhoudsaanbieders voor LLM Training
8,1K
44
De inhoud op deze pagina wordt geleverd door derden. Tenzij anders vermeld, is OKX niet de auteur van het (de) geciteerde artikel(en) en claimt geen auteursrecht op de materialen. De inhoud is alleen bedoeld voor informatieve doeleinden en vertegenwoordigt niet de standpunten van OKX. Het is niet bedoeld als een goedkeuring van welke aard dan ook en mag niet worden beschouwd als beleggingsadvies of een uitnodiging tot het kopen of verkopen van digitale bezittingen. Voor zover generatieve AI wordt gebruikt om samenvattingen of andere informatie te verstrekken, kan deze door AI gegenereerde inhoud onnauwkeurig of inconsistent zijn. Lees het gelinkte artikel voor meer details en informatie. OKX is niet verantwoordelijk voor inhoud gehost op sites van een derde partij. Het bezitten van digitale activa, waaronder stablecoins en NFT's, brengt een hoge mate van risico met zich mee en de waarde van deze activa kan sterk fluctueren. Overweeg zorgvuldig of de handel in of het bezit van digitale activa geschikt voor je is in het licht van je financiële situatie.