AI are o problemă de încredere și este mai mare decât rezultatele părtinitoare sau halucinațiile Modelele pot schimba regulile peste noapte, pot ascunde ușile din spate sau pot rula cod pe care nu îl puteți verifica Greutățile deschise nu garantează nimic Soluția? Verificabilitate. Evaluează-l. Auditați-l. Rulați-l pe hardware demonstrabil. Coordonați-l dincolo de un singur punct de control. De la "ai încredere în noi" → la "verifică-te". Aceasta este schimbarea, iar frontiera este aici.
AI are o problemă de încredere. Verificabilitatea este soluția. Directorul nostru general de AI @nima_vaziri stat de vorbă cu @a16z @alive_eth și @danboneh de @Stanford pentru a cartografia cele mai adânci linii de falie din AI astăzi. ☁️ Modele în care nu putem avea încredere ☁️ Furnizorii actuali pot cenzura, închide sau schimba regulile peste noapte. Instruirea externalizată ascunde ușile din spate. Nici măcar greutățile "deschise" nu dovedesc ce rulează de fapt. Trust. Backdoors. Cutii negre. Calea de urmat este clară: 🔥 Evaluări verificabile 🔥 Inferență verificabilă 🔥 TEE-uri pentru integritate susținută de hardware 🔥 Infra dincolo de punctele unice de control 🔥 Blockchain-urile ca straturi de coordonare pentru AI De la "ai încredere în noi" la "verifică-te". Asta este schimbarea. Aceasta este deblocarea. Frontiera este aici. Constructorii decid ce urmează. Creați și utilizați inteligența artificială care este un stimulent aliniat cu dvs. Marcajele: 00:00:00 Introducere: Prezentare generală a intersecției AI și cripto 00:01:58 Patru tendințe majore AI-Crypto 00:02:44 Agenții AI au nevoie de infrastructură financiară 00:04:03 Dovada umanității: combaterea conținutului generat de inteligență artificială 00:04:17 Descentralizarea rețelelor de infrastructură AI 00:04:44 Viața sintetică: agenți autonomi AI 00:06:20 AI verificabil 00:10:16 Cifre actuale de performanță pentru dovezile AI 00:13:18 Era experienței în învățarea AI 00:14:56 Agenții AI au viață proprie 00:18:21 Corectitudine algoritmică și modele verificabile 00:23:18 Confidențialitate în AI: medii de execuție de încredere 00:25:47 Stimulent economic pentru modelele cu greutate deschisă 00:31:39 Problema de atribuire: Cine este plătit pentru antrenamentul AI? 00:35:52 Proveniența și autentificarea conținutului (C2PA) 00:48:03 Securitatea AI: Găsirea exploit-urilor și vulnerabilităților 00:54:53 Aplicații educaționale: LLM-urile ca partener de învățare 00:58:29 Încrederea în LLM-uri și abilități cognitive 01:03:57 Teama furnizorilor de conținut de instruirea LLM
Afișare original
8,09 K
44
Conținutul de pe această pagină este furnizat de terți. Dacă nu se menționează altfel, OKX nu este autorul articolului citat și nu revendică niciun drept intelectual pentru materiale. Conținutul este furnizat doar pentru informare și nu reprezintă opinia OKX. Nu este furnizat pentru a fi o susținere de nicio natură și nu trebuie să fie considerat un sfat de investiție sau o solicitare de a cumpăra sau vinde active digitale. În măsura în care AI-ul de generare este utilizat pentru a furniza rezumate sau alte informații, astfel de conținut generat de AI poate să fie inexact sau neconsecvent. Citiți articolul asociat pentru mai multe detalii și informații. OKX nu răspunde pentru conținutul găzduit pe pagini terțe. Deținerile de active digitale, inclusiv criptomonedele stabile și NFT-urile, prezintă un grad ridicat de risc și pot fluctua semnificativ. Trebuie să analizați cu atenție dacă tranzacționarea sau deținerea de active digitale este adecvată pentru dumneavoastră prin prisma situației dumneavoastră financiare.