AI are o problemă de încredere și este mai mare decât rezultatele părtinitoare sau halucinațiile
Modelele pot schimba regulile peste noapte, pot ascunde ușile din spate sau pot rula cod pe care nu îl puteți verifica
Greutățile deschise nu garantează nimic
Soluția? Verificabilitate.
Evaluează-l. Auditați-l. Rulați-l pe hardware demonstrabil.
Coordonați-l dincolo de un singur punct de control.
De la "ai încredere în noi" → la "verifică-te". Aceasta este schimbarea, iar frontiera este aici.
AI are o problemă de încredere. Verificabilitatea este soluția.
Directorul nostru general de AI @nima_vaziri stat de vorbă cu @a16z @alive_eth și @danboneh de @Stanford pentru a cartografia cele mai adânci linii de falie din AI astăzi.
☁️ Modele în care nu putem avea încredere ☁️
Furnizorii actuali pot cenzura, închide sau schimba regulile peste noapte. Instruirea externalizată ascunde ușile din spate. Nici măcar greutățile "deschise" nu dovedesc ce rulează de fapt.
Trust. Backdoors. Cutii negre.
Calea de urmat este clară:
🔥 Evaluări verificabile
🔥 Inferență verificabilă
🔥 TEE-uri pentru integritate susținută de hardware
🔥 Infra dincolo de punctele unice de control
🔥 Blockchain-urile ca straturi de coordonare pentru AI
De la "ai încredere în noi" la "verifică-te".
Asta este schimbarea. Aceasta este deblocarea.
Frontiera este aici. Constructorii decid ce urmează.
Creați și utilizați inteligența artificială care este un stimulent aliniat cu dvs.
Marcajele:
00:00:00 Introducere: Prezentare generală a intersecției AI și cripto
00:01:58 Patru tendințe majore AI-Crypto
00:02:44 Agenții AI au nevoie de infrastructură financiară
00:04:03 Dovada umanității: combaterea conținutului generat de inteligență artificială
00:04:17 Descentralizarea rețelelor de infrastructură AI
00:04:44 Viața sintetică: agenți autonomi AI
00:06:20 AI verificabil
00:10:16 Cifre actuale de performanță pentru dovezile AI
00:13:18 Era experienței în învățarea AI
00:14:56 Agenții AI au viață proprie
00:18:21 Corectitudine algoritmică și modele verificabile
00:23:18 Confidențialitate în AI: medii de execuție de încredere
00:25:47 Stimulent economic pentru modelele cu greutate deschisă
00:31:39 Problema de atribuire: Cine este plătit pentru antrenamentul AI?
00:35:52 Proveniența și autentificarea conținutului (C2PA)
00:48:03 Securitatea AI: Găsirea exploit-urilor și vulnerabilităților
00:54:53 Aplicații educaționale: LLM-urile ca partener de învățare
00:58:29 Încrederea în LLM-uri și abilități cognitive
01:03:57 Teama furnizorilor de conținut de instruirea LLM
8,09 K
44
Conținutul de pe această pagină este furnizat de terți. Dacă nu se menționează altfel, OKX nu este autorul articolului citat și nu revendică niciun drept intelectual pentru materiale. Conținutul este furnizat doar pentru informare și nu reprezintă opinia OKX. Nu este furnizat pentru a fi o susținere de nicio natură și nu trebuie să fie considerat un sfat de investiție sau o solicitare de a cumpăra sau vinde active digitale. În măsura în care AI-ul de generare este utilizat pentru a furniza rezumate sau alte informații, astfel de conținut generat de AI poate să fie inexact sau neconsecvent. Citiți articolul asociat pentru mai multe detalii și informații. OKX nu răspunde pentru conținutul găzduit pe pagini terțe. Deținerile de active digitale, inclusiv criptomonedele stabile și NFT-urile, prezintă un grad ridicat de risc și pot fluctua semnificativ. Trebuie să analizați cu atenție dacă tranzacționarea sau deținerea de active digitale este adecvată pentru dumneavoastră prin prisma situației dumneavoastră financiare.