AI hat ein Vertrauensproblem, und es ist größer als voreingenommene Ausgaben oder Halluzinationen
Modelle können über Nacht Regeln ändern, Hintertüren verstecken oder Code ausführen, den Sie nicht verifizieren können
Offene Gewichte garantieren nichts
Die Lösung? Verifizierbarkeit.
Bewerten Sie es. Prüfen Sie es. Führen Sie es auf nachweisbarer Hardware aus.
Koordinieren Sie es über einen einzelnen Kontrollpunkt hinaus.
Von "Vertrauen Sie uns" → zu "Überprüfen Sie selbst." Das ist der Wandel, und die Grenze ist hier.
AI hat ein Vertrauensproblem. Überprüfbarkeit ist die Lösung.
Unser GM von AI @nima_vaziri hat sich mit @a16z’s @alive_eth und @danboneh von @Stanford zusammengesetzt, um die tiefsten Bruchlinien in der AI von heute zu kartieren.
☁️ Modelle, denen wir nicht vertrauen können ☁️
Aktuelle Anbieter können zensieren, abschalten oder die Regeln über Nacht ändern. Ausgelagerte Schulungen verbergen Hintertüren. Selbst "offene" Gewichte beweisen nicht, was tatsächlich läuft.
Vertrauen. Hintertüren. Schwarze Kästen.
Der Weg nach vorne ist klar:
🔥 Überprüfbare Bewertungen
🔥 Überprüfbare Inferenz
🔥 TEEs für hardwaregestützte Integrität
🔥 Infrastruktur jenseits einzelner Kontrollpunkte
🔥 Blockchains als Koordinationsschichten für AI
Von "vertraue uns" zu "überprüfe selbst."
Das ist der Wandel. Das ist der Schlüssel.
Die Grenze ist hier. Die Entwickler entscheiden, was als Nächstes kommt.
Erstelle und nutze AI, die mit dir incentiviert ausgerichtet ist.
Zeitstempel:
00:00:00 Einführung: Überblick über die Schnittstelle von AI & Krypto
00:01:58 Vier große AI-Krypto-Trends
00:02:44 AI-Agenten benötigen finanzielle Infrastruktur
00:04:03 Proof of Humanity: Bekämpfung von AI-generierten Inhalten
00:04:17 Dezentralisierung von AI-Infrastruktur-Netzwerken
00:04:44 Synthetisches Leben: Autonome AI-Agenten
00:06:20 Überprüfbare AI
00:10:16 Aktuelle Leistungszahlen für AI-Beweise
00:13:18 Die Ära der Erfahrung im AI-Lernen
00:14:56 AI-Agenten, die ein eigenes Leben führen
00:18:21 Algorithmische Fairness & überprüfbare Modelle
00:23:18 Datenschutz in AI: Vertrauenswürdige Ausführungsumgebungen
00:25:47 Wirtschaftlicher Anreiz für offene Gewichtmodelle
00:31:39 Attributionsproblem: Wer wird für das AI-Training bezahlt?
00:35:52 Inhaltsherkunft & Authentifizierung (C2PA)
00:48:03 AI-Sicherheit: Finden von Exploits & Schwachstellen
00:54:53 Bildungsanwendungen: LLMs als Lernpartner
00:58:29 Abhängigkeit von LLMs und kognitiven Fähigkeiten
01:03:57 Angst der Inhaltsanbieter vor LLM-Training
8.061
44
Der Inhalt dieser Seite wird von Drittparteien bereitgestellt. Sofern nicht anders angegeben, ist OKX nicht der Autor der zitierten Artikel und erhebt keinen Anspruch auf das Urheberrecht an den Materialien. Die Inhalte dienen ausschließlich zu Informationszwecken und spiegeln nicht die Ansichten von OKX wider. Sie stellen keine Form der Empfehlung dar und sind weder als Anlageberatung noch als Aufforderung zum Kauf oder Verkauf digitaler Assets zu verstehen. Soweit generative KI zur Bereitstellung von Zusammenfassungen oder anderen Informationen eingesetzt wird, kann der dadurch erzeugte Inhalt ungenau oder widersprüchlich sein. Mehr Infos findest du im verlinkten Artikel. OKX haftet nicht für Inhalte, die auf Drittpartei-Websites gehostet werden. Digitale Assets, einschließlich Stablecoins und NFT, bergen ein hohes Risiko und können stark schwanken. Du solltest sorgfältig überlegen, ob der Handel mit oder das Halten von digitalen Assets angesichts deiner finanziellen Situation für dich geeignet ist.