La IA tiene un problema de confianza y es más grande que los resultados sesgados o las alucinaciones. Los modelos pueden cambiar las reglas de la noche a la mañana, ocultar puertas traseras o ejecutar código que no puedes verificar. Los pesos abiertos no garantizan nada. ¿La solución? Verificabilidad. Evalúalo. Audítalo. Ejecútalo en hardware verificable. Coordínalo más allá de un único punto de control. De "confía en nosotros" → a "verifícate a ti mismo". Ese es el cambio, y la frontera está aquí.
La IA tiene un problema de confianza. La verificabilidad es la solución. Nuestro GM de IA @nima_vaziri se sentó con @a16z’s @alive_eth y @danboneh de @Stanford para mapear las líneas de falla más profundas en la IA hoy. ☁️ Modelos en los que no podemos confiar ☁️ Los proveedores actuales pueden censurar, cerrar o cambiar las reglas de la noche a la mañana. La formación externalizada oculta puertas traseras. Incluso los pesos "abiertos" no demuestran lo que realmente está funcionando. Confianza. Puertas traseras. Cajas negras. El camino a seguir es claro: 🔥 Evaluaciones verificables 🔥 Inferencia verificable 🔥 TEEs para integridad respaldada por hardware 🔥 Infraestructura más allá de puntos únicos de control 🔥 Blockchains como capas de coordinación para la IA De "confía en nosotros" a "verifica tú mismo." Ese es el cambio. Esa es la clave. La frontera está aquí. Los creadores deciden qué viene después. Crea y usa IA que esté alineada con tus incentivos. Tiempos: 00:00:00 Introducción: Visión general de la intersección entre IA y Crypto 00:01:58 Cuatro tendencias principales de IA-Crypto 00:02:44 Los agentes de IA necesitan infraestructura financiera 00:04:03 Prueba de humanidad: Luchando contra el contenido generado por IA 00:04:17 Descentralizando las redes de infraestructura de IA 00:04:44 Vida sintética: Agentes de IA autónomos 00:06:20 IA verificable 00:10:16 Números de rendimiento actuales para pruebas de IA 00:13:18 La era de la experiencia en el aprendizaje de IA 00:14:56 Agentes de IA teniendo vida propia 00:18:21 Equidad algorítmica y modelos verificables 00:23:18 Privacidad en IA: Entornos de ejecución confiables 00:25:47 Incentivo económico para modelos de pesos abiertos 00:31:39 Problema de atribución: ¿Quién recibe el pago por la formación de IA? 00:35:52 Procedencia y autenticación de contenido (C2PA) 00:48:03 Seguridad de IA: Encontrando exploits y vulnerabilidades 00:54:53 Aplicaciones educativas: LLMs como compañero de aprendizaje 00:58:29 Dependencia de LLMs y habilidades cognitivas 01:03:57 Miedo de los proveedores de contenido a la formación de LLMs
Mostrar original
8,09 mil
44
El contenido de esta página lo proporcionan terceros. A menos que se indique lo contrario, OKX no es el autor de los artículos citados y no reclama ningún derecho de autor sobre los materiales. El contenido se proporciona únicamente con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo vinculado para obtener más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. El holding de activos digitales, incluyendo stablecoins y NFT, implican un alto grado de riesgo y pueden fluctuar en gran medida. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti a la luz de tu situación financiera.