La IA tiene un problema de confianza y es más grande que los resultados sesgados o las alucinaciones.
Los modelos pueden cambiar las reglas de la noche a la mañana, ocultar puertas traseras o ejecutar código que no puedes verificar.
Los pesos abiertos no garantizan nada.
¿La solución? Verificabilidad.
Evalúalo. Audítalo. Ejecútalo en hardware verificable.
Coordínalo más allá de un único punto de control.
De "confía en nosotros" → a "verifícate a ti mismo". Ese es el cambio, y la frontera está aquí.
La IA tiene un problema de confianza. La verificabilidad es la solución.
Nuestro GM de IA @nima_vaziri se sentó con @a16z’s @alive_eth y @danboneh de @Stanford para mapear las líneas de falla más profundas en la IA hoy.
☁️ Modelos en los que no podemos confiar ☁️
Los proveedores actuales pueden censurar, cerrar o cambiar las reglas de la noche a la mañana. La formación externalizada oculta puertas traseras. Incluso los pesos "abiertos" no demuestran lo que realmente está funcionando.
Confianza. Puertas traseras. Cajas negras.
El camino a seguir es claro:
🔥 Evaluaciones verificables
🔥 Inferencia verificable
🔥 TEEs para integridad respaldada por hardware
🔥 Infraestructura más allá de puntos únicos de control
🔥 Blockchains como capas de coordinación para la IA
De "confía en nosotros" a "verifica tú mismo."
Ese es el cambio. Esa es la clave.
La frontera está aquí. Los creadores deciden qué viene después.
Crea y usa IA que esté alineada con tus incentivos.
Tiempos:
00:00:00 Introducción: Visión general de la intersección entre IA y Crypto
00:01:58 Cuatro tendencias principales de IA-Crypto
00:02:44 Los agentes de IA necesitan infraestructura financiera
00:04:03 Prueba de humanidad: Luchando contra el contenido generado por IA
00:04:17 Descentralizando las redes de infraestructura de IA
00:04:44 Vida sintética: Agentes de IA autónomos
00:06:20 IA verificable
00:10:16 Números de rendimiento actuales para pruebas de IA
00:13:18 La era de la experiencia en el aprendizaje de IA
00:14:56 Agentes de IA teniendo vida propia
00:18:21 Equidad algorítmica y modelos verificables
00:23:18 Privacidad en IA: Entornos de ejecución confiables
00:25:47 Incentivo económico para modelos de pesos abiertos
00:31:39 Problema de atribución: ¿Quién recibe el pago por la formación de IA?
00:35:52 Procedencia y autenticación de contenido (C2PA)
00:48:03 Seguridad de IA: Encontrando exploits y vulnerabilidades
00:54:53 Aplicaciones educativas: LLMs como compañero de aprendizaje
00:58:29 Dependencia de LLMs y habilidades cognitivas
01:03:57 Miedo de los proveedores de contenido a la formación de LLMs
8,09 mil
44
El contenido de esta página lo proporcionan terceros. A menos que se indique lo contrario, OKX no es el autor de los artículos citados y no reclama ningún derecho de autor sobre los materiales. El contenido se proporciona únicamente con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo vinculado para obtener más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. El holding de activos digitales, incluyendo stablecoins y NFT, implican un alto grado de riesgo y pueden fluctuar en gran medida. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti a la luz de tu situación financiera.