La IA tiene un problema de confianza y es más grande que los resultados sesgados o las alucinaciones Los modelos pueden cambiar las reglas de la noche a la mañana, ocultar puertas traseras o ejecutar código que no se puede verificar Los pesos abiertos no garantizan nada ¿La solución? Verificabilidad. Evalúalo. Auditarlo. Ejecútelo en hardware demostrable. Coordínalo más allá de un único punto de control. Desde "confía en nosotros" → hasta "verifícate". Ese es el cambio, y la frontera está aquí.
La IA tiene un problema de confianza. La verificabilidad es la solución. Nuestro gerente general de IA @nima_vaziri se sentó con el @alive_eth de @a16z y @danboneh de @Stanford para mapear las fallas más profundas de la IA en la actualidad. ☁️ Modelos en los que no podemos confiar ☁️ Los proveedores actuales pueden censurar, cerrar o cambiar las reglas de la noche a la mañana. La capacitación subcontratada esconde puertas traseras. Incluso los pesos "abiertos" no prueban lo que realmente se está ejecutando. Confianza. Puertas traseras. Cajas negras. El camino a seguir es claro: 🔥 Evaluaciones verificables 🔥 Inferencia verificable 🔥 TEE para integridad respaldada por hardware 🔥 Infra más allá de los puntos únicos de control 🔥 Blockchains como capas de coordinación para la IA De "confía en nosotros" a "verifícate". Ese es el cambio. Ese es el desbloqueo. La frontera está aquí. Los constructores deciden lo que viene después. Cree y use IA que esté alineada con el incentivo de usted. Marcas de tiempo: 00:00:00 Introducción: Visión general de la intersección de IA y criptomonedas 00:01:58 Cuatro grandes tendencias de IA y criptomonedas 00:02:44 Los agentes de IA necesitan infraestructura financiera 00:04:03 Prueba de humanidad: luchando contra el contenido generado por IA 00:04:17 Descentralización de las redes de infraestructura de IA 00:04:44 Vida sintética: agentes autónomos de IA 00:06:20 IA verificable 00:10:16 Números de rendimiento actuales para pruebas de IA 00:13:18 La era de la experiencia en el aprendizaje de IA 00:14:56 Agentes de IA que tienen vida propia 00:18:21 Equidad algorítmica y modelos verificables 00:23:18 Privacidad en IA: entornos de ejecución de confianza 00:25:47 Incentivo económico para modelos de peso abierto 00:31:39 Problema de atribución: ¿A quién se le paga por el entrenamiento de IA? 00:35:52 Procedencia y autenticación de contenido (C2PA) 00:48:03 Seguridad de IA: Encontrar exploits y vulnerabilidades 00:54:53 Aplicaciones educativas: LLM como socio de aprendizaje 00:58:29 Dependencia de los LLM y las habilidades cognitivas 01:03:57 Miedo de los proveedores de contenido a la capacitación de LLM
Mostrar original
8.07 K
44
El contenido al que estás accediendo se ofrece por terceros. A menos que se indique lo contrario, OKX no es autor de la información y no reclama ningún derecho de autor sobre los materiales. El contenido solo se proporciona con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo enlazado para más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. Los holdings de activos digitales, incluidos stablecoins y NFT, suponen un alto nivel de riesgo y pueden fluctuar mucho. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti según tu situación financiera.