La IA tiene un problema de confianza y es más grande que los resultados sesgados o las alucinaciones
Los modelos pueden cambiar las reglas de la noche a la mañana, ocultar puertas traseras o ejecutar código que no se puede verificar
Los pesos abiertos no garantizan nada
¿La solución? Verificabilidad.
Evalúalo. Auditarlo. Ejecútelo en hardware demostrable.
Coordínalo más allá de un único punto de control.
Desde "confía en nosotros" → hasta "verifícate". Ese es el cambio, y la frontera está aquí.
La IA tiene un problema de confianza. La verificabilidad es la solución.
Nuestro gerente general de IA @nima_vaziri se sentó con el @alive_eth de @a16z y @danboneh de @Stanford para mapear las fallas más profundas de la IA en la actualidad.
☁️ Modelos en los que no podemos confiar ☁️
Los proveedores actuales pueden censurar, cerrar o cambiar las reglas de la noche a la mañana. La capacitación subcontratada esconde puertas traseras. Incluso los pesos "abiertos" no prueban lo que realmente se está ejecutando.
Confianza. Puertas traseras. Cajas negras.
El camino a seguir es claro:
🔥 Evaluaciones verificables
🔥 Inferencia verificable
🔥 TEE para integridad respaldada por hardware
🔥 Infra más allá de los puntos únicos de control
🔥 Blockchains como capas de coordinación para la IA
De "confía en nosotros" a "verifícate".
Ese es el cambio. Ese es el desbloqueo.
La frontera está aquí. Los constructores deciden lo que viene después.
Cree y use IA que esté alineada con el incentivo de usted.
Marcas de tiempo:
00:00:00 Introducción: Visión general de la intersección de IA y criptomonedas
00:01:58 Cuatro grandes tendencias de IA y criptomonedas
00:02:44 Los agentes de IA necesitan infraestructura financiera
00:04:03 Prueba de humanidad: luchando contra el contenido generado por IA
00:04:17 Descentralización de las redes de infraestructura de IA
00:04:44 Vida sintética: agentes autónomos de IA
00:06:20 IA verificable
00:10:16 Números de rendimiento actuales para pruebas de IA
00:13:18 La era de la experiencia en el aprendizaje de IA
00:14:56 Agentes de IA que tienen vida propia
00:18:21 Equidad algorítmica y modelos verificables
00:23:18 Privacidad en IA: entornos de ejecución de confianza
00:25:47 Incentivo económico para modelos de peso abierto
00:31:39 Problema de atribución: ¿A quién se le paga por el entrenamiento de IA?
00:35:52 Procedencia y autenticación de contenido (C2PA)
00:48:03 Seguridad de IA: Encontrar exploits y vulnerabilidades
00:54:53 Aplicaciones educativas: LLM como socio de aprendizaje
00:58:29 Dependencia de los LLM y las habilidades cognitivas
01:03:57 Miedo de los proveedores de contenido a la capacitación de LLM
8.07 K
44
El contenido al que estás accediendo se ofrece por terceros. A menos que se indique lo contrario, OKX no es autor de la información y no reclama ningún derecho de autor sobre los materiales. El contenido solo se proporciona con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo enlazado para más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. Los holdings de activos digitales, incluidos stablecoins y NFT, suponen un alto nivel de riesgo y pueden fluctuar mucho. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti según tu situación financiera.