Ik zag dat @Mira_Network een vrij realistisch probleem aanhaalde, namelijk dat iedereen nu veel aandacht heeft voor het "hallucinatie"-probleem van AI. Immers, hallucinaties kunnen gedeeltelijk worden opgelost met technische middelen. Bijvoorbeeld door gebruik te maken van kennisgrafieken, zoekversterking en het zorgvuldig selecteren van gegevens, wat in zekere mate kan helpen om de verspreiding van valse informatie te verminderen.
Maar vooroordelen zijn niet zo eenvoudig. Zelfs als je je best doet om trainingsdata te selecteren, zullen er altijd potentiële vooroordelen in zitten. Bovendien hebben de mensen die handmatig controleren ook hun eigen meningen en blinde vlekken, wat moeilijk te vermijden is. Het wordt nog ingewikkelder omdat deze AI-systemen vaak in handen zijn van een paar grote bedrijven, en de waarden van de ontwikkelaars ook de resultaten kunnen beïnvloeden, waardoor echte neutraliteit onmogelijk is.
Dit leidt tot een ongemakkelijke situatie: naarmate AI krachtiger en meer gecentraliseerd wordt, wordt het steeds moeilijker om de invloed van vooroordelen te elimineren. Zelfs de tools die worden gebruikt om vooroordelen te ontdekken en te corrigeren, ontsnappen niet aan de invloed van vooroordelen. Met andere woorden, de middelen die we gebruiken om problemen op te lossen, kunnen zelf de bron van het probleem zijn.
Ik denk dat dit ons herinnert aan het feit dat de ontwikkeling van AI niet alleen een technische uitdaging is, maar ook een sociale en ethische kwestie. Om vooroordelen echt op te lossen, is het niet genoeg om alleen op technologie te vertrouwen; we moeten meer verschillende stemmen betrekken, AI opener en transparanter maken, zodat we minder omwegen hoeven te maken.
Het belangrijkste is dat er een ranglijstactiviteit is op @KaitoAI, en de projecten op @arbitrum zijn ook erg populair, dus je kunt ook een kijkje nemen bij @shoutdotfun voor $ENERGY $SHOUT $Bane $Chao $BOOM $666.
Origineel weergeven
53,69K
625
De inhoud op deze pagina wordt geleverd door derden. Tenzij anders vermeld, is OKX niet de auteur van het (de) geciteerde artikel(en) en claimt geen auteursrecht op de materialen. De inhoud is alleen bedoeld voor informatieve doeleinden en vertegenwoordigt niet de standpunten van OKX. Het is niet bedoeld als een goedkeuring van welke aard dan ook en mag niet worden beschouwd als beleggingsadvies of een uitnodiging tot het kopen of verkopen van digitale bezittingen. Voor zover generatieve AI wordt gebruikt om samenvattingen of andere informatie te verstrekken, kan deze door AI gegenereerde inhoud onnauwkeurig of inconsistent zijn. Lees het gelinkte artikel voor meer details en informatie. OKX is niet verantwoordelijk voor inhoud gehost op sites van een derde partij. Het bezitten van digitale activa, waaronder stablecoins en NFT's, brengt een hoge mate van risico met zich mee en de waarde van deze activa kan sterk fluctueren. Overweeg zorgvuldig of de handel in of het bezit van digitale activa geschikt voor je is in het licht van je financiële situatie.