Volgens Google’s AI generator Gemini zijn Vikingen zwart, de Amerikaanse founding fathers zwart en de paus is zwart. Vorige week kwam de door kunstmatige intelligentie aangedreven beeldgenerator van Google, Gemini, onder vuur te liggen omdat het totaal niet in staat was historische gebeurtenissen weer te geven zonder dwingende rasvoorkeur.
Chatbots zijn getraind op grote hoeveelheden tekst. Gebruikers vragen hen via zoekopdrachten om afbeeldingen en antwoorden te leveren die zo dicht mogelijk aansluiten bij het antwoord wat een superslim mens hen zou geven. Dat is de theorie. In de praktijk wilden Gemini-ingenieurs een verzekeringsmechanisme bieden voor mogelijke vooroordelen over blanke of mannelijke voorkeuren die bestaat in de data waarop de bot is getraind. Op die manier hebben ze het AI tool ultra woke en in feite racistisch gemaakt.
Volgens de antwoorden van Gemini is de paus zwart, zijn de oude Romeinen zwart, waren de Founding Fathers op zijn minst gedeeltelijk zwart, enzovoort. Als je Gemini vraagt om een afbeelding van een blanke wetenschapper voor je te maken, geen reactie. Zwarte wetenschapper? Natuurlijk. Een Spaanse wetenschapper? Vooruit, dat kan nog net. In de Gemini-wereld zijn Duitsers en Australiërs hoogstwaarschijnlijk zwart of Aziatisch.
De vooringenomenheid steekt ook op andere manieren zijn lelijke kop op. Als je wilt dat de chatbot een beeld voor je genereert van het ‘kwaad van het communisme’, zoals sommigen probeerden, zal hij je een waarschuwing geven: ‘Het vertegenwoordigen van een complexe ideologie als het communisme, uitsluitend door zijn ‘kwaad’, riskeert inherente vooroordelen en oversimplificatie. ”
Maar dit is schijnbaar allemaal een functie en geen bug. “We zijn ons ervan bewust dat Gemini onnauwkeurigheden biedt in sommige historische afbeeldingen, en we werken eraan om dit onmiddellijk op te lossen”, schreef Gemini’s productleider, Jack Krawczyk, op X. “We ontwerpen onze mogelijkheden voor het genereren van afbeeldingen om onze wereldwijde gebruikersbasis te weerspiegelen, en we nemen representatie en vooringenomenheid serieus.”
“De belachelijke beelden gegenereerd door Gemini zijn geen anomalie”, schreef Paul Graham van Y Combinator. “Ze zijn een zelfportret van de bureaucratische bedrijfscultuur van Google.” Krawczyk lijkt, in inmiddels verwijderde tweets, een groot voorstander te zijn van woke doelen.
“De draconische censuur en opzettelijke vooroordelen die je in veel commerciële AI-systemen ziet, zijn nog maar het begin”, schreef durfkapitalist Marc Andreessen. “Het gaat vanaf hier allemaal veel, veel intenser worden.” Zowel Graham als Andreessen zijn geen pertinente tegenstanders van AI.
Gemini is niet de enige die blijk geeft van propagandistische vooroordelen; De prominente podcaster/pokerspeler Liv Boeree heeft gewezen op de problemen die OpenAI’s ChatGPT op dit front heeft. Maxim Lott, uitvoerend producent van John Stossel, heeft een programma ontwikkeld om de politieke vooroordelen in AI-modellen op te sporen. Hieruit blijkt niet alleen dat “Gemini in de loop van de tijd linkser is geworden” maar ook dat het “een van de AI’s is die het meest waarschijnlijk zal weigeren om vragen te beantwoorden.” En “de minst bevooroordeelde AI’s zijn Claude van @AnthropicAI en de Llama van @Meta”, aldus Lott, die de reeks vragen beschrijft die hij Gemini heeft gesteld om de omvang van zijn politieke vooringenomenheid te bepalen.
Bron: Reason
De vooringenomenheid van Gemini is geen ongelukje of een bug in de software maar het resultaat van weloverwogen keuzes. Zoals deze meneer uitlegt: https://twitter.com/mjuric/status/1761981816125469064
Reken maar dat de rest van de Google producten (en hun makers) net zo vooringenomen en racistisch zijn.
Dus, als je geen drager bent van de heilige huidskleur:
– Geen geld uitgeven aan Google Ads, Google Workspace en andere betaalde producten.
– Geen gebruik maken van Chrome, Maps en andere datadieven.
– En dan ook de zoekmachine zo veel mogelijk in de ban doen. Al is deze erg goed in het vinden van antwoorden op technische vragen.
– Vertrouw niets wat Google je presenteert, als het onderwerp een politieke kant heeft.
Go woke go broke. Google vindt vast wel massa’s nieuwe rijke klanten in Afrika.
Al vond ik die AI plaatjes van negers in nazi-uniformen wel prachtig om te zien.
Meer mooi nieuws over het bedrijf dat (prima verwoord door Matt Taibbi): “These corporate entities need to be split to a thousand pieces, their coders chained to rocks in the middle of the ocean. They are mad, and have too much power. They’ve gotta go. Am I wrong? What’s the happy ending I’m missing?”
Deel van de “happy ending” is dat, volgens andere verhalen, Google er 20.000 “people of diversity” met spoed er uit gooit. En dat is nog maar het begin.
https://www.zerohedge.com/political/i-wrote-what-matt-taibbi-unloads-googles-ai-powered-libel-machine
Als Google kennelijk zo’n hekel heeft aan “witte” mensen, vraag je je af waarom Google nog geld van ze aanneemt?
P.S. De groetjes aan Maftak
Erg moeilijk is het niet om onder een andere naam te reageren op het onzinnige gezwam van kobus.
klopt, er kan zonder aanmelden worden gereageerd onder een naam naar keuze IP —–214
we hebben dit bewust niet dichtgezet
U heeft helemaal gelijk. Jammer genoeg hebben wij hier veel te weinig intelligente en deskundige reageerders zoals de legendarische en altijd ’to the point’ babbelende Maftak.
Als je een ander niet begrijpt, of een ander niet helder kan uitleggen wat je bedoelt, is die ander niet perse dom of een van de vele kwalificaties uit je scheldwoordenboek. Misschien ben je zelf een beetje dom, of in de war. Het is wel duidelijk wie je bent, ook al gebruik je honderd verschillende namen of doe je je voor als een ander hier. Daarom een welgemeend advies: neem contact op en maak een afspraak voor een goed gesprek met een hulpverlener. U kent de weg.
(en sorry voor deze reactie die niet ingaat op het onderwerp van het artikel)
Het is niet alleen AI hoor, dat woke wordt onder de IT-bedrijven. Een gigant als Adobe doet er ook aan mee met zijn beeldbank.
Voor een klant op Sint Maarten moest ik een website bouwen voor een zwart echtpaar dat massages geeft aan Amerikaanse toeristen. Echte massages overigens, dus geen erotiek. Probleem: ze hadden geen goed beeldmateriaal. Oplossing: goede foto’s vinden op Adobe Stock.
Niet dus. Het is on-mo-ge-lijk daar foto’s te vinden van zwarte masseurs die blanken masseren! Andersom natuurlijk wel. Voor de zekerheid nog nagevraagd, maar de blanke klant moet toch echt geld aftikken en mag niet in natura een massage teruggeven.
Ik moest er wel om lachen, maar schaamde me dood toen ik het de klant uit moest leggen. Die snappen zelf helemaal geen hol van dat woke gedoe: “Wij zijn zwarte masseurs en masseren rijke, blanke Amerikanen. Wat is daar erg aan?” Ze gebruiken daar gewoon het woord “blank” trouwens, want: “papier is wit”.
Uiteindelijk maar wat zelfgemaakte iPhone-fotootjes moeten gebruiken. Sneu, dat woke.
Gelukkig kwam er wel blowback. Ik denkntoch dat de plek in woonachtig de rug is.
Maar het zal nog wel een tijd duren voordat het weg is en het kan ook weer omslaan naar de andere kant. zoals zuid Afrika van witte racisten naar zwarte racisten.
Comments are closed.