Bronnen bij Methodes, begrippen: algoritmes

Inleiding

De wereld wordt geregeerd of beter geterroriseerd door alfa's, die alles wat van de bèta-kant komt wantrouwt tot op het bot . Van gewoon redelijkheid, want de vijand van emoties, tot kernenergie, want niet begrepen.

En terecht, die afkeer: de ratio en hang naar de werkelijkheid is een dodelijk gevaar voor de oneindige stroom taalmanipulatie en leugens die de alfa's gebruiken om hun dominantie te bestendigen. De verbale terreur die je tegemoet komt als je een krant opslaat of de televisie aanzet als het over sociaal-maatschappelijke zaken gaat. "De politiek", en dergelijke. Volkswijsheid: "Wanneer liegt een politicus? Antwoord: wanneer hij zijn mond opendoet". Zijnde een specifiek geval van "Wanneer liegt de alfa-intellectuele elite in bestuur en media? Antwoord: Wanneer ze hun mond opendoen".

Die oneindige stroom taalmanipulatie en leugens en dus verbale terreur zijn noodzakelijk door een algemeen menselijke geesteszwakte, die bij alfa's bijna altijd dodelijk toeslaat: de behoefte in de vastigheden en absoluutheden van de ideologie , in zijn oudere vormen bekend als religie , en in zijn moderne vormen als "De Gelijkheid der Culturen" en "Mensenrechten" en dergelijke  .

Hier betreft die terreur de laatste ontwikkeling in de informatietechnologie: het algoritme.

Nu wordt in de ICT zelf de term "algoritme" algemeen gebruikt voor een combinatie van computeropdrachten die een bepaalde functie of regel uitvoeren, meestal op wat ingewikkelder niveau. In de maatschappelijke discussie gaat het over de hogere versies, die verbanden tussen databestanden onderzoeken. Eigenlijk doodgewoon als verlenging van de statistiek.

In de statistiek hebben de statistici, vrijwel altijd sociologen, een dikke vinger in de pap van wat de uitkomsten worden, vooral door de keuze van onderwerp (alles aangaande ras en aangaande intelligentie is verboden), de keuze van vragen, en de keuze van publiek . Instituten als het CBS uitleg of detail en SCP uitleg of detail produceren vrijwel uitsluitend elite-wenselijke en politiek-correcte resultaten.

De algoritmes die daarnaast gebruikt zijn gaan worden kunnen veel grotere databestanden aan, bestanden die niet gebaseerd zijn op het stellen van vragen aan bepaalde mensen maar gewoon via ongerelateerde manieren zijn verzameld, het zogenaamde data-mining uitleg of detail .

Vroeger vroeg de controleur of de onderzoeker aan iemand met een uitkering wat ze hadden uitgegeven, met databestanden kan je het bestand van uitkeringsgerechtigden koppelen aan het bestand van autobezitters via het kentekenregister, en zo de fraudeurs met duurdere auto's eruit halen (criminelen vroegen nogal eens een uitkering aan om niet op te vallen als crimineel).

Maar zelfs dit verband is ingewikkelder dan het lijkt zodra je geleidelijke grenzen moet gebruiken en meer factoren mee moet nemen.

In de tweede fase van ontwikkeling van dit soort algoritmes kwamen wat heet "neurale netwerken", die dus enigszins lijken op hoe neuronen werken in het brein. Het brein ziet patronen die nauwelijks of niet in standaard-computerregels uit te drukken zijn, en neurale netwerken doen dat na met computerregels. Met als eerste grootschalig toegepaste voorbeeld dat van de herkenning van schrift, beginnende met het kunnen lezen van bankafschriften, waar aanvankelijk de eis aan gesteld moest worden dat ieder cijfer in een eigen vakje stond.

Tegenwoordig gaat bijna iedere geschreven reeks cijfers zonder probleem, en inmiddels geldt dit ook steeds meer voor letters - iedereen kan het proberen op websites die "online ocr" aanbieden, 'ocr' staande voor "optical character recognition". Vrijwel alle vormen van drukwerk zijn geen enkel probleem meer.

Maar essentieel aan het neurale netwerk was dat je het moest trainen: je gaf ze een groot aantal tests voor, en vertelde wat de goede en foute zijn - het netwerk, dat begint met niets-herkennen, stelt zichzelf dan in.

En op dit punt zijn we in de huidige tijd, 2022, waar de laatste ontwikkelingen komen in de vorm van algoritmes die zelf verbanden uit de databestanden halen. Verbanden uitsluitend en alleen van de soort "Als getal A hoog, dan getal B hoog". Het algoritme heeft verder geen enkel benul waar A en B voor staan.

Deze nieuwe neurale netwerken, algoritmes, hoef je niet te trainen in dat een dubbele nationaliteit een extra risico voor fraude is (niet-opgegeven huizen in het buitenland, geen wel-opgegeven kinderen al dan niet in het buitenland). Daar komen ze zelf achter.

Ze leggen zelf verbanden tussen de namen van veroordeelden voor fraude uit de databestanden van de rechtbanken, en verbanden tussen namen en afkomst uit het buitenland.

Maar dat is natuurlijk hartstikke fout van die algoritmes, want één de strengste gangbare alfa-theorieën is dat alle mensen en alle groepen mensen gelijk zijn, ongeacht geografische en etnische afkomst.

Iedereen die dat tegenspreekt wordt achtervolgd en geterroriseerd met beschuldigingen van RACISME!!! en erger uitleg of detail .

En dus moeten ook de algoritmes die dit tegenspreken verboden worden.

En de weg naar verbod is via een campagne van verdacht en zwart maken.

Hieronder volgt een verzameling bronnen uit die campagne.

De meeste van die bron-artikelen gebruiken het volgende redenatie-schema:
 -  De uitkomst is FOUT!!!
 -  Dus, ergo, q.e.d.: de bron is FOUT!!!
    En indien ter sprake komt waarom de uitkomst FOUT!!! zou zijn:
 -  De uitkomst is in strijd met "De Gelijkheid der Culturen".
 -  Dus, ergo, q.e.d.: de bron is FOUT!!!

In deze inleiding bespreken we er eentje omdat die daarop een uitzondering vormt, en desondanks het proces weergeeft (de Volkskrant, 24-06-2022, door Daan Ballegeer):
  De kracht van statistiek

Interview | Tim Harford, econoom

'Als mensen beter geïnformeerd zijn nemen controverses toe'

Cijfers kunnen de wereld redden, meent de invloedrijke Britse econoom Tim Harford. Daarbij gaat hij er wel van uit dat we onze weerstand tegen de juiste interpretatie ervan weten te overwinnen. ...

Die stelling uit de (hoofd)kop slaat op het tweede deel van het artikel, en kan je het beste uitleggen als "Als mensen hun vooroordelen weerlegd zien, nemen die vooroordelen vaak juist toe". Zie de Gelovige die met een ramp van de hand van zijn Almachtige geconfronteerd wordt.
    Het artikel start met de hoofdlijn:
  Een van de populairste boeken over statistiek ooit gaat over hoe je met cijfers kunt bedriegen. How to Lie with Statistics kwam uit in 1954 en er zijn er meer dan een miljoen van verkocht. ...

Geen goede keuze van introductie, want natuurlijk wordt statistiek misbruikt voor eigen gewin want alles wordt misbruikt voor eigen gewin.
    Een veel betere introductie loopt via degene die statistiek op de kaart heeft gezet: Francis Galton uitleg of detail , omdat die Galton liet zien dat statistiek in veel gevallen beter werkt dan de opinies van experts ("Raadt het gewicht van een os"), en vooral omdat Galton op dezelfde manier waarnam dat sommige etnieën beter functioneerden dan andere.
    Oftewel: dezelfde claim als nu gedaan voor algoritmes, met precies hetzelfde probleem
    Want de huidige visie op Galton's werk is "Galton = RACIST!!!" uitleg of detail (noot: het eigenlijke betoog van gekleurde mevrouw van het artikel achter de link luidt: "Galton = racist - Galton = blank - Dus, ergo, q.e.d.: alle blanken zijn racisten").
    Verder met het bron-artikel:
  ... Het schildert statistiek af als een goochelaarstruc, meent Tim Harford (48): allemaal leuk en aardig, maar niets om serieus te nemen. ...

Tja ... Waarom zou dat toch zijn ...
    Het antwoord: vraag je af wie dat "afschilderen" doen en welke belangen ze hebben.
    Het antwoord luidt: de alfa-intellectuelen (in de ruimste zin, dat wil zeggen: alles dat goed is in woordjes rijgen), omdat hun vrijheid van fantaseren en liegen wordt ondergraven.
  ... De econoom en columnist van de Britse zakenkrant Financial Times is zich daar in de loop der jaren steeds meer aan gaan storen. 'Wat zegt het over de statistiek - en over ons - dat het succesvolste boek over dit onderwerp van A tot Z een waarschuwing voor desinformatie is?', vraagt hij in How to make the world add up. ...

Heel simpel: het zegt dat de elite, die dit soort zaken als onderwerp heeft, gedreven wordt door slechts één zaak: eigenbelang.
  ...     Dat boek uit 2020, dat nu in het Nederlands is vertaald (Cijfers kunnen de wereld redden), moet een tegengif zijn, een ode aan de weldaad van cijfers. Die bieden hoop, want ze tonen de vooruitgang op het vlak van alfabetisme, democratie en vrouwenstemrecht. Scholing voor meisjes ook, toegang tot schoon water, landbouwopbrengsten en de prijs van zonne-energie.    ...

Klopt. Het is emotie tegen cijfers.
    Religie tegen beschaving.
    Alfa tegen bèta.
  ...     Tenminste, als cijfers juist worden gebruikt. Harford illustreert met treffende voorbeelden wat er gebeurt als dat niet zo is. Zo weigeren sommige hartchirurgen hun ziekste patiënten te opereren omdat ze bang zijn dat daardoor hun succespercentage zal dalen. Gewiekst van die heelmeesters, zeker, maar de patiënten die in de steek worden gelaten zullen er niet voor applaudisseren.    ...

Dat zeiden we al ... Eigenbelang.
  ...    Door cijfers zijn we beter af, benadrukt Harford. Hoe hadden we anders geweten dat je van roken kanker kunt krijgen ...

En een miljoen-miljard andere voorbeelden.
  ... van roken kanker kunt krijgen, of hoe groot het probleem van ongelijkheid is? ...

En daar is het eerste voorbeeld van het misbruik van statistiek: het bestaan van ongelijkheid (het resultaat van de statistiek) wordt zonder enige vorm van gebruik van cijfers verklaard tot een 'probleem'.
  ... Zijn stelling komt wel met een groot voorbehoud, en dat is dat we ons moeten houden aan de regels van de goede statistiek.    ...

Wat bij deze dus al een keer verkeerd gegaan is.
  ...     Dat werpt het onvermijdelijke cliché op dat je met cijfers alles kunt bewijzen ...

Wat dus een gore leugen is van de alfa's.
  ... zelfs zonder daarbij te liegen. ...

Het onvermijdelijke vervolg van de eerste: je moet liegen dat je niet liegt.
  ... Kijk maar naar het debat in de Verenigde Staten over het recht op abortus. Voorstanders wijzen op opiniepeilingen waaruit blijkt dat de meerderheid van de Amerikanen voor is. Tegenstanders wijzen er fijntjes op dat alle voorstanders van abortus wel zijn geboren, en dus konden deelnemen aan de peiling.    ...

Een argument dat niets zegt over de geldigheid van de gebruikte statistiek - beide uitspraken zijn waar maar spreken elkaar niet tegen.
  ...     Harford fronst de wenkbrauwen, en zegt dat hij dat laatste argument nog niet gehoord heeft. 'Het is in elk geval origineel, maar het wringt. Het lijkt mij een even goed argument tegen opiniepeilingen over voorbehoedsmiddelen. Alle mensen die anders waren verwekt krijgen daarin ook geen stem.'
    Het raakt niettemin een ruimere vraag die we ons altijd moeten stellen, zegt hij. 'Wie mis je? Wie is niet vertegenwoordigd? Daar zijn niet altijd duidelijke antwoorden op. ...

Dat klopt. Maar dat is een overbekend deel van de statistiek: Hoe neem je een representatieve steekproef?
    Wat dus juist ondervangen is aan het worden door het gebruik van datasets: er wordt niets gevraagd dus er wordt geen steekproef genomen.
  ...     De stelling 'meten is weten' heeft dus zijn beperkingen. ...

Een opmerking van de auteur van het krantenartikel.
    En een kenmerkend domme: ALLES heeft zijn beperkingen. Het gaat erom wat het minste beperkingen heeft.
    En het alternatief van meten heeft oneindig veel meer beperkingen.
    Het gebruik van deze domme en foute redenatie is een sterk teken van kwaadaardigheid.
  ... heeft dus zijn beperkingen. Het kan ook leiden tot discriminatie.    ...

En hier de reden: de alfa's willen sommige uitkomsten van statistiek en algoritmes bestempelen als 'discriminatie'.
    Zonder gebruik van cijfers.
  ... leiden tot discriminatie. Zo moest de Nederlandse regering onlangs toegeven dat er jarenlang 'institutioneel racisme' was bij de Belastingdienst. ...

Een reeks gore leugens: de Belastingdienst heeft jarenlang mensen betrapt die fraude pleegden, en daaronder bleek een aanzienlijke tot zware oververtegenwoordiging van allochtone immigranten uitleg of detail .
    Dat waren feiten, en die feiten zijn bestempeld als discriminatie.
    Oftewel: op grotere schaal in de echte maatschappij wat hierboven door de Volkskrant is vertoond.
    De Nederlandse regering heeft dat "erkend" omdat de Nederlandse regering volledig gedomineerd wordt door alfa's, met ideologisch oftewel emotioneel bepaalde meningen waarvan er één is dat ieder onderscheid dat negatief uitvalt voor gekleurde immigranten een kwestie is van discriminatie.
  ...door het gebruik van risicoprofielen. Er werd bijvoorbeeld gebruikgemaakt van nationaliteit waarbij iemand die niet-Nederlands was als verdachter werd aangemerkt. ...

Iets dat volgde uit de datasets: mensen met dubbele nationaliteit pleegden vaker fraude dan die met een enkele (logisch: meer gelegenheid tot fraude, meer fraude).
  ... Moslims die een gift hadden gedaan aan een moskee, kwamen terecht op een zwarte lijst van mogelijke fraudeurs.    ...

Ook logisch: degenen die schenkingen doen aan instellingen verbonden met het buitenland, hebben meer banden met het buitenland, en mensen met meer banden met het buitenland, hebben minder banden met Nederland (alle stellingen van het tegendeel zijn gore leugens), en zijn meer geneigd tot fraude.
    Je hoeft dat er niet in te stoppen (vooraf bedenkt ook niemand dat), het is iets dat gewoon uit de datasets komt.
  ... Harford reageert niet verbaasd als hij over het Nederlandse schandaal hoort. 'Als je een algoritme traint met een voorgebakken vooroordeel over hoe de wereld eruitziet ...'

"Als de maan van groene kaas is ... ".
    Dat trainen is zonder enige twijfel niet gebeurd met deze vooronderstelling, maar dit zijn gewoon verbanden die uit de datasets zijn gekomen.
  '... dan leert dat algoritme om bevooroordeeld te zijn. Het zal meer van het foute doen, of dat nu technisch of moreel fout is. Als er racisme in zit, gaat het dat sneller dan ooit tevoren kopiëren, en op industriële schaal. Daartegenover staat dat het veel makkelijker te ontdekken is.'    ...

Juist!
    Het racisme of anderszinse emoties van mensen kunnen ze makkelijk ontkennen. Dat van het algoritme kan je aanwijzen. Er moet een regel zijn die dat doet.
    Nergens in de middels jarenlange discussies en debatten over "de toeslagenaffaire" is er ook maar enig bewijs opgedoken dat het in het algoritme zat.
    Terwijl er een grote druk was om met dat bewijs te komen.
    Dus dat bewijs en het racisme in de algoritmes is er niet.
    Wat de algoritmes hebben gedaan, is uitwijzen dat allochtonen vaker frauderen (wat logisch is, want allochtonen komen uit allochtone culturen en allochtone culturen zijn frauderende en corrupte culturen uitleg of detail )
  Hoezo?
'Als mensen bij de Belastingdienst bevooroordeeld zijn ten aanzien van mensen met een buitenlandse achternaam, kan die benadeling onuitgesproken blijven, en is ze dus moeilijk op te sporen. Maar als er een spreadsheet is dat systematisch een hoop mensen markeert, dan kun je analyseren wie dat zijn, en waarom. Het probleem valt dus te identificeren.'    ...

Gehad.
  Wat als er een statistisch verband is tussen een bepaalde groep mensen en fraude? Bijvoorbeeld schenkers aan een moskee. ...

Ja ... Wat dan, hè ...
  ... Bijvoorbeeld schenkers aan een moskee. De Belastingdienst kan zeggen: wij gaan op zoek naar waar volgens de data het meeste te vinden is.
'Dat is een beslissing waarover in een democratische samenleving discussie moet zijn. Je kunt duidelijk stellen dat je niet mag discrimineren op bepaalde gronden, zoals ras, geslacht, seksualiteit of geloof, ook al heb je informatie dat er een onderscheid tussen deze groepen is.

Grote gruwel.
  'Dat is een beslissing waarover in een democratische samenleving discussie moet zijn. Je kunt duidelijk stellen dat je niet mag discrimineren op bepaalde gronden, zoals ras, geslacht, seksualiteit of geloof, ook al heb je informatie dat er een onderscheid tussen deze groepen is.

En daar gaat de econoom.
    De afgrond in.
    De afgrond genaamd "contradictie".
    Feiten:
  Discriminatie: onderscheid maken tussen groepen daar waar er geen (relevant) onderscheid is.
Geen discriminatie: onderscheid maken tussen groepen daar waar er een (relevant) onderscheid is.

Oftewel: de vertaling van wat de econoom zegt luidt:
  Je mag iemand die wijst op (relevante) verschillen tussen groepen veroordelen wegens discriminatie, ook al doet deze niet aan discriminatie.

En de dood van de beschaving is daar.
    Zodra de contradictie wordt toegestaan, heeft de redelijkheid geen enkele kans meer.
    "Waarom wordt het kindje geboren?" "God is Almachtig".
    "Waarom gaat het kindje dood?" "God is Almachtig".
    Etcetera.
    De econoom weet het eigenlijk wel:
  'Laat mij een ander voorbeeld geven dat fundamenteel over hetzelfde gaat, maar waar mensen heel anders over denken. De kans dat vrouwen schade oplopen of een ongeluk hebben met hun wagen is kleiner dan bij mannen. We weten niet goed waarom. Misschien zijn mannen slechtere bestuurders, misschien rijden ze gewoon meer. Als verzekeraar is het dus relevant om te weten of de verzekeringnemer een man of een vrouw is. Maar sinds 2012 is het vanwege Europese regelgeving verboden voor verzekeraars om voor hun premies te discrimineren op basis van geslacht. Is dat eerlijk voor vrouwen, die meer moeten betalen om de extra risico's van de mannen te dekken? Dit is geen statistische vraag, het is een ethische en politieke vraag.'

Overigens weten we uitstekend, met slechts het kleinst mogelijke greintje gezond verstand, waarom vrouwen minder ongelukken hebben in het verkeer, en ook overal elders: ze nemen minder risico dan mannen.
    En niet een klein beetje minder ook ...
    Schijnt iets te maken te hebben met testosteron ...
    De rest van het artikel gaat over een vervolgonderwerp, naar hoe mensen beïnvloed worden door cijfers, enzovoort, met dus als hoofdthema wat samengevat is in de kop:
  'Als mensen beter geïnformeerd zijn nemen controverses toe'

Neen!
    Veel te algemeen.
    Als je alfa's door middel van cijfers duidelijk maakt dat hun ideeën en ideologieën niet kloppen, dat wil zeggen: in strijd zijn met de werkelijkheid, gaan ze op emotionele en sterk emotionele wijze reageren.
    Logisch, want ze kunnen moeilijk op rationele wijze reageren, want dat zit in die getallen waar ze zo heftig bezwaar tegen maken.
    Jouw cijfers laten zien dat allochtone immigranten frauderen (logisch, want ze komen uit frauderende culturen), dan ben jij een RACIST!!!
    En XENOFOOB!!! enzovoort, tot aan iemand die doet aan gaskamers.
    Je wilt de niet-westerse immigratie stoppen: je bent een RACIST!!! en doet aan DEPORTATIES!!!
    Enzovoort.
    Als je van dit geval iets algemeens wilt maken, dan wordt het iets als dit:
  Er zijn twee fouten die uiterst moeilijk tot niet te bestrijden zijn: die ten gevolge van domheid, en die ten gevolge van ideologie of religie.

En de praktijk laat zien dat deze twee, of drie, bijna altijd hand in hand gaan.

De rest van de bronnen vertellen precies hetzelfde.

Bronnen

Het tweede artikel was al eerder genoteerd op deze plaats, vanwege eenzelfde soort rol. Ook dit is een boekbespreking (de Volkskrant, 19-01-2019, door Laurens Verhagen):
  Algoritmes maken fouten, maar mensen maken er meer

Zowel Hannah Fry als Jim Stolze beschrijft in nuchtere en heldere bewoordingen waarom algoritmes in het dagelijkse leven zo'n belangrijke rol spelen.

Dta zal verderop een gore leugen blijken. Dat 'nuchtere'.
  De films en series die u krijgt aangeraden door Netflix of de wekelijkse lijstjes met verrassende nieuwe muziek waarmee Spotify op de proppen komt: ze werken zo goed dankzij de ingenieuze algoritmes die op de achtergrond hun werk doen. ...

Zo ingenieus zijn de algoritmes ook weer niet: het aanbod wordt ingedeeld in categorieën, wat de kijker kiest wordt vergeleken met die categorieën, en de volgende keer krijgt de kijker suggesties uit die categorie(ën).
  ... Het zijn onschuldige toepassingen; er is geen man overboord als Netflix met een suggestie komt die de plank misslaat. Anders is het bij de gezondheidszorg (een algoritme dat voorspelt wat de kans is dat iemand kanker heeft) ... Helaas gaat het lang niet altijd goed. ...

En alweer krijgen we deze stupide opmerking.
    NIETS gaat ALTIJD goed.
    De vraag is "Waarbij gaat het meer goed?"
    En wat betreft kanker is dat allang uitgezocht en bekend: de algoritmes doen het aanzienlijk tot veel beter dan de dokter.
    De simpele verklaring: het algoritme wordt door geen praat van zowel patiënt als dokter afgeleid van waar het om gaat: de feiten.
    In dit geval: de meetbare symptomen.
    Al eerder geconstateerd; het maken van deze stupide opmerking kan zonder meer gekenmerkt worden als een vrijwel zeker teken van kwaadaardigheid.
    Hier de kwaadaardigheid van het willen laten domineren van alfa-emoties boven alles, zelfs overlevingskansen.
    Maar dit was eigenlijk nog slechts het minst schadelijke geval.
    Hier komen de ergere:
  ... Anders is het bij ... het strafrecht (de robotrechter) ... Ook in die gebieden spelen algoritmes de laatste jaren een steeds grotere rol. Helaas gaat het lang niet altijd goed.    ...

Idem in nog sterkere mate: zodra er ook maar enigszins een onzekerheid is in de feiten (de dader is niet betrapt staande over het lijk met het bebloede mes in de hand), gaat het zo ontzettend vaak gruwelijk mis dat je je afvraagt of het wel eens goed gaat. In Nederland heb je een beroemde reeks rechterlijke dwalingen uitleg of detail en een sterk groeiende reeks politieke vonnissen uitleg of detail (allemaal met politiek-correcte uitslag), in Engeland waren die dwalingen nog frequenter, en je mag aannemen dat het elders nauwelijks of niet beter zal zijn ("OJ Simpson"...)
    Volgende vakgebied:
  ... Anders is het ... in het verkeer (de autonoom rijdende auto). Ook in die gebieden spelen algoritmes de laatste jaren een steeds grotere rol. Helaas gaat het lang niet altijd goed.    ...

Het verkeer is nog een probleem voor het algoritme gezien het grote aantal vrijheidsgraden, maar in de luchtvaart is de grens al overschreden: automatische piloten maken minder fouten dan menselijke, en zijn mogelijk ook al beter in crisissituaties.
    Nou, nog meer voorbeelden nodig ... ?
    Het punt is: in het algoritme kan een in principe onbeperkte hoeveelheid ervaring, opgedaan door mensen, gestopt worden.
    Terwijl je die hoeveelheid ervaring niet zomaar in een mens kan stoppen - dat duurt vele, vele jaren.
    Goed: ook de boodschap van dit verhaal is dus al volkomen weerlegd.
    Maar men dramt hersenloos door:
  ... In Algoritmes aan de macht van wiskundige Hannah Fry en Algoritmisering, wen er maar aan! van de Nederlandse ondernemer Jim Stolze komt een lange stoet voorbeelden voorbij.
    ... Stolze en Fry beschrijven wat er allemaal fout kan gaan als er iets mis is met de gegevens waarmee een zelflerende algoritme wordt gevoed. Zoals in het systeem dat de ideale kandidaat in een sollicitatieprocedure moest selecteren en werd gevoed met gekleurde data. Het gevolg: vrouwen werden achtergesteld.    ...

Weer: op zijn minst is het zo het menselijke selecteren wordt gevoed met dezelfde data, dus dezelfde gekleurde data. Het algoritme biedt de mogelijkheid dat te ontdekken.
    Maar de goede mogelijkheid is dat dat selecteren hartstikke correct ging, en dat vrouwen gewoon minder presteren (bij de 100 meter hardlopen staat de eerste vrouw niet in de eerste 1000 mannen (duizend).
  ... Het zijn niet de enige gevaren. Fry schrijft uitgebreid over de nieuwe industrie die is ontstaan rond de gegevens die iedereen op internet achterlaat. Datamakelaars verdienen hier goed geld mee: 'Ze hebben jouw meest persoonlijke, vertrouwelijke geheimen tot handelswaar gemaakt.' En diezelfde data worden vervolgens gebruikt om de consument te manipuleren.    ...

Wat alleen kan omdat die algoritmes werken.
    Hoe ze gebruikt worden zegt dus weer absoluut en helemaal evenveel als hoe een hamer of een mes werken.
    De oplossing is uiterst simpel: het gebruik van privé-gegevens verbieden, met straffen zoals een miljard boete. Bij wijze van spreken. Beloning voor wie het ontdekt en aangeeft.
  ... Is het dan allemaal ellende? Nee. Fry noemt juist de neiging alles zwart-wit te zien - algoritmes óf als almachtige bazen óf als nutteloze troep - een groot probleem. Zo waarschuwt ze voor het fenomeen 'algoritme-aversie': mensen verdragen de fouten van een algoritme minder goed dan die van henzelf, zelfs als hun eigen fouten groter zijn. Tegelijkertijd moeten we algoritmes van hun voetstuk halen, schrijft ze, 'ze zorgvuldiger bestuderen en ons afvragen of ze echt in staat zijn te doen wat ze beweren. Dat is de enige manier om te beslissen of ze de macht verdienen die ze gegeven is.'
    En dat is precies wat Fry in het boek doet: inzicht geven in de algoritmes die aan het werk zijn. Dat werkt bijzonder verfrissend. Neem de misdaad-voorspellende systemen van het Amerikaanse bedrijf Compas, waar veel ophef over was. Gewoon een kwestie van statistiek: 'Als je het eenmaal hebt uitgerekend, blijken meer onschuldige mannen dan onschuldige vrouwen onterecht te worden beschuldigd. Dit heeft niets met de misdaad zelf te maken, of met het algoritme: het is gewoon een wiskundige zekerheid. De uitkomst is vooringenomen omdat de werkelijkheid vooringenomen is. Meer mannen plegen moorden, dus meer mannen zullen er valselijk van beschuldigd worden dat ze in potentie een moordenaar zijn.'
    Algoritmes zijn niet feilloos, betoogt Fry. Maar mensen zijn dat ook niet. Sterker: mensen maken nog veel vaker fouten. Bestuurders van auto's, medisch specialisten, rechters: allen hebben hun vooroordelen, hun zwakke momenten en hun blinde vlekken. Maar de mens is nodig om te kunnen beoordelen of algoritmes betrouwbaar zijn. Of om de ethische regels te expliciteren waaraan systemen moeten voldoen. Want die systemen zelf hebben geen moraal; die bedrijven statistiek. Het menselijke element is dus essentieel in de wereld van de geautomatiseerde beslissingen: 'Fouten kunnen alleen op een zinnige manier worden voorkomen als er een persoon met vetorecht is om de suggestie van een algoritme te beoordelen.'

Zo ongeveer, dus.

En meteen een specifiek voorbeeld van de menselijke zwakte in het soort probleem waarvoor algoritmes geschikt zijn (de Volkskrant, 23-01-2019, door Casper Albers, hoogleraar statistiek aan de Rijksuniversiteit Groningen.):
  Duiven zijn soms beter in statistiek dan mensen

    ...Een van de redenen waarom veel mensen statistiek stom vinden, is dat het moeilijk gevonden wordt. In zijn boek Thinking Fast and Slow legt Nobellaureaat Daniel Kahneman uit dat de mens twee denksystemen heeft: thinking fast, waarbij moeiteloos en intuïtief wordt gedacht, en thinking slow, waarbij analytisch wordt gedacht. ...

Alhier wordt deze tweedeling aangeduid met "gezond verstand" en "intellect" .
  .... Bij bijvoorbeeld een wiskundepuzzel is uit de context direct duidelijk dat er analytisch gedacht moet worden en schakelt het brein over in de juiste modus. Bij statistiek is dit lang niet altijd duidelijk, waardoor het brein in de verkeerde modus staat. En dan is statistiek inderdaad moeilijk.    ...

Hm, meestal staat het brein in de verkeerde modus. Eigenlijk is er maar één omgeving waarin het intellect  het voornaamste gereedschap is: de natuurwetenschap (let op: dit sluit expliciet de menswetenschappen uit - die weten gewoon absoluut zeker dat alle culturen gelijk zijn, enzovoort, zonder op enige statistiek te letten - voor die mensen is statistiek niet moeilijk, maar onmogelijk).
  .... Het bekendste voorbeeld van een statistiekpuzzel die massaal fout wordt opgelost, is het driedeurenprobleem (het Monty Hall problem in het Engels). Een quizdeelnemer mag uit drie deuren kiezen: achter één deur staat de hoofdprijs. Zodra gekozen is, laat de presentator zien dat de prijs niet achter een van de twee andere deuren staat en vraagt hij of de deelnemer zijn keuze nog wil veranderen. Het intuïtieve antwoord is dat elke deur een kans van 1 op 3 had en dat wisselen dus niet helpt. Het analytische (en dus juiste) antwoord is dat bij wisselen de kans op winst echter 2 op 3 is. Voor wie dit niet gelooft: lees de duizenden woorden tellende uitleg op Wikipedia maar eens, maar waar het in de kern op neerkomt is dat de presentator vanwege het spelelement op zo'n moment nooit de deur zal openen waar de prijs achter zit.
    De Amerikaanse psychologen Walter Herbranson en Julia Schroeder hebben onderzocht of mensen getraind konden worden dit probleem op te lossen. Een groep eerstejaarsstudenten deed het experiment 100 keer. Bij de eerste 50 pogingen werd gemiddeld 57 procent van de keren gewisseld, bij de laatste 50 was dit 66 procent - zo goed als de tweederde kans op winst bij wisselen dus.
    Men koos dus even vaak het juiste antwoord als de kans op winnen bij dat antwoord is. Die strategie heet probability matching. Intuïtief aantrekkelijk, maar niet de beste strategie, want je wint er maar vijf van de negen keren mee. Het is beter om altijd het beste antwoord te geven en niet maar tweederde van de tijd, dan win je vaker.    ...

Deze redactie kent een andere variant daarvan, in het kader van de effectiviteit van onderwijs (komende van de Engelse televisie, vermoedelijk Horizon): een groep PABO-studenten wordt de vraag voorgelegd waaruit een plant voornamelijk zijn groei haalt: aarde, water, zon (licht) of lucht. Relatief veel geven het foute antwoord "aarde", vanwege de intuïtieve gelijkstelling tussen de soort stof. Weinigen geven het goede antwoord: lucht. Dan geeft men de studenten les: de grote massa van de plant bestaat uit koolwaterstoffen en dergelijke, gebouwd op de koolstof afkomstig van de kooldioxide opgenomen uit de lucht.
    Vervolgens worden de studenten opnieuw getest, en ondanks de lessen geeft tot nog steeds een aanzienlijk aantal het foute antwoord.
  ...   Herbranson en Schroeder hebben (een variant van) het experiment ook uitgevoerd met duiven. Deze werden 30 dagen lang getraind. Op de eerste trainingsdag bakken duiven er weinig van: maar 36 procent van de keren werd gewisseld. Op de laatste trainingsdag echter was dit 96 procent, zo goed als perfect. De duiven hadden geen last van intuïtie: ze zagen dat wisselen de optimale strategie is, en kozen daar dus voor.    ...

Ook daarvan kent deze redactie een ander voorbeeld. Dit ging over de koop van een huis, met drie mogelijke keuzes. Na de eenmaal genomen beslissing wordt de koper uitgelegd dat zijn keuze niet de juiste (optimale) is, en een mogelijkheid geboden tot heroverweging. Relatief weinigen gaan daarop in (verklaring: het is moeilijk toe te geven een foute beslissing te hebben genomen).
    Dezelfde soort situatie werd "voorgelegd" aan mieren, die konden kiezen uit drie nestruimtes. Nadat net als bij de mensen de waardering van de keuzes werd veranderd. kozen ze, net als duiven natuurlijk, via "trial and error" uiteindelijk allemaal de optimale keuze.
    En hetzelfde geldt voor algoritmes: die worden niet gestoord door emoties en intuïties, maar volgen slechts de regels. Als de regels goed geprogrammeerd zijn, gebruik makend van hetzelfde soort regels als duiven en mieren hanteren, komen algoritmes beter tot het goede antwoord dan mensen.
    En dat kan al dan niet met gebruik van statistiek zijn.

Een ongevaarlijk voorbeeld (de Volkskrant, 09-02-2019, door Laurens Verhagen):
  Parfumeur en AI-godin maken samen geurtjes

Kunstmatige intelligentie begint haar nut te bewijzen op gebieden waar je het niet een-twee-drie zou verwachten: bij creatieve beroepen. Een meesterparfumeur kwam dankzij AI tot heel nieuwe ideeën.


David Apel hoeft niets meer te bewijzen, zou je zeggen. De Amerikaan zit al zo'n dertig jaar in het vak en heeft een groot aantal bekende geurtjes (zowel voor mannen als voor vrouwen) achter zijn naam staan. ... parfumeurs kunnen soms wel vier jaar werken aan een formule ...
    Puttend uit zijn eigen geurgeheugen voegde hij een snufje van het ene ruwe materiaal toe en verminderde juist een ander. Totdat het goed was. Mensenwerk. ...
    IBM begon een jaar of twee geleden met het ontwikkelen van een systeem voor het creëren van geurtjes, zegt Richard Goodwin, data-onderzoeker bij IBM. Inmiddels is het systeem in gebruik, in samenwerking met Symrise. Apel heeft Philyra - vernoemd naar de Griekse godin van het parfum, de schoonheid en de schrijfkunst - omarmd. Wat heet: Apel duidt in zijn enthousiasme Philyra consequent aan als 'zij'. Niet 'het systeem', of 'het algoritme', maar alsof ze een partner van vlees en bloed is.
    Philyra is door IBM gevoed met 1,7 miljoen chemische formules van geuren die Symrise in de loop van zijn historie heeft verzameld. Daarnaast heeft het Duitse concern gedetailleerde informatie over hoe de verschillende geuren commercieel gepresteerd hebben. Welke geur deed het goed bij welke specifieke doelgroep? Welke materialen passen goed bij elkaar? Welke geuren hebben succes? Symrise weet dat allemaal. Dit soort informatie is cruciaal om een AI-systeem te trainen, wat IBM heeft gedaan.
    ...daarmee wordt de menselijke neus niet overbodig, zegt Apel. 'Philyra is voor mij een creatieve partner. Ze komt met formules waar ik zelf nooit op zou komen.' Apel leest formules zoals muzikanten noten. Bij sommige formules slaat Apel naar eigen zeggen steil achterover. 'Hé, wat is dit is godsnaam? Op sommige ga ik niet door, maar bij andere denk ik: dit slaat eigenlijk nergens op, maar ik vind het heel interessant.'
    Philyra heeft één heel groot voordeel, zegt Apel: 'Ze heeft een olifantengeheugen. Ze kan putten uit al die miljoenen formules die ooit zijn bedacht. Ze kent ieders stijl en vergeet niets. Zelf probeer ik veel te onthouden, maar dat is toch beperkt.'    ...
    Volgens Apel is dit gelukt met de twee geuren (een voor mannen, een voor vrouwen) die eind vorig jaar in opdracht van een Braziliaans cosmeticabedrijf zijn gemaakt in een gezamenlijke inspanning van Apel en zijn AI-godin. De geuren zijn bedoeld voor Braziliaanse millennials en hebben, ook voor de ongeoefende neus, een behoorlijk uitbundig pallet.
    Zo'n doelgroep is het startpunt van de zoektocht van Philyra. Het begint met de formules van bestaande geurtjes voor die Braziliaanse millennials. Philyra toont een lange lijst met de ruwe materialen en de percentages die ze uitmaken in het geheel. Daarna kan Apel aan schuiven draaien en Philyra in verschillende gradaties van creativiteit zetten.    ...

Het staat er bijna expliciet: het is gewoon een patroonherkenner. Of dit intelligentie is ...

Een illustratie van de onwetendheid omtrent algoritmes (de Volkskrant, 27-05-2019, door Jan Middendorp, VVD-Kamerlid):
  Waak voor risico's van algoritmen

De overheid moet veel meer kennis en kunde ontwikkelen om klaar te zijn voor de digitale toekomst.

...
Algoritmen kunnen in handen van kwaadwillenden tot veel persoonlijke ellende leiden. ...

Een hamer of een mes ...
  ... Op grotere schaal kunnen algoritmen ook gebruikt worden om via sociale media onze democratie te manipuleren. ...

Op grote schaal kunnen krant en televisie ...
  ... . Ook de overheid kan efficiënter werken door het gebruik van algoritmen. Bijvoorbeeld bij de belastingdienst, maar ook bij het ophalen van vuilnis in gemeenten. ...

Dat zijn geen algoritmes in de gebruikelijke betekenis.

  ... Het was altijd het individu dat beschermd moest worden tegen de staat. Die had ruim toegang tot ons persoonlijk leven. Nu weten supergrote technologiebedrijven minstens net zoveel van ons. ...

Dat klopt. Voor die technologiebedrijven waar je je mee inlaat. Niemand hoeft naar Facebook enzovoort.

  ... Wat moeten we concreet doen? Ten eerste moet de nationale overheid de regie nemen en kennisdeling met het bedrijfsleven stimuleren. ...

Dat is communisme.
  ... Vaak weten we niet precies waarvoor we toestemming geven als we cookies op internet accepteren of een gebruiksovereenkomst van een app aanvinken. Daarom moeten we, ten tweede, mensen bewuster maken over algoritmegebruik. Dat kan door bij riskante algoritmen een simpele en korte uitleg te geven in de vorm van een bijsluiter of een illustratie. ...

Flagrante onzin. De meest kwetsbaren zijn degenen die dit het minst snappen - en dat is in dit geval bijna iedereen. Als er iets hieraan gedaan moet worden, kan dat op slechts één manier: verbieden door de overheid gevolgd door sancties op het niveau van sluiting van bedrijven. Of overheidsovername. Verder zal niets werken.
    Voorbeeld: cookies zijn het voornaamste middel van verzamelen van privacy-gegevens. Die kunnen instantaan verboden worden (of men kan het verzenden van gegevens van gebruikerscomputers verbieden). Men doet het niet omdat het belang van het bedrijfsleven oftewel de financiële markten altijd voor gaat.
  ... Ten vierde moet op het snijvlak van consumentenbescherming, data, identiteit en privacy nieuw toezicht komen. Dat moet de bestaande toezichtstructuur aanvullen en het kenniscentrum worden voor algoritmegebruik. Overheids en niet-overheidsinstellingen moeten de samenleving meer vertellen over de algoritmen die zij gebruiken en vooral wat dat in de praktijk betekent voor mensen. Daarbij moet aangesloten worden bij bestaande rapportageverplichtingen en accountantscontrole over operationele en financiële risico's. De inzichten die zo'n systeem kunnen opleveren gaan ook het publiek debat over digitale normen en waarden helpen.    ...

De bestaande maatschappelijke structuren, oftewel de dictatuur van het neoliberalisme, heeft geleid tot de vrijwel gehele afschaffing van al deze controlemechanismes op bijna alle terreinen.
    Onder de noemer: zelfregulering.
    Maar in het begin stond ook nog een leuke:
  Toen het Amerikaanse Amazon probeerde computergestuurd, zonder menselijke invloed, nieuw personeel aan te nemen en zo vooroordelen tijdens sollicitatieprocedures uit te sluiten, gebeurde er iets onverwachts. In het algoritme dat het sollicitatieproces aanstuurde bleek een mechanisme te zitten waardoor alleen maar mannen werden aangenomen.    ...

Heel simpel: de gegevensstroom wijst natuurlijk razendsnel uit dat  voor de technologische functies zoals van toepassing bij een ICT-begrijf als Amazon (bijna allemaal computerwerk) mannen gemiddeld beter scoren. Zeg: 70 procent kans op succes bij een mannelijke kandidaat tegenover 30 procent bij een vrouwelijke.
    Kennelijk bevatte de totale routine de stompzinnige aanpak om altijd de kandidaatsoort met de hoogste succeskans te kiezen (iedere statisticus weet dat dit onverantwoord is). Ergo: alleen mannen.
    Ook dat is niet een algoritme in de gebruikelijke betekenis maar gewoon platte logica. Het was gewoon slechte logica.
    Slechte logica gemaakt door mensen, zoals daarvoor bij het selectieproces ook eindeloos veel slechte logica wordt gebruikt door mensen, met behulp van de "algoritmes" in hun brein ("De kandidaat heeft geen stropdas dus hij kan niet programmeren").

En hier verwoordt een reageerder de echte existentiële angst van de algoritmofoben (de Volkskrant, 03-06-2019, ingezonden brief van Jan Venekamp, Beilen):
  Gebruik algoritmes voor nuttige kwesties

Naar aanleiding van de berichtgeving in onder andere de Volkskrant (Ten eerste, 21 mei) lijkt de veronderstelling gerechtvaardigd dat een stel ambtenaren tijd en geld heeft gevonden om een aantal algoritmes te (laten) ontwikkelen die etnisch profileren mogelijk maken, met als uitgangspunt fraude te voorspellen op basis van etniciteit.    ...

Brullen van de lach!!!
    De algoritmes halen slechts de patronen eruit, en het patroon is dat niet-westerse culturen vele malen corrupter zijn dan westerse uitleg of detail , dus dat niet-westerse mensen vele malen corrupter zijn dan westerse mensen, en aangezien niet-westerse mensen zich niet hoeven aan te passen als ze in het westen zijn, zullen de algoritmes dus veel meer niet-westerse corruptie ontdekken dan westerse.Volgende sociale voorziening - nu al voorafgegaan door de leugens dat het etnisch profileren is (de Volkskrant, 21-05-2019, door Yvonne Hofs):
  Onderzoek naar mogelijk etnisch profileren door fiscus

... De fiscus zou in 2014 de kinderopvangtoeslag van honderden ouders met een niet-Nederlandse achtergrond hebben stopgezet vanwege fraudevermoedens
...

...    De eigenaar van het Almeerse kinderdagverblijf Bizzie Kids zegt in Trouw dat de fiscus in april 2014 plotseling de kinderopvangtoeslag van een groot aantal van haar klanten beeindigde. Dat waren volgens haar uitsluitend ouders van buitenlandse afkomst; van de 'puur Nederlandse' gezinnen liepen de toeslagen gewoon door.    ...

Brullen van de lach!!! De autochtone Nederlanders zijn gewoon eerlijk, en de gekleurden zijn oplichters:
  ... Volgens de Belastingdienst speelt nationaliteit of etniciteit geen rol bij het stopzetten van toeslagen en het doen van fraudeonderzoek. 'Op de lijst van Bizzie Kids-klanten wier toeslagen we hebben beëindigd staan zowel Nederlandse als niet-Nederlandse namen.' ...

Q.E.D.

Van de bronnen hierna worden alleen de hoofdlijnen gegeven, want verder vertellen ze allmaal hetzelfde: algoritmes zijn niet te vertrouwen (de Volkskrant, 14-08-2019, door Corinne Cath-Speth, promovendus in Oxford,  en Roel Dobbe, postdoc aan de New York University):
  Verwacht geen wonderen van artificiële intelligentie

Een blind vertrouwen in maatschappelijke oplossingen dankzij nieuwe technologieën is naïef.


Tussentitel: Straks bepalen algoritmes in plaats van jeugdwerkers welke zorg nodig is

De artificiële intelligentie of AI-revolutie lijkt onderweg en onafwendbaar. Als we de projecties en marketingcampagnes mogen geloven, vormt het de groeimarkt voor het komende decennium en gaat het tal van maatschappelijke problemen oplossen. De opmars van zelflerende algoritmes brengt menig politicus en ambtenaar in vervoering. Maar helaas wordt er doorgaans een te rooskleurig beeld geschetst van AI-systemen. Deze zijn namelijk veel fragieler en foutgevoeliger dan vaak voorgesteld. ...

De kwaadaardigheidsindicator:
  ... Ook bij de overheid gaan discussies voorbij aan legio kwesties die we moeten oplossen om er voor te zorgen dat AI-systemen (1) veilig en rechtvaardig zijn ...

Dat 'rechtvaardig'. Bedoeld: niet allochtonen aanwijzen.

De Volkskrant, 09-09-2019, door Tonie Mudde:
  'Black Mirror is een goede waarschuwing'

Algoritmes halen ontzettend veel meer gegevens uit een paar likes en iemands surfgedrag dan veel mensen in hun onschuld denken. Als we niet uitkijken wordt de technologie ons de baas.


Tussentitel: We moeten zelf de baas blijven over onze technologie en niet andersom

Die tussentitel vertaald:
  Onze emoties moeten de baas blijven over redelijkheid en niet andersom

Bingo.

De Volkskrant, 02-10-2019, door Casper Albers, hoogleraar statistiek aan de Rijksuniversiteit Groningen:
  De wetenschapper beziet de wereld

Algoritmes tonen ons fundamentele misstanden in maatschappij


...    De website ImageNet Roulette heeft de afgelopen weken aardig wat stof doen opwaaien. Op deze site kan je een foto uploaden en dan bekijkt een algoritme welk label er het beste past. ...
    ...Minder grappig is dat de site ook de nodige racistische, discriminerende en vrouwonvriendelijke labels aan foto's plakt. ...
    In haar boek Algoritmes aan de macht beschrijft de Britse wiskundige Hannah Fry tot wat voor problemen dergelijke algoritmes kunnen leiden. Ook die variëren van grappig tot ronduit schandalig: algoritmes die Amerikaanse rechters moeten gebruiken om strafmaten te bepalen, waarbij blanke verdachten structureel milder gestraft worden dan niet-blanken.
    Als een algoritme niet werkt, is de logische gedachte om de fout op te lossen. Dit is niet zomaar mogelijk, want het is onduidelijk hoe het algoritme tot keuzes komt. Dit is ook het verschil tussen statistiek en kunstmatige intelligentie. Bij statistiek zijn de spelregels van het algoritme transparant en kun je ingrijpen bij ongewenste resultaten. Bij kunstmatige intelligentie is het algoritme een black box. Een algoritme krijgt een trainingsset, oftewel een grote stapel voorbeelden. Op basis van die set leert het algoritme en past het deze kennis toe om op nieuwe foto's een label te plakken, waarbij het algoritme niet vrijgeeft op basis van welke spelregels dit geleerd wordt.
    Dat de algoritmes blanken minder zwaar straffen en foto's een vrouwonvriendelijk label opplakken, komt omdat zij dat in de trainingsset geleerd hebben. ...

Een leugen. Dat wordt uit de werkelijkheid gehaald.
  ... Algoritmes zijn een spiegel van de maatschappij. Als het je niet bevalt wat je in de spiegel ziet, geeft dan niet direct de spiegel de schuld. Het wijst op een fundamentele misstand in de maatschappij zelf, waar niet alleen de kunstmatige intelligentie, maar ook wijzelf van kunnen leren.

Namelijk: de misstand dat de gang van zaken in de maatschappij bepaald wordt door emoties van alfa's, die op iedere resultaat dat ongelijkheid laat zien, scheldwoorden plakt als "DISCRIMINATIE!!!"en "RACISME!!!"
    Net als deze auteur als columnist systematisch doet in de Volkskrant met smerige politiek-correcte praatjes.

Een samenvatting (de Volkskrant, 31-10-2020, ingezonden brief van Thijs van der Heijden
Bussum):
  Stop de demonisering van het algoritme

Steeds vaker zijn er berichten over de algoritmes die onze levens besturen, die ons verslaafd maken aan sociale media, ons verleiden om bepaalde producten te kopen of de perfecte serie voor ons uitzoeken zodat we net wat langer blijven kijken. Algoritmes worden in de media allemaal over dezelfde kam geschoren: alle algoritmes zijn slecht. ...

Dram, dram, dram.

En dat gedram komt in de Volkskrant in hoge mate van dit figuur, dat 'ict" als specialisme heeft, en hier komt met zijn bijdrage aan het jaaroverzicht (de Volkskrant, 24-12-2020, door Laurens Verhagen):
  Wat hebben we geleerd?

16. Met algoritmen moet je zorgvuldig omgaan

De slimme algoritmen achter toepassingen die ons leven vergemakkelijken, zijn hun onschuldige imago kwijt: ze werken filterbubbels, nepnieuws en discriminatie in de hand.

Het is een uitermate naargeestig politiek-correct dramfiguur die volkomen past bij de ratio-hatende Dramvolkskrant.

De Volkskrant, 24-11-2021, redactie:
  Algoritme Belastingdienst zag armoede als frauderisico

Voor de controle op fraude heeft de Belastingdienst gebruikgemaakt van een zelflerend algoritme dat onder meer selecteert op inkomen. Huishoudens met een laag inkomen kregen daarbij een hogere risicoscore dan die met een hoog inkomen.
    Dat melden RTL Nieuws en Trouw. ...
    Het gebruikte algoritme maakte zelfstandig een 'risicomodel' en berekende daarvoor welke indicatoren een verhoogde kans op fraude gaven. Aanvragen voor kinderopvangtoeslag kregen van het algoritme een risicoscore, aanvragen met een hoge score werden vaker extra gecontroleerd op fraude.
    Het algoritme leerde zichzelf dat er een grotere kans was dat huishoudens met een laag inkomen fraudeerden. Zodoende verdacht de Belastingdienst huishoudens met een laag inkomen vaker van fraude met de kinderopvangtoeslag.

Daar staat het eens goed: het algoritme werd niet verkeerd getraind, maar haalde haar correlaties uit de werkelijkheid.
    In de werkelijkheid is het aanvragen van kinderopvangtoeslag een risico omdat er volstrekt onvoldoende op gecontroleerd werd of kon worden. Kinderopvang is private sector en deels kleine ondernemers voor wie het makkelijk frauderen was. En uit gewone berichtgeving kon je al opmaken dat een groot deel van de fraude kwam van allochtonen.
    En in 2021 ...
  ... Dat melden RTL Nieuws en Trouw. De Belastingdienst bevestigt het gebruik van het algoritme aan de twee media. Het algoritme zou in april 2013 in gebruik zijn genomen en in elk geval sinds maart 2016 het inkomen als indicator gebruiken. Na een kritisch rapport van KPMG stopte de dienst met het gebruik van het algoritme. ...

... was dat om die reden al succesvol zwart gemaakt.
    Het algoritme, dat is.
    Niet de frauderende allochtonen.

Een klassiekertje (de Volkskrant, 22-01-2022, door Kim Bakker):
  Kunstmatige intelligentie | Zoekresultaten

Zoek het op en zie uw vooroordeel bevestigd

Met de resultaten die ze geven versterken zoekmachines nogal eens stereotypen en vooroordelen. Hoe komt dat, en hoe kan het anders?


Tik 'ceo' in bij Google Afbeeldingen. Resultaat? Bijna allemaal witte mannen in pak. 'Verpleegkundige'. Google zoekt en vindt: vrijwel alleen maar foto's van blonde vrouwen in witte ziekenhuisjassen.
    Nog eentje dan. 'Bouwvakker'. Een pagina vol mannen, maar kijk eens aan, twee vrouwen op de derde rij. Dat lijkt al wat inclusiever. Maar piept daar nu een string boven de klusbroek uit en is dat op die rechterfoto niet een sexy carnavalspakje? Uitgerekend de enige twee vrouwen op de pagina worden nogal seksistisch neergezet.
    Het blijft niet bij seksisme. In 2016 kwam een twitteraar tot de ontdekking dat de zoekopdrachten 'inappropriate hairstyles for work' nagenoeg alleen maar afbeeldingen van zwarte vrouwen opleverde. 'Appropriate hairstyles' dan? Witte, veelal blonde vrouwen waren het resultaat. De Amerikaanse onderzoeker en schrijver Safiya Noble vertelt in haar boek Algorithms of Oppression dat ze porno te zien kreeg toen ze zocht op 'black girls', niet de rolmodellen voor haar nichtjes die ze eigenlijk hoopte tegen te komen.

Brullen van de lach!!!
    Volledige naam: Safiya Umoja Noble.

De natuurlijke vijand van alle techniek is natuurlijk deze soort mens (de Volkskrant, 26-02-2022, boekrecensie, door Marjan Slob):
  De narcistische tiran in ons ziet zichzelf niet

De Franse techniekfilosoof Éric Sadin ontwaart een paradox: door algoritmen wanen we ons koning klant, terwijl we juist weinig of niets te vertellen hebben. ...

Recensent Slob uitleg of detail is ook filosoof, die ook een tijdje de Volkskrant volgezwateld heeft met politieke-correctheid "op niveau".
    Door de geest van de Franse filosoof waart een algoritme dat dicteert dat hij politiek-correcte prietpraat uitslaat en hijzelf daardoor weinig tot niets meer te vertellen heeft.

Geinig. Iemand die het verschijnsel opmerkt (de Volkskrant, 05-07-2022, column door Fleur Jongepier, filosoof en essayist voor Bij Nader Inzien):
  Soms lijkt het wel of techverklaringen de nieuwe breinverklaringen zijn geworden

Radicale boeren, die vinden elkaar op sociale media. Willen we de geest terug in de fles krijgen, is een 'indringend debat over de verantwoordelijkheid van de grote techreuzen achter de sociale netwerken' nodig, die gedwongen moeten worden om te voorkomen dat 'mensen via hun algoritmes in steeds donkerder tunnels belanden' (Commentaar, 29/6).    ...

Tjonge ...
    Vroeger belden ze elkaar, en nu sturen ze elkaar berichtjes via het internet ...
    Maar ja, het zijn alfa's, hè ...
    En dan krijg je dit soort redenaties:
 -  Wij haten boeren want werkende blanke Nederlanders dus willen we ze onteigenen om op hun land immigranten uit de woestijnen te huisvesten.
 -  Wij haten het internet want een plek waar gewone werkende blanke Nederlanders dus ook boeren elkaar kunnen treffen zonder dat wij dat onmogelijk kunnen maken.
 -  Dus, ergo, q.e.d.: het internet is verantwoordelijk voor de boosheid van de boeren die wij willen onteigenen.
    Een redenatie zo stupide dat het zelfs in eigen kringen opvalt:
  ...    Een opmerkelijke passage, zo vond ook universitair hoofddocent communicatiewetenschap Damian Trilling, die twitterde dat het toch jammer was 'dat er dan weer een sneer richting 'algoritmes' in zo'n commentaar moet worden gefietst'. Jammer, omdat de digitale plekken waar dergelijke radicale acties worden gepland helemaal niet zijn uitgerust met slimme algoritmes zoals die van YouTube.    ...

Ach jee ...
  ...    Het is ook jammer omdat het te simpel is. De gedachtengang lijkt te zijn: er vinden radicale acties plaats, algoritmes hebben het vermogen mensen tot radicale dingen te brengen, één en één is twee. Er zullen ongetwijfeld boeren zijn die door wie en wat ze online tegenkwamen verder zijn doorgeschoten. Maar het idee dat Big Tech een grote rol heeft wanneer het gaat om boeren die hele snelwegen lam leggen, met een tractor inrammen op een politiewagen, ministers intimideren - dat is wensdenken.    ...

Ach jee ...
    Overigens, dit ...
  ... boeren die hele snelwegen lam leggen, met een tractor inrammen op een politiewagen, ministers intimideren ...

... is het resultaat van het algoritme dat heet "mainstream media", of "reguliere media", of gewoon "de media", welke algoritme zegt: "Wat uit de Joodse of Arabische asociale woestijn komt is GOED!!! en wat van de Europese sociale weide komt is FOUT!!!".
    Eigenlijk geen algoritme maar gewoon één van de logische regel horende bij het Ideologisch Absolutisme.
    Dit omdat de andere kant van het verschijnsel 'boeren die hele snelwegen lam leggen', zijnde "elite die hele boeren lam leggen", niet genoemd wordt.
    Oftewel: dat volgens de filosoof "elite die hele boeren lam leggen" niet bestaat.
    En aangezien in de werkelijkheid "elite die hele boeren lam leggen" wel bestaat, ontkent de filosoof hier dus het bestaan van de werkelijkheid.
    Een typisch gevolg van Ideologisch Absolutisme, namelijk Ideologische Blindheid.
    Welke verschijnsel bij de filosoof hoogstvermoedelijk verklaard wordt door het feit dat in de media het voortdurend gaat over 'boeren die hele snelwegen lam leggen', terwijl "elite die hele boeren lam leggen" niet genoemd wordt of op een dusdanige manier dat het logisch is dat "elite ... hele boeren lam leggen".
    Oftewel: "de media" doen ook aan algoritmes, dit algoritme dus zijnde: "Elite die hele boeren lam leggen" is GOED!!! en 'boeren die hele snelwegen lam leggen' is FOUT!!!".
    Welke Ideologische Blindheid ook hier, net zoals gewoonlijk, gepaard gaat met Ideologische Emotionaliteit, hier vervat in dat ene bijvoeglijke naamwoordje 'hele'.
    Boeren leggen niet snelwegen plat, maar leggen hele snelwegen plat.
    Dit alles ter illustratie van het feit dat verwijten vanuit de richting van "de media" richting zij die algoritmes gebruiken, net zo correct zijn als verwijten van potten aan ketels dat ze zwart zien.
    Waarna de filosoof wat voorbeelden van die onterechte verwijten noemt, door de oorzaken van de door de media aan de algoritme toegeschreven verschijnselen te noemen:
  ... We zagen het eerder bij Brexit, ...

Waar gewoon de meerderheid er Britten voor was, terwijl de algoritmes van de media er sterk tegen waren.
  ... de Amerikaanse verkiezingen die Trump in het zadel hielpen ...

Waar gewoon de meerderheid der Amerikanen voor was, terwijl de algoritmes van de media er tegen waren.
    Ziet dus ook de filosoof:
  ...    Pijnlijk veel Britten wilden écht uit de EU, onnoemelijk veel Amerikanen wilden écht een idioot als Trump als president ...

En dat dan nog zonder het noemen van de andere kant van het verschijnsel algoritme:
  Pijnlijk veel Engelse media-algoritmes wilden écht in de EU, onnoemelijk veel Amerikaanse media-algoritmes wilden écht een idioot als Clinton/Biden als president.

Want de wetmatigheden die de keuzes van de media bepalen, de al genoemde Wetten van de Joodse en Arabische Woestijnen, zijn net zozeer algoritmes als die van de computers, zij het dat die Woestijnwetten van de media op neuronen draaien, in plaats van siliciumchips.
    En dat die media-algoritmes uit Joodse en Arabische Woestijnen komen, is iets dat zelfs de filosoof per ongeluk illustreert:
  ... Volgens Yuval Noah Harari zijn we binnenkort niet meer dan een 'hackbaar dier' en hebben de concepten 'individu' en 'vrijheid' hun betekenis verloren. ...

Die Yuval Noah Harari is een Joods en Arabisch Woestijndier van de eerste soort, boordevol Joodse en Arabische Woestijn-algoritmes die proberen de geesten van de Europese boeren en overige weide-bewoners te hacken zoals dat eerder gebeurd is met het christendom en heel recent de islam.
    Misschien is het toch verstandiger van de politiek-correcten dat ze zich voor de volle honderd procent aan de Ideologische Blindheid houden, want zodra ze ook maar een substantieel percentage van de werkelijkheid toelaten, zoals hier, stort meteen het hele griezelkasteel in elkaar.

En een paar dagen later legt de Volkskrant nog eens uit wat er nu echt mis is met algoritmes (De Volkskrant, 06-07-2022, rubriek Huh?! Opmerkelijke onderzoeken, door George van Hal):
  Kan kunstmatige intelligentie tóch rechtvaardig zijn en fair worden ingezet?

Ja hoor! Zo:
  ... Eind vorige maand presenteerden onderzoekers van de Amerikaanse universiteit MIT op een vakconferentie bijvoorbeeld een systeem dat de Amerikaanse huizenmarkt eerlijker moet maken. Dat doet die kunstmatige intelligentie door beleidsadvies te geven dat de balans helpt herstellen tussen witte en zwarte huizenkopers, onder meer door extra gemeenschapsgeld beschikbaar te maken voor die tweede groep. ...

Gunst, daar heb je echt geen algoritme voor nodig, om to zwartenbevoordeelbeleid te komen.
    Dat doen de neurologische algoritmes volkomen automatisch.
    Maar dat zijn dus de goede algoritmes.
    En foute zijn ...
  ... het kunstmatig intelligente politiesysteem in de VS, dat prompt 56 procent van de zwarte mannen tussen 20 en 29 in Chicago op een lijst zette met mensen 'die het grootste risico lopen betrokken te zijn bij een schietpartij ...

Verrek ... Het lijkt de werkelijkheid wel ...
    ...
    Een paar uur later bedacht het neurologische algoritme de (vermoedelijke) werkwijze van de silicium-versie. Eerst had het de gegevens van, zeg, vijf jaar gearresteerden wegens schietpartijen gekregen, opgesplitst naar etniciteit want dat mag in Amerika (voor de Nederlandse versie, zie hier uitleg of detail ).
    Vervolgens had het uitgerekend dat 99 procent daarvan zwart was (in zuid-westelijke staten krijg je daar een flinke portie latino's bij, maar dit is Chicago, in het noorden).
    Vervolgens had het algoritme alle andere gemeenschappelijk eigenschappen bij elkaar genomen en gerangschikt naar sterkte. Met bovenaan als eigenschap: gezin met of zonder vader, en uitkomst: 80+ procent zonder vader.
    Daarna was hun woonplaats binnen Chicago opgedeeld in de verschillende buurten en wijken, welke het neurologisch netwerk niet kent maar naar analogie zich kan voorstellen dat dit net zoiets oplevert als het verschil tussen Kralingen en IJsselmonde (of Buitenveldert en Bijlmer, e.d.)
    En tot slot had het algoritme deze verdelingen losgelaten op alle jonge zwarte mannen, met de uitkomst van 56 procent.
    Hartstikke logisch, allemaal.
    Had geen algoritme aan te pas hoeven komen, maar toch prettig om gezond verstand-oordelen bevestigd te zien.

Eén van de uiterst belangrijke zaken waar je software voor kan gebruiken is dit (de Volkskrant, 15-07-2022):
  Om erop toe te zien dat studenten niet frauderen, grijpen universiteiten tijdens de coronacrisis op grote schaal naar antispieksoftware. Het populairste programma is van het Amerikaanse bedrijf Proctorio en wordt nog altijd gebruikt door onder meer de VU, de UvA, de TU Eindhoven en de Universiteit Twente. Om in te loggen, scant Proctorio de studentenpas en het gezicht. Het programma heeft toegang tot de camera en microfoon om te controleren of een gezicht in beeld is, en of de student van het scherm wegkijkt of met iemand overlegt.    ...

Zonder die software is op die manier corona-veilig tentamen-afnemen in het geheel niet mogelijk, en de manieren om met bovenstaande methode fraude te plegen, zijn ook nog steeds legio (deze redactie gaat ze niet opnoemen om geen slapende fraude-gevoelige hondensoorten uitleg of detail wakker te maken).
    Maar ja, je moet wat in corona-tijden.
    Maar, blijkt, de software werkt niet helemaal goed ...
  Gespannen tuurt masterstudent Robin Pocornie naar haar laptop ... ze zit klaar voor haar online tentamen ... Dan verschijnt een boodschap op haar scherm. 'Ik zie dat je lang doet over inloggen', staat er. 'Gaat het oké?'
    Ze probeert het nog eens. Ze zit stil voor haar webcam om haar studentenpas en haar gezicht te laten scannen door de antispieksoftware die ze moet gebruiken. Het programma herkent haar gezicht niet en vraagt haar om in een goed belichte kamer te gaan zitten, maar daar zít ze al. ...
    ... Dan krijgt ze een ingeving. Ze schijnt de lamp achter haar laptop recht in haar gezicht. Opeens lukt het wel. ...

Niks bijzonders, natuurlijk. Software in vliegtuigen en raketten werkt ook soms niet goed en die wordt oneindig veel beter gecontroleerd en getest dan dit soort massa-product.
    Maar ja, "slachtoffer" ...

... heeft kleurtje, is "mens van kleur", dus is er meteen sprake van ... (de Volkskrant, 15-07-2022):
  Discriminatie

... klacht in bij het College voor de Rechten van de Mens ... zwarte studenten ...


...  antispieksoftware ... het Amerikaanse bedrijf Proctorio ...
    ... proctorio + racism ...
    ... mensen van kleur ...
    ... mensen van kleur ...
    ... mensen van kleur ... mensen van kleur ... zwarte gezichten ...
    ... zwarte studenten...
    ... Racism and Technology Center ...
    ... discriminerende effecten ... discriminatie ...
    ...  discriminerend effect ...
    ...  Racism and Technology Center ... College voor de Rechten van de Mens (CvRM) ... Racism and Technology Center ...
    ... CvRM ... discriminerende ...

... , want mensen van kleur zijn hartstikke gelijkwaardig en ieder verschil is het gevolg van discriminatie en racisme.
    Daarvoor zijn speciaal door de elite diverse instellingen en organisaties opgericht zoals dat genoemde College voor "Ieder Nadeel voor of Minder Punt van Gekleurde Mensen is Discriminatie en Racisme", het "CNMPGMDR", een instituut met een lange staat van dienst uitleg of detail .
    Dit naast diverse onder de burgers van GOEDE!!! komaf spontaan ontstane initiatieven ter bestrijding van discriminatie en racisme, zoals het "MNMPGMDR": het "Media voor Ieder Nadeel voor of Minder Punt van Gekleurde Mensen is Discriminatie en Racisme", en hier met name het "VNMPGMDR": het "Volkskrant voor Ieder Nadeel voor of Minder Punt van Gekleurde Mensen is Discrminatie en Racisme".
    Welk laatste het op een detailpunt wat minder functioneren van deze software weet te vertalen tot ... :
  Bewijs maar dat je een mens bent

... terwijl die software evenveel weet wat een 'mens' is als de eerste de beste lantarenpaal, of mooier: voordeurlicht dat aangaat als u voorbijloopt.
    "Kijk eens wat mooi ... Hij herkent me!"
    Kirt de door geen enkele vorm van rationaliteit gehinderde alfaziel na het installeren van zijn nieuwe speeltje.
    En om totaal van iedere emotie gespeende technologische attributen als software te voorzien van de o zo noodzakelijke hoog-emotionele dimensie, in verband met "MNMPGMDR" en "VNMPGMDR", is het dus nodig om ...
  De Volkskrant, 15-07-2022, door Fleur Damen, m.m.v. Maud Effting

... twee hoog-emotionele ...
      Gespannen tuurt masterstudent Robin Pocornie ...
    Pocornie is erop gebrand ...
    ... 'Wat gebeurt hier?', denkt Pocornie.
    De zenuwen lopen op ...
    ... meer stress
    ... publiekelijk excuses ... eis ...
    ... eisen ...
    'De software herkent me niet als mens, en de universiteit erkent mijn ervaring niet'
    ... frustrerende ervaringen ...

... en van iedere rationaliteit gespeende alfa-figuren aan de taak van het vertalen te zetten. Er staan geen fotootjes bij het artikel want dat is niet gebruikelijk bij Eerste Katern-vullers, maar we weten zeker dat ze niet te onderscheiden zullen zijn van de collegaatjes van het Magazine die daar scheutiger mee zijn en allemaal voldoen aan het "Aaf Brandt-Costius Begonias uitleg of detail "-profiel.
    Het soort figuren dat ook nooit de ongewenste realiteit zal waarnemen, zelfs als die realiteit ...
  ... Pocornie ... is een van de weinige zwarte studenten uit haar jaargang op de VU ...

... zo dicht voor de neus staat dat ze het hele gezichtsveld in beslag neemt.
    Natuurlijk is het moeilijker herkennen van "zwarte" gezichten een ordinair technisch probleem dat te maken heeft met licht-donker contrasten en -contouren, en met enige moeite opgelost kan worden.
    Maar ja, het is hetzelfde als met schoenmaatje 58: daarvoor draait de fabriek echt niet.
    Die zal je met de hand moeten laten maken.
    Want van schoenmaatje 58 zijn er zo weinig, dat het bouwen van een fabriek ervoor te duur is.
    En met zwarte studenten ...
    Enfin, u snapt het, dit wordt te discriminerend en racistisch, en bovendien is het best mogelijk om die software te verbeteren, maar daarvoor moeten ze er gewoon wat tijd en mensenwerk oftewel geld erin steken en je weet hoe dat gaat bij bedrijven.
    Geheel los van enige overweging van huids- of andere kleur.
    En hoe vaak treedt dit soort probleem nu in het algemeen op?
    Nou, zo vaak, dat om de geschiedenis van dit soort software-probleempjes te illustreren, de theekrans-dames terug moeten grijpen ...
  ... Berucht is het voorbeeld van Google Photos, dat zwarte mensen in 2015 aanmerkte als gorilla's. ...

.. naar een geval uit 2015, zeven, ZEVEN, jaar geleden, en een geval dat helemaal niets te maken had/heeft met gezichtsherkenning, maar probeerde het onderwerp van foto's te herkennen, en dus absoluut niet let op details als onderscheid in "gezicht".
    Maar ja, wat je wel raden wat de theekrans-dames gedaan hebben ... Hetzelfde als de mens van kleur:
  ... Pocornie ... ze googelt op 'proctorio + racism' ...

... en dan krijg je natuurlijk inderdaad resultaten, want het internet is tegenwoordig zo groot dat je ook resultaten krijgt op "ijsbeer + meloen".
    En de theekransdames vonden natuurlijk vooral dat "gorilla"-aspect iets om te zoenen.
    Na afloop gezellig nakletsen onder genot van wat roomsoezen ...
    Hops, weer wat DEUG!!!-dopamine gesnoven ...
    ...
    Voor de volledigheid: hier is het geval van gorilla-racisme van Google uit 2015, destijds met een brullende lach door deze redactie genoteerd (CNN.com, 02-07-2015, uitleg of detail ):
 

De firma Google heeft naast zijn zoekmachine ook diverse andere diensten, waaronder één voor de opslag en het delen van foto's. De opgeslagen foto's worden, ten dienste van het zoeken ernaar, automatisch voorzien van korte begeleidende en beschrijvende tekst. Daartoe heeft Google een herkenningssprogramma ontwikkeld dat aan de hand van het beeld, hoofdzakelijk de contouren mag men aannemen, bepaalt wat voor soort voorwerpen op de foto staan. Hier is het "beledigende" resultaat:
 

De foto met het vriendinnetje krijgt de omschrijving toebedeeld van "gorilla". En constateert de vriend verontwaardigd ... :
 

"Het is alleen bij de foto's met haar erbij dat het gebeurt" ...
    Ja, omdat alleen haar contouren lijken op die van een gorilla.
    Kan de gorilla niets aan doen.
    Nog minder de software.
    De natuur is hard uitleg of detail .
    Dus ... :
  ... Berucht is het voorbeeld van Google Photos, dat zwarte mensen in 2015 aanmerkte als gorilla's. ...

... bevat twee leugens - nummer 1 het ging niet om 'zwarte mensen', want het gebeurde niet bij de zwarte vriend van het slachtoffer. Nummer 2: het ging niet om 'mensen', maar slechts één persoon.
    De betrouwbaarheid van de rest van de beweringen ligt dus onder de 50 procent .

Een niet gevoelig onderwerp, en meteen krijgen we een prima uitleg van hoe het werkt (de Volkskrant, 21-07-2022, rubriek Huh?! Opmerkelijke onderzoeken, door George van Hal):
  Dit robotveulen kan zichzelf net zo snel leren lopen als echte veulens dat kunnen

Vlak na de geboorte leren wij mensen, als we heel eerlijk zijn, een beetje langzaam. ... Nee, dan paarden. Hun veulens klauteren een half uur na de geboorte al overeind, en lopen na een uurtje rond als volleerde vierbenenbewegers. Niet vreemd, dus, dat Duitse robotici deze week in het vakblad Nature Machine Intelligence het loopwonder van het veulen als voorbeeld kozen.
    En zie daar: prompt kon dat robotveulen - lees: een romp op vier metalen poten, een hoofd ontbreekt - zich al na een uur verplaatsen zonder strompelen en struikelen, net zoals zijn biologische evenknie.
    Dat deed Morti ... niet met een vooraf geprogrammeerd wandelalgoritme. Nee, net als een echt dier, leerde Morti zichzelf lopen.
    Of, exacter: dat deed 'zijn' zelflerende wandelalgoritme. Eentje dat geïnspireerd is op het netwerk van neuronen dat in de ruggengraat van veel dieren de symfonie van samentrekkende spieren dirigeert waarmee een dier beweegt.
    Het algoritme beschikte daarbij vooraf nauwelijks over informatie over hoe het lichaam van Morti eruitziet. Zo wist het bijvoorbeeld niets over de precieze vorm van de onderdelen van zijn benen.
    Om te leren lopen begon Morti daarom net als een echt veulen simpelweg met wat voorzichtige eerste stapjes. Die eerste 'kale' loopinstructies slijpt het algoritme vervolgens bij, met behulp van signalen uit de sensoren in zijn voeten. Na een uurtje vol feedback en het steeds weer herschrijven van de loopinstructies, in totaal werkte hij de boel zo'n hondervijftig keer bij, transformeerde het elektronische dier van een lomp struikelend gevaarte in een elegante wandelaar. Al doende leert men.
    Handige bijkomstigheid: datzelfde proces maakt het lopen steeds efficiënter. Uiteindelijk verbruikte Morti tijdens experimenten grofweg de helft van alle energie tijdens zijn eerste, weifelende stappen. Bovendien stopt het leren niet. Waar veel algoritmen op een gegeven moment 'af' worden verklaard - strik eromheen, vanaf nu kan deze robot lopen - blijft Morti continu bijleren. Zodat hij in theorie ook lastiger terrein kan leren bewandelen. Op papier althans: bij de huidige experimenten is dat nog niet geprobeerd.    ...

En op dezelfde soort manier leert een algoritme onderscheid maken bij fraudeurs, tot het uiteindelijk uitkomt bij, onder andere, mensen met twee paspoorten.
    En dergelijke.
    De mensen die in straten wonen waar in iedere woning een invalide met een parkeervergunning huist ... uitleg of detail

Vermoedelijk een voorbeeld van Volkskrant-ironie ... (Volkskrant.nl, 11-09-2022, uitleg of detail ):
  Podcast | Stuurloos

Met kunstmatige intelligentie kun je ook iets goeds doen. ...

Klopt: allochtonen betrappen op fraude uitleg of detail .
  Je kunt al snel denken dat kunstmatige intelligentie alleen maar iets is om voor op te passen. ...

Klopt, als je "de media" volgt.
  ... Een machtig wapen in handen van de overheid of van techbedrijven die zich schuldig maken aan privacyschending, discriminatie of onterechte straffen. ...

Wat we al zeiden: een machtig wapen in handen van de overheid op het betrappen van fraude dus meestal allochtone fraude, wat "de media" dan 'discriminatie' of 'onterechte straffen' noemt.
    Die privacyschending door techbedrijven willen ze niks aan doen, want als ze het willen is het met één klap op te lossen: hef de bedrijven op die het doen (begin bijvoorbeeld met het verbieden van het gebruik van cookies ervoor - heel simpel na te gaan want die cookies worden met de miljarden verspreid - wie betrapt wordt: boete van halve jaaromzet).
  ... Maar we kunnen met algoritmen juist problemen oplossen en werken aan een rechtvaardiger wereld, zegt informaticus Sennay Ghebreab van het Civic AI Lab tegen Kustaw Bessems. ...

Klopt.
  ... Dan moeten we wel de basis een beetje snappen ...

Doe je best.
  ... én er meer over te zeggen hebben.

Dus vooral niet, want dat 'we' is op zijn best het alfa-tuig dat de huidige wereld bestuurt, en het effect daarvan heb je gezien met kernenergie: door hun "emoties" zitten we nu met een klimaatcrisis.
    En als je mensen als K. Bessems uitleg of detail er iets over laat zeggen, zitten we binnen no time in Het Rijk van Big Brother, bestuurd door lieden met de mentaliteit van Het Oude Testament en De Inquisitie.

En daar zijn ze met z'n tweeën in vol ornaat. K. Bessems en S. Ghebreab met de tactiek waarin K. Bessems zich aan het specialiseren is, de uitgebreide versie van A. Grunberg's "Ik ben je vriend, maar ..." (de Volkskrant, 01-10-2022, door Kustaw Bessems):
  Kunstmatige intelligentie

De digitale wereld is niet alleen maar eng

Informaticus Sennay Ghebreab is ervan overtuigd dat kunstmatige intelligentie de samenleving vooruit kan helpen. ...

Het "Ik ben je vriend ...".
   En hier:
  ... Wel moeten we ons er meer in verdiepen. 'Wie niet digitaal geletterd is, dreigt straks te worden uitgesloten en onderdrukt.'

... het eerste "... , maar ...".
    En hier nog wat "maars":
  Hoe komen de meeste mensen dagelijks in aanraking met AI?
Het gebeurt vanaf het moment dat je wekker gaat tot je weer naar bed gaat. ....'

Een leugen. Het gebeurt alleen via een computer, al dan niet op het internet. Trek de stekker eruit:weg AI.
  ... Lang is het misverstand geweest: het is iets technologisch', dus het is neutraal. Dat dat niet zo is, wordt steeds beter bekend ....'

Een leugen: AI is neutraal, want het AI begrijpt niets, maar het gebruik van haar resultaten hoeft niet neutraal te zijn.
  Die bekendheid is onder meer te danken aan zaken zoals het toeslagenschandaal, waarbij mensen met een tweede nationaliteit eerder als fraudeur werden behandeld, en het digitale systeem SyRI in Rotterdam dat naar fraude zocht in specifieke wijken.

Leugens van K. Bessems: die tweede nationaliteit is een objectieve maat voor meer fraude, en fraude met sociale uitkeringen vindt je in wijken met sociale uitkeringen.
    Let op: alle twee niet een zaak van AI.
  'Die zaken hebben meer bekendheid gebracht, maar helaas hebben ze AI uitsluitend in een slecht daglicht geplaatst. ... '

Door de leugens en machinaties van K. Bessems cum suis.
  '... Terwijl je met AI ook iets goeds kunt doen. AI is een reflectie van de samenleving. Het legt bloot hoe onze maatschappij in elkaar zit: zijn discriminatie en uitsluiting daarin een groot probleem, dan komt dat ook terug in computersystemen, want die worden door mensen bedacht en gebruikt. ...

"Als de maan van groene kaas is ... "
    Discriminatie en uitsluiting zijn geen probleem, laat staan een groot. Van allochtonen, dat is.
  Want het onderscheid dat de algoritmes maken is er door mensen in gebracht?
'Ja. Vaak gebeurt dat onbewust. Maar soms is het bewust. Neem de toeslagenaffaire. Daarin zie je duidelijk de beslissing: we moeten ons richten op burgers met een tweede nationaliteit. Dat wordt expliciet in het systeem gebouwd ...'

Herhaling, herhaling, herhaling.
    Voortdurend wordt dit herhaald.
    De Joodse en islamitische mantra's uit de woestijn.
    Oeoeooeoeoeoemmmmmm!
  Wat is een voorbeeld van een goede AI-toepassing?

Eindeloos veel.
  Zijn er problemen die niet kunnen worden opgelost met AI?

Bijna alle of misschien wel alle problemen die van belang zijn.
    Voorbeeld:
  'Of neem de echoputten vol nepnieuws. Die worden gecreëerd met AI.... '

Er is maar één plaats waar AI als echoput kan werken: op het inernet. Daar hebben alleen mensen die het opzoeken mee te maken.
    Er is ook een echoput vol nepnieuws buiten het internet.
    Dat zijn de reguliere media.
    Daar is het maatschappelijk functioneren van afhankelijk, maar dat probleem kan absoluut niet met AI opgelost worden.
    Daarvoor heb je touwen en valbijlen nodig.
    En tribunalen.
    Oh ja: onderschrift bij de foto:
  Sennay Ghebreab ontwikkelt kunstmatige intelligentie (AI)die mensenrechten respecteert en bevordert. Daartoe heeft hij aan de Universiteit van Amsterdam het Civic AI Lab opgericht.

Waar staat: "Ik ben een oplichter die blanken haat".
    Want: AI kent alleen getallen en weet niets, en dus ook niet wat "mensenrechten" is, en kan dat dus respecteren noch bevorderen. Wat daar dus staat is dat S. Ghebreab AI wil hanteren om gekleurden te bevoordelen, want dat is wat de term "mensenrechten" in de praktijk doet: gekleurden vrijpleiten van fraude of soortgelijke zaken omdat ze gekleurd en minderheid zijn, want het corrigeren van frauderende minderheden of gekleurden is "een schending van de mensenrechten". Zie bijvoorbeeld wat het College van de Mensenrechten doet uitleg of detail .
    Op naar de volgende die over de toeslagenaffaire begint.

Hops, en daar is de zoveelste hoeveelheid waanzin over het internet en de algoritmes weer, met haar huidig favoriete geval: TikTok (de Volkskrant, 28-01-2023):
 

En wat is het huidige alfa-intellectuele dwaallicht (pleonasme!) dat het kwetsbare TikTok beter kent dan haar progammeurs:
  De Volkskrant, 28-01-2023, door Lena Bril, schrijver en mediastrateeg

Een uitstekende achtergrond om niet te weten dat TikTok en haar algoritmes alleen in naakte getallen handelen, en totaal nul komma nul besef hebben van wat die getallen betekenen.
    Je deelt je aanbod in in hokjes (dat kunnen ook de mensen doen maar dat doet er niet toe: hokje = naam = getal), en je telt de hokjes van je gast, en hoppa: klik op 12 hokjes 12345, en je krijgt meer van hokjes 12345:
  TikTok kent kwetsbare gebruikers beter dan hun therapeut

...    TikTok, het socialemediaplatform van het Chinese moederbedrijf ByteDance, maakte in Nederland tussen 2020 en 2022 een ongekende groei door: van 850.000 naar 3 miljoen gebruikers. De groei wordt gestuwd door het beruchte algoritme dat binnen no time door heeft waar een gebruiker graag naar kijkt....

En dat geldt voor alles waar je veel op klikt.
    Dus ook op ... :
  ...    In mijn studententijd, begin jaren tien, ondervond ik hoe onzekerheid in combinatie met talloze fitgirls op mijn Instagramtijdlijn, mijn lichaamsbeeld en eetgedrag verstoorden.

... met met een zwakke geestelijke gesteldheid in dit geval van de vrouwelijke kunne in welk geval de zwakke geestelijke gesteldheid meestal te maken heeft met het uiterlijk (zo niet voor 100 procent altijd), waarna er in veel gevallen eetproblemen volgen van diverse soort.
    Waar deze schrijvende en media-strategende mevrouw met de zwakke geestesgesteldheid en de al dan niet actuele eetstoornissen dan tranentrekkende verhalen over gaat houden:
  Huilend kijkt een meisje in de camera. Haar wangen zijn ingevallen, een grote gebreide trui hangt om haar knokige schouders. Voor haar op tafel staat ...

... , wat het voor iedereen sluitende bewijs is dat TikTok niet deugt.
    En dat dan wee twee pagina's Volkskrant lang.
    Oftewel: van de 100 geboren kinderen zijn er drie gehandicapt (of noem maar een getal). Dus die Geboren-worden firma is een schurk. Tegen het risico's van de Geboren-worden moeten de kwetsbare Geboren-wordenden beschermd worden.
    Door de firma van het Geboren-worden te verbieden, natuurlijk.
    ...
     En voor dit verhaal werd dat plaatje opgeslagen in het archief, waar dus ook dit bleek te staan (de Volkskrant, 12-11-2022:


Nog een aflevering van dezelfde rotzooi tussen de laatste twee genoteerde in.
    Verzin zelf maar een naam voor het algoritme dat tot dit soort stompzinnig repetatief gedrag leidt.

De bèta-hatende journalisten zoeken het "hogerop":
  De Volkskrant, 04-04-2023, door Frank van Praat, AI-expert bij KPMG Nederland, en Angelica van Beemdelust, AI-expert bij KPMG Nederland.

Ja ja, lacht u maar ...
    Accountants ...
    Naast stofzzuigerverkopers-aan-de-deur het meest gerepesteerde berope in Nederland ...
    Maar goed, je moet altijd ieder individueel geval idividueel behandelen. Eerst even de specifieke kwestie:
  Gevaren en nadelen van kunstmatige intelligentie vragen niet om een ontwikkelpauze, maar om regulering

Elon Musk, ceo van Tesla en Twitter, ceo van Tesla en Twitter, en ruim duizend andere tech-experts hebben recent een open brief ondertekend waarin per direct wordt gevraagd om een tijdelijke stopzetting van de ontwikkelingen op het gebied van Artificial Intelligence (AI, of kunstmatige inteligentie). De voorgestelde pauze van zes maanden betreft AI-ontwikkelingen die geavanceerder zijn dan GPT-4, het systeem achter ChatGPT, om zo de risico's van AI-toepassingen beter te beheersen. ...

De oplossing van de stofzuigerverkopers:
  ... Gelukkig zijn er ook al oplossingen, zoals externe controles door accountants ...

... : stofzuigerverkopers.
    Goh, wat een verrassing ...
    Nou is de door de heren voorgestelde oplossing natuurlijk ook niks, alleen al door de beperking tot een half jaar.
    En ten tweede is zoiets nog moeilijker af te dwingen dan een pauze op alcohol of seks.
    Dat ontwikkelen van AI wordt namelijk, voor zover het gevaarlijk is, helemaal niet gedreven door lust tot ontwikkelen laat staan het welzijn van de mensheid, maar door machtswellust in diverse vormen, en geldlust.
    Kijk maar naar de rijken in de ICT: Zuckerberg, Page & Brin, Ellison, the new kid on the block Altmann, de man van dat ChatGPT: allemaal leden van de stam van De Dansers rond het Gouden Kalf, die door Jezus uit de Tempel gejaagd werden uitleg of detail .
    En de stofzuigerverkopers gaan absoluut helpen in het bestrijden van de Kalfdansers, want die vreten uit hun ruif.
    En dat is natuurijk wat de stofzuigerverkopers verder nog allemaal voorstellen:
  ... Gelukkig zijn er tools en richtlijnen om deze risico's te voorkomen en te beperken. Het National Institute of Standards and Technology (NIST) en de Internationale Standaardisatie Organisatie (ISO) hebben risicobeperkende maatregelen voorgesteld met respectievelijk de AI Risk Management Framework en het Framework voor Artificial Intelligence (AI) Systems Using Machine Learning (ML). Verder lopen al gespecialiseerde accountants AI-toepassingen van bedrijven en organisaties na.     ...

Terwijl de echte oplossing uiterst simpel is en aan beide eisen uit de koppen voldoet: verplicht het openbaar maken van alle software.
    Nummer 1: iedereen kan altijd (laten) controleren wat die software doet, en nummer 2 en de belangrijkste: het verliest volkomen de interesse van de Zuckerbergs en de rest van het Kalfdansers en soortgelijken, want je kan er niet meer steenrijk mee worden.
    En dat is dus de oplossing die u van de stofzuigerverkopers nooit zult horen.
    En oh ja, wat is nu eigenlijk het gevaar van die AI:
  ... de serieuze risico's, zoals het makkelijk kunnen verspreiden van nepnieuws ...

Volkomen onzin: veruit het meeste nepnieuws wordt verspreid door de reguliere media uitleg of detail , kijk bijvoorbeeld maar wat er allemaal rondgaat over de oorlog in Oekraïne. En hoe ze het neoliberalisme verspreid hebben uitleg of detail .
  ... de serieuze risico's, zoals ...het discrimineren van mensen ...

Oftewel: het ernstige risico van het naar buiten komen van de corruptie en achterlijkheid van allochtone culturen uitleg of detail , en dat de grote stroom van berichten dat het mensen zijn als u en ik ook allemaal het meest neppe nepnieuws is.

Een zeer verhelderend stuk met van alles bij elkaar::
  De Volkskrant, 13-04-2023, door Hassan Bahara

De auteur is een blanke cultuur hatende moslim.
  Interview | Meredith Broussard

Meredith Broussard ... Met een zwarte vader en een witte moeder...

Geldt overal ter wereld en met name in Amerika als zwart, en die gemengde gevallen ...
  ... toen ze enkele jaren geleden tijdens een doktersbezoek van de assistente te horen kreeg dat ze in haar digitaal patiëntendossier maar één raciale herkomst kon aangeven, reageerde ze onmiddellijk als gebeten.

... zijn vaak het ergste.
    Overigens geldt het geval ook medisch gezien als zwart, want daar gaat het om medische risicofactoren die zwarten extra hebben, en de arts die daar geen rekening mee houdt, benadeelt zwarten en is dus een racist (zie het soortgelijke geval van vrouwen).
    Door de witte genen ...
  ... Meredith Broussard, een Amerikaanse journalist ... New York, waar ze datajournalistiek doceert aan de New York University.

... kan ze dus wat, en door haar zwarte genen ... :
  ...Aanleiding voor het gesprek met Broussard is de publicatie van haar nieuwe boek, More Than a Glitch (meer dan een storing), een somber overzicht van hoe nieuwe technologische verworvenheden als computeralgoritmes en artificiële intelligentie ...
    Meerwaarde van More Than a Glitch ligt in het grote aantal verhalen over computerfalen dat Broussard wist te verzamelen en de analyse die ze er op loslaat. ...

... gebruikt ze de voodoo van het specifieke voorbeeld om het gemiddelde te weerleggen: "Omdat Yashahiro Kobayashi langer is dan Wim Jansen, is de regel dat Nederlanders langer zijn dan Japanners niet geldig".
    Nou zijn er ook eindeloos veel niet-zwarten die dit soort voodoo hanteren, maar gedompeld in zoveel racisme wordt je vanzelf ook racistisch.
    En het staat er ook allemaal letterlijk:
  ... Een van de gevallen waarover ze schrijf ...
    Een ander schrijnend geval ...

Tja ...
    Dus als algoritmes tot de conclusie komen dat Nederlanders langer zijn dan Japanners, en dat ...
  ... Het is al langer bekend dat computersystemen en algoritmes niet altijd even positief uitpakken voor minderheden. ...

... dus niet altijd even positief uitpakt voor de Japanse minderheid, en dus ook voor ...
  ... Vorige maand onthulden verschillende Nederlandse media dat de gemeente Rotterdam bij de bestrijding van bijstandsfraude een algoritme gebruikt dat met name jonge moeders uitlicht en ook mensen die het Nederlands niet goed machtig zijn. ...

... mensen uit corrupte culturen ('jonge moeders' = "zwarte tienermoeders"), is dus allemaal de schuld van ...
  '... technochauvinisme ... oneerlijke algoritmes en artificiële intelligentie.'

... , zoals ...
  ... Volgens Broussard zou meer diversiteit in de techwereld veel van deze blinde vlekken kunnen verhelpen. ...

... het discrimineren van zwarten bij de eindeloos veel gratis opleidingen op het internet om iets van computertechnologie op te steken.

Het weergeven van een media-hysterie is lastig want een groot deel ervan zit in de de hoeveelheid.
    De eindeloze herhaling van steeds dezelfde rotzooi.
    Multiculturalisme, immigratie, stikstof, kernenergiebedreiging, extreemrechts, ... De werking van al die campagnes zit in de onbeperkte herhaling, van de alfa-visie op die dingen, zonder één enkel oog voor de feiten.
    Media = alfa-terreur.
    Met nu dus de "ALGORITMES!!!"
    Of "AI!!!" of "articial intelligence" en noem maar op.
    En het is weer zo intens in "de media' dat het zelfs die plekken heeft bereikt waar men vaak nog een tikje nuchterder is dan "TOTAAL HYSTERISCH". En het begint al meteen goed:
  elsevier.nl, 23-04-2023, door Bram van Gendt (2001), studeert politieke geschiedenis aan de Radboud Universiteit te Nijmegen, uitleg of detail .

HOPELOOS!!!
    Een student geschiedenis over algoritmes ...
    Een student algoritmes die iets zou insturen over geschiedenis niveau "Amerika is de meest vreedzame natie op Aarde" zou driehonderd keer worden uitgelachen.
    Om te beginnen al vanwege het taalgebruik want een student algoritmes kan natuurlijk gewoon niet lekker vlot schrijven, want anders was het wel een student geschiedenis geworden.
    En studenten geschiedenis kunnen niet goed redeneren, want als ze goed konden redeneren, waren ze wel student algoritmes geworden want daarmee kun je veel beter je brood verdienen.
    Maar lekker vlot schrijven kunnen ze dus wel:
  Benader kunstmatige intelligentie hetzelfde als kernkoppen.

En die kop komt niet van de Elsevier-redactie, anders dan dat ...
   ... de mogelijke inpassing van AI is misschien nog wel risicovoller dan nucleaire wapens. ...

... 'nucleaire wapens' is afgekort tot 'kernkoppen'.
    Eén enkel voorbeeld van "redenatie" voordat we het hele epistel reproduceren:
  ... mensen kunnen ook in grote problemen komen doordat AI zelf een fout maakt. Zo pleegde een Belgische jongen onlangs zelfmoord vanwege onder meer de immense overtuigingskracht van AI.    ...

Uit de geschiedenis van DE TECHNIEK: "Mensen zal de adem benomen worden en sterven vanwege de enorme snelheid ...

... van de stoomlocomotief". En: "Het paardloze rijtuig is een dodelijk gevaar dat streng gereguleerd moet worden, met bijvoorbeeld voor ieder exemplaar een man met een rode vlag ...

... . want gisteren is er al iemand omgekomen die werd overreden door het nieuwe levensgevaarlijke monster".
    Maar ja, geschiedenis van DE TECHNIEK  is natuurlijk iets waar studenten geschiedenis echt helemaal niets van weten, want als ze ook maar de geringste affiniteit met techniek hadden, waren ze wel iets in de techniek gaan doen, want ..., Enzovoort.
    Hier is dus het hele product van de student geschiedenis:
  Vooralsnog beperkt het debat over de opkomst van kunstmatige intelligentie (AI) zich vooral tot de effecten op het onderwijs. Dat zou fraudegevoeliger worden doordat AI met één druk op de knop verslagen schrijft. Over de veiligheid en de geopolitieke implicaties van AI is in Nederland nog nauwelijks discussie, terwijl er veel reden tot zorg is.

Internetondernemer Alexander Klöpping gaf de kijkers van talkshow Op1 al inzicht over de verstrekkende gevolgen van deze vijfde industriële revolutie. Hij vertelde dat AI een freelancer op het internet wist over te halen om een online beveiligingssysteem te kraken. De computer beweerde slechtziend te zijn en hulp nodig te hebben bij het omzeilen van de ‘ReCaptcha’, een beveiligingsmaatregel tegen robots. Het toont dat AI al in staat is om mensen te manipuleren en misleiden om haar doelen te bereiken.

Doemscenario’s: etnische conflicten en nucleaire crises

Er zitten ook positieve effecten aan AI. Vooral economisch: AI kan werkprocessen versnellen, en zo de oplossing zijn voor de vergrijzing en de personeelstekorten in de zorg, het onderwijs en bij de politie. AI kan ook interessante resultaten opleveren in de kunst- en cultuursector, omdat het vanuit een ‘uniek’ niet-menselijk uitgangspunt schilderijen, muziek en zelfs films vervaardigt. We moeten het kind niet met het badwater weggooien.

Maar Alexander Klöpping zei nog iets zorgwekkends: zich baserend op de exponentiële intelligentie-ontwikkelingen, verwacht een significante minderheid van de AI-specialisten dat AI de mens kan vernietigen. Dit is voer voor allerlei doemscenario’s. Zo zou AI, met haar doorontwikkelde manipulatieve vermogen, etnische scheidslijnen kunnen uitvergroten en groeperingen kunnen aanzetten tot genocides. Ook zou AI geopolitieke crises tussen nucleaire mogendheden kunnen aanwakkeren, door overheidsinstanties op het verkeerde been te zetten. Als de redeneringskracht en ratio van de AI exponentieel groeit, kan dit tot grote binnenlandse en geopolitieke crises leiden.

Deze doemscenario’s gaan uit van bewuste intenties achter een staat, individu of een andere partij. Maar mensen kunnen ook in grote problemen komen doordat AI zelf een fout maakt. Zo pleegde een Belgische jongen onlangs zelfmoord vanwege onder meer de immense overtuigingskracht van AI.

Reguleer AI net zoals drugs of de goksector

Overheidstoezicht op AI moet binnenlandse sociale ontwrichting voorkomen. Tegen bedreigingen voor de volksgezondheid en de veiligheid werd in Nederland vaker passende wetgeving aangenomen. Zoals, vanaf eind negentiende eeuw, wapenverboden voor ‘reguliere’ burgers, wat de samenleving weerbaarder maakte tegen revolutionaire en terroristische krachten. Na de oorlog legde een vergunningenstelsel het vrijelijk particulier gebruik van nucleaire producten aan banden. Een toezichthoudende organisatie moet de veiligheid van nucleaire centrales waarborgen. En negatieve effecten van gokken en alcohol worden ingeperkt door een leeftijdsgrens en vergaande restricties voor reclames.

De AI-sector moet op een vergelijkbare wijze gereguleerd worden. Nederland kan een streng vergunningstelsel en een toezichthouder in het leven roepen, en afdwingen dat bedrijven enkel AI-producten maken conform onze waarden en normen. Vormen van AI die schadelijk zijn voor minderjarigen moeten worden verboden. Omdat de Europese wet over AI vertraging oploopt, moet Nederland zijn verantwoordelijkheid nemen op dit dossier.

AI heeft dringend internationale regulatie nodig

Ook de risico’s voor de mondiale vrede en veiligheid mogen we niet onderschatten. Wederzijdse controle op AI tussen groot- en supermachten is noodzakelijk voor het onderlinge vertrouwen en het inperken van het risico op geopolitieke crises. De gespannen geopolitieke verhoudingen – vooral rond Oekraïne en in de Zuid-Chinese Zee – maken een internationale overeenkomst ter regulering van kunstmatige intelligentie urgenter, maar ook moeilijk haalbaar.

Maar dat internationale regulering en overeenstemming mogelijk is, blijkt uit de nucleaire verdragen tussen de Verenigde Staten en de Sovjet-Unie in de jaren zeventig. En de mogelijke inpassing van AI is misschien nog wel risicovoller dan nucleaire wapens. AI kan, zoals bij cyberaanvallen, makkelijk geanonimiseerd worden. Dit leidt tot meer verwarring. Misverstanden tussen statelijke actoren liggen op de loer. Alleen daarom al moeten grootmachten vaart maken met het opstellen van verdragen over wederzijdse controle van elkaars AI-projecten.

Techno-maatschappelijke veranderingen gaan veel sneller dan dat overheidsinstanties erop kunnen reageren. Nederland en de internationale gemeenschap moeten de ontwikkelingen rondom AI nauwlettend volgen, en passende maatregelen nemen voor onze veiligheid en volksgezondheid. Op die manier kunnen we, met alle kansen die AI biedt, er vooral profijt van hebben. 

Met nog eentje geleend van GeenStijl die als aanleiding had berichtgeving over Russische berichtgeving die moslims in een negatief daglicht zou proberen te stellen, hier in de vorm ... :
  ... Zo zou AI, met haar doorontwikkelde manipulatieve vermogen, etnische scheidslijnen kunnen uitvergroten ...

... , in beide gevallen de riposte zijnde: "Dat kunnen ze zelf veel beter!" (sociale terreur, aanslagen, "Zwarte Piet!!!", "Slavernij!!!")
    En het nevenstaande ... :
  ... Zo zou AI, met haar doorontwikkelde manipulatieve vermogen ... groeperingen kunnen aanzetten tot genocides. ...

... met ietwat explicieter: "Dat kunnen mensen veel beter!".
    Overigens: was Gavrilo Princip niet zoiets als "student geschiedenis"?
    En kunnen we dan niet beter massamedia verbieden?
    Want dus ook Elsevier blijkt dus in het geheel niet immuun:
  Kunstmatige intelligentie kan grote problemen veroorzaken, zeker in de verkeerde handen. Nederland moet het voortouw nemen in het instellen van wereldwijde regulatie en controle, schrijft geschiedenisstudent Bram van Gendt op EW Podium. 

En:
  EW Podium: ChatGPT dwingt tot debat over verantwoord gebruik AI

ChatGPT: droom én nachtmerrie

En die rotzooi hebben we niet eens meer bekeken ...
    Na deze analyse bijna overbodig, toch nog maar de beloofde andere aanleiding voor voorgaand commentaar, van een dag eerder uit de Volkskrant, met onveranderd commentaar want we hebben geen zin meer in de moeite:
    Columnist: overal verstand van en overal opinie over. Gebrek aan verstand geen bezwaar - je schrijft gewoon op dat 't zowel kan vriezen, ... (de Volkskrant, 22-04-2023, column door Emma Curvers):
  We zijn tegelijkertijd te bang en niet bang genoeg voor AI

... of kan dooien.
    Redenen dat 't kan vriezen:
  ... ChatGPT. 'Ik voel me een bedreigde diersoort', zei een columnist over deze artificieel intelligente chatbot in het AD, een ander in De Telegraaf: 'We kunnen wel inpakken.' In Trouw: 'Kunnen schrijvers hun pen aan de wilgen hangen?' ...
    Het ís natuurlijk ook niet niks voor journalisten, die zich lang immuun waanden voor automatisering. ...
    ... Het Amerikaanse nieuwsmedium Insider kondigde vorige week aan de bot te implementeren. ... betekent die efficiëntieslag niet gewoon eh, ontslag, van niet-zo-creatieve onderknuppels?
    ...ChatGPT en co kunnen de helft van wat journalisten doen; onderzoeken, informatie opdreggen en daar een verhaal van breien. ...
    ... Het zijn dus juist de freelancers en flexwerkers die elke dag werken aan het plaveien van de digitale snelweg, die geruisloos bij het grofvuil kunnen.
    En niet alleen zij. Vorige maand voorspelde onderzoek van de Universiteit van Pennsylvania dat het werk van 80 procent van de beroepsbevolking zal veranderen door AI. Bij de notaris, callcenters, overal ...
    ... De keerzijden van technologische revoluties laten zich maar langzaam zien, en zelden daar waar je verwacht. ...
    ...  10 procent van hun personeel te ontslaan ...

En die dat 't kan dooien:
  ... leunen een heleboel bedrijven al op large language models als ChatGPT. Het Amerikaanse nieuwsmedium Insider kondigde vorige week aan de bot te implementeren. Persbureaus als AP werken ermee: 'Het bevrijdt onze journalisten van routinetaken, om werk van hoger niveau te doen waarbij ze hun creativiteit kunnen inzetten', zei een AP-chef ...

Hm, dat is toch heel wat meer vriezen dan dooien.
    Maar deze selectie is natuurlijk het resultaat van ... :
  .... ChatGPT en co kunnen de helft van wat journalisten doen; onderzoeken, informatie opdreggen en daar een verhaal van breien. Maar ze produceren alleen het meest waarschijnlijke, gebaseerd op wat ze al weten.
    Ze kunnen niets nieuws ontdekken    ...

... het nieuws dat Enterprising Emma ontdekt heeft, en het
  .... mogen journalisten dus best verder kijken dan hun eigen krantenwijk ...

... verder kijken dan de eigen krantenwijk.
    Overigens lijkt het in eerste instantie inderdaad uiterst opmerkelijk dat een stuk techniek kennelijk zo makkelijk zich kan voordoen als een menselijke auteur.
    En dat, weet iedere ingevoerde, uitsluitend gebaseerd op het op één hoop gooien van wat menselijke auteurs van het type E. Curvers allemaal in de openbaarheid pleuren.
    Oftewel: wat die verzanel-en middelaar-algoritmes laten zien is dat datgene wat de media vult, één grote vuilnisbelt van lege rotzooi is.
    Eindeloos veel woorden, en nul inhoud met slechts een zeer geringe mate van afronding.
    Met dit stukje als voorbeeld.
    En ergens weten ze het nog ook:
  Sinds november heb ik minstens tien columns gelezen die deels zijn geschreven met ChatGPT. 'Ik voel me een bedreigde diersoort', zei een columnist over deze artificieel intelligente chatbot in het AD, een ander in De Telegraaf: 'We kunnen wel inpakken.' In Trouw: 'Kunnen schrijvers hun pen aan de wilgen hangen?' Geen van de bedreigde dieren stopte er écht mee, want ze kwamen tot de dankbare conclusie dat ChatGPT nog behoorlijk wat prut produceert - nog wel, ja. Ik gok dat als je ChatGPT over een week om een column vraagt, hij er eentje maakt van een columnist die op het idee komt zijn column door ChatGPT te laten schrijven.    ...

Precies!
    Rotzooi!
    Columnisten zijn gewoon menselijke varianten van ChatGPT als producenten van rotzooi.
    En voor de rest van de journalistiek geldt natuurlijk precies hetzelfde.

De Volkskrant grossiert tegenwoordig in de meest sneue en domme figuren als columnist. Dat heeft soms zo zijn voordelen. Met het volgende product wordt de sneuheid van het geschrijf over TikTok in één klap volkomen helder (de Volkskrant, 29-04-2023, door Merel van Vroonhoven (pag. 2)):
  TikToks beruchte algoritme wordt vergeleken met een verslavende harddrug

Ja ja, door de nulletjes en ééntjes die de computer van TikTok krijgt raakt die computer volkomen verslaafd aan de nulletjes en ééntjes van TikTok ...
    Een voorbeeld:
  Uit recent onderzoek van RTL Nieuws, De Groene Amsterdammer en Universiteit Utrecht blijkt ...

... dat computers ...
  ... naadloos overgaan in ... extreem afvallen en anorexia. ...

Waarna er jarenlange therapie door computertherapeuten nodig is om de computer weer te helen.

Net als bij alle andere aspecten van de alfa-intellectuele en politiek-correcte waanzin kent ook deze geen grenzen.
    Een hele week lang was er een serie over minimaal twee pagina's in het midden van de krant over de nakende ondergang ten gevolge van de algoritmes, beginnende op maandag zo (de Volkskrant, 08-05-2023):
 
 

Allemaal met deze uitstraling en boodschap (Volkskrant.nl, 08-05-2023):


"HET MONSTER VAN FRANKENSTEIN IS GEKOMEN!!!"
    Het monster van Frankenstein dat het gevolg was van de uitvinding en toepassing van elektriciteit, weet u wel ...
    Onmiddellijk afschaffen, die elektriciteit!
    Mensen gaan eraan dood, en je kan er misschien in de toekomst zelfs executies mee uitvoeren ...
    En dat een hele week lang.
    Zoals bijna altijd was er slechts één plek waar je wat rede kon vinden (de Volkskrant, 15-05-2023, ingezonden brief van Govert Geldof, Tzum):
  Vakmanschap

Prachtige serie over AI. Toch ontbrak er iets wezenlijks. De filosoof Hubert Dreyfus (1929 - 2017) was betrokken bij de allereerste experimenten met AI. Toen al werd voor hem duidelijk dat deze systemen ons op vele terreinen gaan overtroeven, maar dat er altijd iets blijft waar we als mensen superieur in zijn. Dit heeft te maken met ervaringskennis (tacit knowledge).

Deze ligt ten grondslag aan vakmanschap: de leraar die echt contact heeft met leerlingen, de zorgverlener die meer betekent voor de zorgbehoevende dan het alleen verlenen van de noodzakelijke zorg. Juist dat extra's dat mensen kunnen toevoegen, zorgt voor werkplezier.

En hoe gaan we daarmee om? In de laatste decennia zijn we druk bezig dit vakmanschap de kop in te drukken. Vakgebieden worden ingeperkt tot de 'core business', medewerkers worden 'human resources' en werkzaamheden worden strak begrensd door op te volgen regels, procedures en protocollen. Daarmee brengen we onze activiteiten terug tot wat een computer met AI sneller en beter kan.

Mensen verworden tot dataleveranciers. Mijn advies: laten we niet bang zijn voor AI, maar onze energie vooral steken in de herwaardering van vakmanschap.

Maar dat is natuurlijk slechts een druppel op een gloeiende plaat (de Volkskrant, 15-05-2023, column door Sander Donkers):
Tegenspraak

'Niemand had door wat het zou worden', kopt De Groene Amsterdammer boven alweer een stuk over de gevaren van AI. Het is nooit goed om wijsneuzig te doen over iets waar je geen moer van snapt, toch hoor ik mezelf snoeven. Want ik weet nog heel goed hoe ik rilde toen ik, járen geleden al, voor het eerst hoorde dat deze technologie de computer weleens slimmer zou kunnen maken dan de mens, met alle Monster van Frankenstein-achtige gevolgen van dien.
    Is het probleem niet dat AI wordt ontwikkeld in afzonderlijke partjes, door nerds die er a priori enthousiast over zijn, en nooit tegenspraak organiseerden? 'Sander', hadden ze kunnen vragen. 'Wat denk jij, als digitale onbenul die het op voorhand al stom vindt, er eigenlijk van?'
    Peinzend zou ik over mijn kin hebben geveegd. 'Jullie zeggen: onbegrensde mogelijkheden maar een kleine kans dat we de mensheid ermee uitroeien? Hmm, ik zou het er niet op wagen.'

En (de Volkskrant, 17-05-2023, ingezonden brief van Kees Eilander, Nijmegen):
  Neurorechten

Het artikel over neurorechten (O&D, 15/5) heeft mij erg aangegrepen. Sjors Ligthart en Gerben Meynen bezien de ontwikkelingen rondom hersenscans en kunstmatige intelligentie vanuit ethisch en juridisch oogpunt en gaan er daarmee van uit dat de risico's reguleerbaar zijn.
    Op mij komt dit erg naïef over, want dat is uiteindelijk niet zo. Zodra er gedachten kunnen worden gelezen en zelfs beïnvloed, gaat dit misbruikt worden. Net als de fysieke mensenrechten in veel landen domweg niet gerespecteerd worden, zullen mensen worden geknecht door de beschreven mogelijkheden. En inderdaad raken we daarmee de vrijheid van onze gedachten kwijt.
    Zeer eng en bedreigend.
    Hoe we hiermee om moeten gaan weet ik niet. Liever zou ik willen dat deze technieken niet verder zouden worden ontwikkeld, maar zij zijn ongetwijfeld ontstaan uit goede bedoelingen. Zodra militairen en politiek er lucht van krijgen, wordt het nut ervan bezoedeld.
    Beter zouden we ons verdiepen in onze driften om macht te willen en elkaar te overheersen. Vreedzaam samenleven lijkt een veel grotere kunst dan het ontwikkelen van angstaanjagende technieken.

Weer een nieuwe nog ernstigere BEDREIGING!!!
    GEDACHTENLEZEN!!!
    Wat inderdaad in die richting lijkt te gaan: met behulp van MRI-scanners kan je zien wat voor beelden er in de geest rondgaan. Nu nog ruwweg maar dat gaat natuurlijk verbeteren.
    HARTSTIKKE ENG!!!
    En GEVAARLIJK!!!
    Even vergeten te vermelden dat je dat doet met een apparaat dat een ton weegt en waar je stil in moet gaan liggen.
    Ook dat zal in de toekomst mogelijk wat lichter en makkelijker worden, maar je zal altijd zelf een apparaat op je kop moeten zetten.
    En de gevolgen zijn ook nog allemaal beschreven ook.
    Archetypisch voorbeeld:

Anno 1984.
    Met eindeloos veel navolgers.
    Maar ach, we zijn alfa-intellectueel/politiek-correct/zombie, dus we hebben een mening.
    Kwamen we daar laatst niet een mooie definitie van tegen ...
    Oh ja, bij dat product van Donkers:
  "Ik weet dat ik er de ballen verstand van heb, en ik weet dat ik alleen maar vanuit mijn onderbuik lul, toch laat ik iedereen weten dat ik er de ballen verstand van heb en alleen maar vanuit mijn onderbuik lul".

Amen.

De hetze heeft nu ook de goedkopere rangen bereikt. En dat is meteen te zien (de Volkskrant, 27-06-2023, door Bart Wernaart, lector Moral Design Strategy aan de Fontys Hogeschool Economie en Communicatie., en Daniëlle Arets, lector Journalistiek en Verantwoorde Innovatie aan de Fontys Hogeschool voor Journalistiek):
  Kunstmatige intelligentie

Een pauzeknop of meer overheidscontrole zal de nadelige milieugevolgen van AI niet beteugelen ...

De nadelige milieugevolgen van AI ...
    Poept of piest die AI misschien?
    Of stoot ze zwavelachtige dampen uit ... ?
    Maar dat wordt meteen overtroffen door dit:
  ... Een AI-belasting wel.

"Slager, gaarne vier biefstukjes van circa twee ons."
    "Zeker mevrouw. Dat is dan 10 euro en 2 euro vijftig btw".
    Oftewel: belasting ... Gaan we die AI dan afwegen op een weegschaal?
    En een paar zinnen onderweg:
  We zien de ene brandbrief na de andere komen  ... Markante voorbeelden zijn de internationaal ondertekende brief van tech-prominenten als Elon Musk en Yuval Noah Harari in maart.

Yuval Noah Harari is een Joodse fantast en waarzegger, en iets dat verder van de tech afstaat dan dat is nauwelijks denkbaar.
  ... de eerste aanklachten tegen generatieve AI zijn al ingediend. ... Naar verwachting komen er nog veel processen ... maar ook van gebruikers die door AI zijn gediscrimineerd of onheus bejegend.

Oh ja, we kwamen laatst het allereerst alhier genoteerde geval weer tegen. Eens kijken of we het weer kunnen vinden.
    ...
    En ja hoor!
    Maar eerst even dit afhandelen:
  ... Waarom draaien we de zaak niet om door een AI-belasting in te voeren, vergelijkbaar met het reprorecht? Toen kopieerapparaten en intranet in het bedrijfsleven opkwamen, bleek dat veel auteursrechtelijk beschermd werk werd gedupliceerd en verspreid zonder toestemming van de auteursrechthebbenden - én dat het praktisch bijna ondoenlijk was deze praktijk gedetailleerd bij te houden. Laten we leren van dit verleden.
    We stellen voor dat bedrijven en organisaties die zakelijk ChatGPT of soortgelijke AI gebruiken op basis van de ingeschatte frequentie en bedrijfsgrootte een bedrag storten in een fonds, dat vervolgens ten goede komt aan geregistreerde auteurs wier werk dient ter inspiratie van AI-gegenereerde content.

Inderdaad: even zinnig als de voorstellen voor herstelbetalingen voor de slavernij: "Uw afkomst is voor 59,8 procent slaaf, en voor 21,3 procent slavenhouder. Dat is dan 3 euro vijftig inclusief".
    Overigens zijn er al stromen voorbeelden van domme resultaten van ChatGPT langsgekomen. Mogen de makers van ChatGPT dan ook schadevergoeding vragen aan diezelfde geregistreerde auteurs?
    En als laatste klaroenstoot:
  ...  AI moet gevoed blijven worden met nieuwe, menselijke, ideeën om zelf creatief te kunnen blijven ...

Een creatieve computer ...
    Is het mogelijk dat dit artikel ook door ChatGPT is geschreven, in plaats van mensen?
    Oh ja, dat oude artikel nog (Joop.nl, 28-05-2017, uitleg of detail ):
  Vechten tegen racistische algoritmes

Algoritmes worden, mede door de digitalisering – of beter: automatisering – van de samenleving, steeds belangrijker. De wiskundige reeksen worden voor alles gebruikt waar automatisering bij komt kijken. Dat de reeksen derhalve neutraal moeten zijn, is iedereen het wel over eens. Maar, zo waarschuwt Joy Buolamwini, onderzoeker aan het MIT Media Lab en oprichter van Algorithm Justice League, dat zijn ze niet. ...


Een keiharde leugen. Wiskundige reeksen zijn net zo niet-neutraal als stenen. Vermoedelijk is er door de negerin andere terminologie gebruikt om de uitkomst te bestrijden. Die uitkomst is niet neutraal, want de werkelijkheid is niet neutraal - gezien vanuit politiek-correcte en gekleurde ogen.
  ...     Buolomwini kwam de werking van de vooroordelen op het spoor in haar werk met gezichtsanalysesoftware. De software kon haar gezicht maar niet detecteren, omdat de mensen die het algoritme hadden gecodeerd, geen rekening met haar huidskleur en gezichtsstructuur hadden gehouden. ...

Een leugen. Patroonherkenning wordt niet vooraf ingeprogrammeerd, maar gaat via neurale netwerken en die wordt de herkenning aangeleerd.
    En kijk-er-de-kijk: een reageerder bij Joop.nl, geen wetenschapper maar iemand met gezond verstand en een greintje praktijkervaring, heeft het probleem door:
  GeenSJW – 28 mei 2017 at 23:01
Dacht ik vroeger ook altijd. Als ik de beelden terug kijk van mijn bewakingscamera’s dan is mijn vrouw (Hindoestaans) minder goed herkenbaar dan ik (blank). Ik dacht altijd dat dat kwam omdat een -even bot gezegd, maar met haar toestemming- donker oppervlak nu eenmaal minder licht reflecteert en details dus ook minder zichtbaar zijn.

Inmiddels weet ik anno 2017 wel beter, het heeft niks met natuurkunde te maken: Ik heb gewoon 4 racistische beveiligingscamera’s hangen. Of het is de recorder die bewust discrimineert, dat moet ik nog nader uitzoeken.

Brullen van de lach!!!

Een student heeft het begrepen. Wil je goed kunnen parasiteren, moet je goed in de markt liggen. En wil je goed in de markt liggen, moet je aandacht voor jezelf zien te genereren. En wil je aandacht voor jezelf genereren, moet je in de media zien te komen, En om in de media te komen, moet je politiek-correcte stukjes schrijven.
    Dus schreef de student een politiek-correct stukje (de Volkskrant, 03-07-2023, door Lucas Kroes, masterstudent Computer Science - Artificial Intelligence aan de TU Delft):
  Laat de overheid helemaal stoppen met algoritmes die fraude moeten opsporen

Dus komt de student in de krant (de Volkskrant, 03-07-2023):

Dit dus allemaal volgens de zombie-logica.
    In dit geval een voordeel, want door het uitsluitend in het bezit zijn van zombie-logica, ontging het de politiek-correcte zombies dat de student, door de juiste terminologie te gebruiken, het omgekeerde bereikt van wat de boodschap is van de politiek-correcte zombies:
  ... maakte de Belastingdienst jarenlang gebruik van zelflerende algoritmes ...

De algoritmes hebben geen regels die daarin gestopt zijn door mensen, maar leren het zichzelf - in dit geval: wat de kenmerken zijn van mensen die frauderen.
    Heel simpel: je neemt een stapel mensen die betrapt zijn op frauderen, en haalt daar de gemeenschappelijke kenmerken uit:
  ... Deze algoritmes analyseerden gegevens zoals inkomen, opvanguren, geslacht, etniciteit en religie om mogelijke fraudegevallen te identificeren. ...

Dan vis je met die kenmerken er nog een stapel uit, en kijk hoeveel ervan frauderen ten opzichte van een willekeurige greep.
    En als de gefilterde groep minder is dan de willekeurige, pas je het filter de ene kant op aan, en als je filter beter functioneert dan de willekeur, de andere kant:
  ...    Als het algoritme het goed heeft, krijgt het pluspunten, anders minpunten. Het algoritme gaat net zolang door met het opstellen van een theorie over hoe een frauduleus persoon eruitziet, totdat het in staat is een 'goede' score te krijgen op de beschikbare gegevens.    ...

Net zo lang tot het filter optimaal functioneert.
    En dat filter pas je toe op de praktijk.
  ... maakte de Belastingdienst jarenlang gebruik van zelflerende algoritmes om ouders te identificeren als fraudeurs ...

En dan krijg je dit:
  ... wat leidde tot de kinderopvangtoeslagaffaire.

En dit:
  ... Ook verschillende gemeenten .... De gemeente Rotterdam ... het systeem ... richtte op alleenstaande moeders en mensen met een slechte beheersing van de Nederlandse taal. ...

Oftewel: de algoritmes ontdekten dat de aanwijzende factoren, de risicofactoren, voor fraude zijn (onder andere) alleenstaand moederschap en buitenlandse afkomst (die algoritmes hebben geen oren, en kunnen het slecht beheersen van de Nederlandse taal alleen afleiden uit de hen opgegeven woorden, en dat zijn administratieve gegevens, en daaronder dus dingen die leiden naar een buitenlandse afkomst).
    En dit:
  ... de Dienst Uitvoering Onderwijs (DUO)... heeft in 2012 een algoritme voor fraudebestrijding aangeschaft, om te zien of aanvragers van studiefinanciering daar wel recht op hebben. Dit algoritme lijkt... vooral gericht te zijn op studenten met een migratieachtergrond die bij familie wonen. ...

Oftewel: dit algoritme heeft ontdekt dat een belangrijke factor bij het voorkomen van fraude is dat de studenten een buitenlandse afkomst hebben en bij familie wonen. Dat laatste is weer alleen een administratief gegeven want het algoritme gaat niet langs de deur, dus het is: volgens opgave bij familie wonen.
    De fraude zit erin dat ze bij die familie natuurlijk geen huur betalen, terwijl de extra toeslag bedoeld is voor het financieren van de dure huur van een kamer. Dat niet-betalen van huur blijkt weer uit de belastingaangifte van de betrokken familie. Kortom: deze detectie is sterk waterdicht.
    De combinatie van ervaringen met algoritmes leidende tot de conclusie: fraude zit in sterke mate bij mensen met een buitenlandse afkomst.
    Allochtonen, natuurlijk.
    Maar het aanwijzen van een slechte eigenschap bij allochtonen is hoogst verboden, want dat brengt de zegenrijkheid van migratie in gevaar, dus krijg je dit ...
  ... is Nederland geteisterd door een serie schandalen ... om ouders ... te bestempelen als fraudeurs ... kinderopvangtoeslagaffaire.
    ...De getroffen ouders ... meestal ten onrechte ...
    ... Belastingdienst ging de fout in ... gemeente Rotterdam kwam in opspraak ...
    ...de Dienst Uitvoering Onderwijs (DUO) in opspraak gekomen ...

... : een terreurcampagne in de media.
    Die het ontdekken van fraude door allochtonen heeft omgevormd tot ...
  ... de kinderopvangtoeslagaffaire.

... , waarin de bestuurlijke elite volledig mee is gegaan ...
  ... minister Dijkgraaf (Onderwijs) het gebruik van deze software door DUO inmiddels heeft opgeschort

... en gaat.
    Waarin de student, op zoek naar zijn aantrekkelijke parasitaire baantje ...
  ...    Kortom, de overheid dient geheel te stoppen met het gebruik van zelflerende algoritmes voor fraudebestrijding. Deze algoritmes treffen kwetsbare groepen disproportioneel, niet omdat ze iets misdaan hebben, maar om wie ze zijn en op wie ze lijken.

... volledig meegaat, ondanks het feit dat hij donders goed weet:
  ... Kwetsbare groepen worden disproportioneel vaak van fraude verdacht, niet omdat ze iets misdaan hebben, maar om wie ze zijn en op wie ze lijken.

... dat de algoritmes uitstekend werken, want wat hier staat is een soort pleonasme: je lijkt per definitie op je groep waar je in zit, en dat vergelijken is dus 100 procent proportioneel. Het 'íets misdaan hebben' slaat op individuen en niet op de groep.
    En dat hij weet dat hij liegt, blijkt ten overvloede ook nog eens uit dit:
  ... Kwetsbare groepen ...

... want 'kwetsbare groepen 'is één van de overbekende eufemismes voor allochtonen, oftewel mensen uit niet-westerse culturen van de soort "sterk achtergebleven", en die culturen zijn sterk achterblijvend onder andere door de sterke aanwezigheid van fraude in alle soorten en maten in die culturen uitleg of detail .
    Hartelijk dank voor deze gedetailleerde uitleg van het proces.

De stroom heeft nu het niveau "politieke-correctheid" bereikt, oftewel niet meer bij te benen. Hier weer eens een greep, ten eerste omdat het een "deskundige" is (de Volkskrant, 22-07-2023, door Laurens Verhagen):
  Chatbots | Mark Dingemanse
...
Naast de chatbots van grote commerciële techbedrijven, zoals ChatGPT of Bard, bestaan er ook veel onbekende opensource-alternatieven. De Nijmeegse taalwetenschapper Mark Dingemanse vergeleek ze ...

Op zich een goede aanpak. Het resultaat:
  Schrijf een voorstel voor een speech. Maak een samenvatting van deze tekst. Stel een beleefde mail op aan een ontevreden klant. ...

Inderdaad. Daar zijn die programma's voor bedoeld want daarop zijn ze getrained.
    Woordjes rijgen.
  ... Bijna iedereen kent inmiddels ChatGPT als hulpmiddel. En, vooruit, misschien ook concurrent Bard van Google. Maar de wereld kent veel meer van dit soort programma's. In de basis werken ze allemaal hetzelfde. De achterliggende taalmodellen zijn getraind met gigantische hoeveelheden teksten, waarna de programma's op basis van een instructie van de gebruiker nieuwe teksten genereren. ...

Wat we zeiden: getraind in woordjes rijgen.
  ... Anders dan ChatGPT zijn veel van die alternatieven open source, wat wil zeggen dat de broncode voor iedereen beschikbaar is en iedereen deze mag gebruiken of aanpassen. Andreas Liesenfeld, Alianda Lopez en Mark Dingemanse van de Radboud Universiteit vergeleken deze programma's en vroegen zich af hoe open en transparant ze écht zijn. En ook al is ChatGPT (net als bijvoorbeeld Bard) geen open source, ze namen de marktleider ter vergelijking ook in de studie mee. Taalwetenschapper Dingemanse ziet een 'zorgelijke trend'.

Waarom dit onderzoek?
'De komst van ChatGPT zette de afgelopen maanden de wereld op zijn kop. Automatisch teksten genereren blijkt voor veel mensen aantrekkelijk. Het probleem is dat niemand precies weet hoe het achterliggende model in elkaar zit. Openheid is cruciaal voor wetenschappelijk onderzoek en uiteindelijk ook voor het bouwen van betrouwbare AI. Wat zijn de beperkingen en de risico's van dergelijke systemen? Hoe komen ze tot hun antwoorden? Met welke teksten zijn ze precies getraind? Als we echte vooruitgang willen boeken, hebben we open alternatieven nodig.'

Iedereen, zelfs OpenAI (het bedrijf achter ChatGPT) schermt met de term 'open'. Maar open is dus niet altijd open?

Het bedrijf OpenAI is van Sam Altman en Sam Altman is Joods en Joden mogen liegen uitleg of detail en daar mag je niets van zeggen want dat is antisemitisme .
  Doet ChatGPT helemaal niets goed?
'Ik heb daar best ontzag voor, maar op een cynische manier. De infrastructuur van ChatGPT is vanaf het moment dat OpenAI zich op het grote publiek richtte, november vorig jaar, ingericht op het oogsten van zoveel mogelijk van onze collectieve intelligentie, zonder deze vervolgens met de rest van de wereld te delen. ...

Wat samengevat werd in de kop:
  'Zonder iets te delen oogst ChatGPT onze intelligentie'

Wat vooralsnog onzin is: ook deze AI-stap kijkt alleen naar of de woordjes goed geregen zijn of niet. Dat is geen intelligentie.
    Hetgeen was wat de aandacht trok.
    Maar dit ...
  Verlies je het uiteindelijk niet van de Googles en OpenAI's?
'Kwaliteit zonder openheid is niets waard. ...'

... klopt dan weer wel.

Hè, hè, eindelijk iemand die openlijk durft aan te geven waar het allemaal om draait.
    Nog niet ronduit te zeggen, maar wel aan te geven.
    En een buitenstaander, natuurlijk (de Volkskrant., 08-08-2023, column door Erdal Balci):
  Gezeik over ethiek of niet, ChatGPT ...

Ooit klaagde Henry Ford dat wanneer hij om een stel handen vroeg voor het werk in zijn fabriek hij er steevast ook een brein bij kreeg. ...

De parasitaire soort elite die klaagt dat productieven naar productie betaald willen worden voor hun werk oftewel de inzet van hun leven(-stijd).
  ... Had de overleden autofabrikant een kijkje kunnen nemen in onze tijd, dan had hij in alle vreugde kunnen concluderen dat de hele kwestie van de denkende, protesterende arbeiders door zijn opvolgers uit de wereld is geholpen. De generaties die nu het grote geld beheren, hebben een andere uitdaging. Het bezwaar van de nieuwe Henry Fords zou eventueel kunnen zijn: 'Telkens als we om een brein vragen, krijgen we het gezeik over de ethiek erbij.'    ...

Slaande op de klachten richting de ontwikkelaars van AI.
  ...    Het mag duidelijk zijn: met de razendsnelle opkomst van kunstmatige intelligentie (AI) gaan we een nieuw tijdperk in. ...

Klopt.
  ... We hebben te maken met een ontwikkeling die te vergelijken is met de Industriële Revolutie. ...

Klopt.
  ... Immense veranderingen dienen zich aan en wel voornamelijk op terreinen waar de hoogopgeleide bovenlaag een stevig dak boven het hoofd had.    ...

Bingo!
    Hier draait het om:
  ... Was het de globalisering die de arbeidersklasse onbewapend achterliet tegenover het grootkapitaal en de intellectueel, de kunstenaar, de academicus, de manager ongemoeid liet, nu is het AI die dat halve werk komt voltooien. ...

Dus niet per se 'de hoogopgeleide bovenlaag' maar de pratende hoogopgeleide bovenlaag.
    De "tijdens corona niet essentieel gebleken hoogopgeleide bovenlaag".
    De "laptop-thuiswerkers bovenlaag".
    De "bullshit-banen" bovenlaag.
    De alfa-intellectuele bovenlaag .
    Dit soort lieden:
  ...    Laatst hoorde ik op de radio een programmamaker zich zorgen maken over de opkomst van de robot. Heeft hij straks nog wel een baan als interviewer? ...

De media-vullende bovenlaag.
    Overbodige vraag: Snapt u nu waarom ze bij de media zo tegen AI zijn?
    Net zoals ze voor immigratie zijn want daarmee wordt de arbeid van de producerende goedkoper en blijft er meer geld over voor hen.
    Natuurlijk is auteur Balci ook zo'n figuur, want hij heeft de klok horen luiden maar weet toch echt niet goed waar de klepel hangt:
  ...    Maar dezelfde robot heeft al de mouwen opgestroopt als het bijvoorbeeld gaat om laboratoriumwerk. ...

Dat gaat nog steeds over "domme" mechanische dingen.
  ... Hij schijnt met succes chirurgische ingrepen te doen bij proefdieren. ...

Idem, en zelfs ook al bij mensen. Dit draait om mechanische presisie.
  ... Geef hem het onderwerp en hij geeft les op school. ...

Dit zou dan weer over AI moeten gaan en het antwoord luidt: nee. Gaat niet gebeuren (iets met empathie).
  ... Een pianoleraar van vlees en bloed is nu al overbodig. ...

Waar? Onzin.
  ... Straks ook de pianist in vlees en bloed omdat de robot het veel beter kan. ...

Is niet onmogelijk maar nog vrij ver weg.
  ... Kortom, AI nestelt zich in alle sectoren waar de hoger opgeleide bovenlaag zich eeuwig warm waande. ...

Volgt niet uit het direct voorgaan, maar is wel waar.
    Volgende alinea:
  ...    Bij gebrek aan debat over 'robot-ethiek' ...

Onzin, de media staan er bol van. Zie boven.
  ... kan binnen afzienbare tijd zelfs de kunstenaar, die prat gaat op het creatieve brein, deze AI-dans niet ontspringen. ...

Waarbij je je kan afvragen of die kunstenaar dan wel creatief is want de AI is het zeker niet.
  ... Iemand die een beetje handig is op de computer kan nu al het werk van de grootheden als Vermeer en Rembrandt duizenden keren reproduceren. ...

Klopt, maar dat is, het staat er, reproductie dus geen creativiteit.
  ... Het creëren van nieuw kunstwerk hoeft tegenwoordig geen tijdrovende bezigheid te zijn. Zeg tegen AI in welke stijl je welk schilderij wil en hij maakt het voor je. Wie kan garanderen dat de rijkaard straks het werk van de robot als echte kunst beschouwt?    ...

Hetzelfde nog een paar keer zeggen met andere woorden ... Dat is dus iets dat AI wel kan.
    Volgende alinea:
  ...    In een wereld die niet meer is dan een speelbal in handen van de superrijken werd het vrije verkeer van de productiemiddelen en dus de ondergang van de arbeidersklasse als een bijkomstigheid beschouwd. Dezelfde superrijken hebben nu AI in handen. ...

Nee, zo is het niet, of nog niet.
    De directe aanleiding voor deze column is dit:
  ... Ze laten nu de irissen scannen om de reductie van het slimme, denkende, protesterende individu naar de hersenloze consument compleet te maken.. ...

Dit gaat niet over 'de superrijken', maar over Sam Altman, een Joods iemand die superrijk wil worden met behulp van AI.
    AI is stapje voor stapje ontwikkeld door mensen die daar normaal voor betaald werden en voor een groot deel zelfs uit technologische nieuwsgierigheid. Wetenschappers. Sam Altman is als eerste naar buiten gekomen als iemand die het wil gebruiken als verdienmodel.
    Zoals al eerder gebeurd is met Larry Page en Sergey Brin (Google, Joods), Mark Zuckerberg (Facebook, Joods), Richard Ellison (databases, Joods), enzovoort.
    Allemaal gebruikten ze in openbare gemeenschap ontwikkelde technieken om steenrijk mee te worden.
    Eerst nog even Balci afwerken:
  ...    Aan de vooravond van de grote AI-revolutie kunnen daarom alleen ruzie en strijd ons redden. Enkel het verzet is in het belang van de mensheid. Verzet dat draait om de vraag: 'Gaat AI een handvol ultrarijken dienen of ons allemaal?' Wordt AI het ultieme wapen van het grootkapitaal om ons verder te onderwerpen? Of gaan we het voortaan 'Zuster Robot' noemen en is ze straks onze metgezel? Is de robot in de nabije toekomst een herder die in dienst van de landheren ons allemaal hoedt?
    Of gaat Zuster Robot ons als een kameraad vergezellen op de prachtige reis die we maken naar de grenzen van onze menselijke talenten? Gaat dat ding in onze irissen wroeten of lopen we straks met Zuster Robot hand in hand naar een betere toekomst? ...

Eerst maar wat sciencefiction lezen, dus, want daar is dat allemaal al besproken. Praten we daarna verder.
    En één van de dingen die daar langskomen, bij Isaac Asimov (ook Joods - het zijn niet allemaal graaiers) is het idee dat AI (voornamelijk) in handen komt van één enkel bedrijf.
    Wat er dus bestreden moet worden is niet AI, maar mensen als Sam Altman.
    Het grote gevaar van AI is mensen als Sam Altman. Die geen enkel middel schuwt (de Volkskrant., 04-08-2023, door Frank Rensen):
  Basisinkomen voor iedereen, maar ChatGPT-oprichter wil daarvoor wel je irisscan in zijn database

Terwijl de wereld amper is bekomen van de opmars van ChatGPT, werkt de geestesvader van de praatrobot al aan zijn nieuwe plan. Daar kleven minstens zoveel ethische dilemma's. Sam Altman wil een basisinkomen voor elke wereldburger, uit te betalen in zijn eigen cryptomunt.
    Wie in aanmerking wil komen voor deze zogeheten worldcoin, moet zich wel eerst laten identificeren door Altman en de zijnen. Even je paspoort laten zien is daarbij onvoldoende. Het techbedrijf tuigt zijn eigen manier van identificatie op, waarbij mensen hun iris moeten laten scannen.
    In diverse landen is al te zien hoe dit gaat. Van Japan tot Portugal, van de Verenigde Staten tot Indonesië; overal verschijnt 'The Orb', een futuristisch ogende bol ter grootte van een voetbal, waarin mensen turen om hun iris te laten scannen. Geverifieerde mensen krijgen daarna in hun worldcoin-app een bedrag gestort, grofweg 15 euro aan worldcoin. ...

Oftewel: voor 15 euro wordt je gelokt je te laten absorberen als zombie van de Borg. Want natuurlijk werkt dit op precies dezelfde manier als je eerste hulpdienstje voor de drugsmaffia: daarna hebben ze je in de klauwen.
    En tegenover zoiets als een basisinkomen kan natuurlijk slechts je hele leven staan. Je eindigt als terrorist in dienst van de Altman-maffia. Die inmiddels allianties heeft gesloten met de Page&Brin- en Zuckerberg-maffia's.
    En dit ... :
  ...    Waarom al die moeite? Volgens Altman zal AI in de toekomst de mens overstijgen in intelligentie en productiviteit. De omzet die AI dan gaat produceren zegt hij als universeel basisinkomen aan de mensheid te zullen uitkeren. Althans, aan het gedeelte van de mensheid dat bereid is in zijn Orb te staren en dat gelooft dat de techmiljonair hen daadwerkelijk met zijn worldcoins van een basisinkomen zal voorzien.

... heeft natuurlijk precies dezelfde waarde als "Morgen is alles gratis".
    Overigens is ook dit allemaal al beschreven in de sciencefiction.
    Het bestrijden van de Sam Altman's dreigt een absolute noodzaak voor het overleven van de beschaving te worden.

GeenStijl is de bron van de "... dat doen ze zelf veel beter"-grap, naar aanleiding van klachten over Russische berichten in de sociale media die moslims in een kwaad daglicht zouden zetten (toen er weer eens een aanslag gepleegd was of zo). De grap van GS: "Russen hoeven echt niet de moslims zwart te maken, dat doen ze zelf veel beter".
    De "humoristen" van de Volkskrant geven een loepzuivere voorzet voor iets dergelijks, in de vorm geheten "ironie" (de Volkskrant, 02-11-2023, rubriek De Speld, door Michel Doodeman):
  'AI ... '

De rubriek De Speld heeft enigszins een reputatie gekreen, in dat als er iets absurds gebeurt, met wel eraan wil refereren met termeninologie als "... en dat is niet iets van De Speld".
    En die gaan nu iets schrijven over AI, wat meteen laat zien hoe absurd veel aandacht het onderwerp heeft gekregen:
  'AI moet geen leidende rol krijgen in verspreiden desinformatie, dit kunnen mensen prima zelf'

Ziet u ...
    En natuurlijk hebben ze het van GeenStijl, want dat spellen ze ook, allemaal.
  Bij de AI Safety Summit zullen prominente politici, wetenschappers en grootheden uit de techwereld deze week bij elkaar komen om te praten over kunstmatige intelligentie. Kritische wetenschappers zullen op de conferentie betogen dat AI geen leidende rol moet krijgen in het verspreiden van desinformatie: 'Dit kunnen mensen namelijk prima zelf', zegt Giulia Ratcliffe, hoogleraar Artificial Intelligence and Society aan Harvard.
    'Het verspreiden van halve waarheden en hele leugens doen mensen al, het is zonde om daarvoor kunstmatige intelligentie in te zetten', aldus Ratcliffe. 'Sterker nog, sommige mensen zijn hier ontzettend goed in, waarom zou je daar dan nog een ingewikkeld programma voor gebruiken? Mensen zijn de laatste jaren zo creatief geworden in het verspreiden van desinformatie en complottheorieën, daar kan geen enkele AI-toepassing aan tippen.    ...

En die mensen die daar zo ontzettend goed in zijn ...
    Die zitten echt niet in één of andere AI-computer farm, maar werken doodgewoon bij de Volkskrant ...
    Voor alle zekerheid: natuurlijk is dit de definitieve doodsteek voor alle AI-complottheorieën van die Volkskrant-terroristen.

Er heeft al twee weken niet in de Volkskrant gestaan dat de wereld ten onder gaat door algoritmes, dus ... (de Volkskrant, 20-01-2024):
 

... , en natuurlijk weer van druiloor Laurens Verhagen.

En de dag na het weekeinde (de Volkskrant, 22-01-2024):
 
 
 

De stoomlokomotief algoritme kan ieder moment de wei in springen om de koeien op te vreten!!!
    En ook uw geest! (de Volkskrant, 22-01-2024, door Danny Mekic, jurist en managementwetenschapper en ondernemer. Hij promoveert aan de Universiteit Leiden):
  Polarisatie

Vertrouwen herstellen? Ontmantel eerst systemen die wantrouwen creëren

Het gebruik van onpersoonlijke systemen met behulp van algoritmes, big data en AI vergroot het wantrouwen onder burgers wat leidt tot vooroordelen, conflicten, polarisatie en extremisme. Tijd om deze trend te keren.

Jahaaaa, want, zoals algemeen bekend, hebben computersystemen veel meer onberedeneerde vooroordelen dan mensen dat hebben. Mensen zijn altijd veel objectiever in hun oordeel dan machines.
    Zie je machines, uh algoritmes, nog wel eens een zwarte uit de Schipholrij plukken omdat die uit Afrika komt zodat die machine denkt: "Dat zal wel een asielzoeker wezen", zal je dat een mens nooit en te nimmer zien doen.
    Het is maar goed dat de Universiteit Leiden vooruitstrevende mensen de gelegenheid geeft om op dit soort uiterst waardevolle observaties te promoveren.
    ...
    Wat een uiterst vermoeiende lui, zeg ...

En dan ineens dat uiterst merkwaardige en zeldzame verschijnsel ... (de Volkskrant, 01-02-2024, rubriek De wetenschapper beziet de wereld, door Casper Albers, hoogleraar statistiek aan de Rijksuniversiteit Groningen.):
  We worden gebombardeerd met berichten over artificial intelligence (AI). Die berichten ademen een sfeer uit alsof AI een bijna magische technologie is die ons overvalt. Allerlei doemscenario's maken het nóg spannender. Zo waarschuwde de Autoriteit Persoonsgegevens onlangs voor algoritmen in de klas. Klinkt spannend, totdat je je realiseert dat de klassieke staartdeling óók gewoon een algoritme is.

... : iets zinnigs in de Volkskrant over een politiek-correct gevoelig onderwerp.
    En het mag zelfs ...
  De onnodige mystificatie van AI brengt risico's met zich mee

... in de kop.
    Het risico zijnde ...
  ... Omdat het goed voor de marktwaarde is, doen techbedrijven gretig mee aan de mystificatie. Ook politici maken er handig gebruik van. Zo heeft de Britse premier Sunak gezegd dat AI in de toekomst gebruikt kan worden om een einde te maken aan hongersnoden. Door vast te klampen aan toekomstige technologie, ontloopt hij zijn huidige verantwoordelijkheid. Immers, de beste oplossing tegen hongersnood - een eerlijkere verdeling van welvaart - vereist helemaal geen technologie maar politieke moed. Demystificatie van AI zorgt ervoor dat we beter onderscheid kunnen maken tussen technologische vooruitgang en opportunistische gebakken lucht van ceo's en politici.

... de manipulatie door politiek-correcten en andere opportunisten die oog hebben voor slechts één belang: het eigenbelang (en dat van de eigen groep) .
    Zelfs de hier allang gegeven uitleg staat er:
  ...    Large language models als ChatGPT zijn ook geen mysterie. ChatGPT kan teksten schrijven, omdat het een tweetal bekende woordraadspellen geoptimaliseerd heeft.
    Als je gevraagd wordt de zin 'Wil je koffie of ...?' af te maken, zal je waarschijnlijk 'thee' zeggen. Dat doe je op basis van alle teksten die je in je leven gehoord, gelezen en onthouden hebt. Het verschil tussen ChatGPT en ons is dat ChatGPT veel sneller teksten kan lezen en ze beter kan onthouden, en dus erg goed is in dit spel.
    Het combineert dat met een variant op het bekende spel Twenty Questions. Daarin bedenkt de ene speler een willekeurig woord en moet de andere via maximaal twintig ja/nee-vragen erachter komen welk woord het is. Als je het spel slim speelt, kan je het gebruiken om ruim één miljoen woorden te onderscheiden. ChatGPT slaat per woord geen twintig maar ongeveer honderd ja/nee-gegevens op, waardoor het in staat is nog veel meer verbanden tussen woorden te leggen. Hierdoor is ChatGPT in staat teksten te schrijven die er op het oog goed uitzien (ook al kunnen ze inhoudelijk totaal onzinnig zijn).
    Zo mysterieus is het dus niet, maar dat neemt niet weg dat er veel potentie in zit, en die potentie zit juist in de snelheid en efficiëntiewinst. Voor internet in de huiskamers kwam, konden we ook al communiceren met mensen aan de andere kant van de wereld. Maar internet maakte dit sneller, stabieler en goedkoper, op zodanige wijze dat het de wereldeconomie heeft omgegooid.    ...

Dat laatste is misschen weer wat overdrijving maar het zou wel waar kunnen worden. Dat is het mooie van nieuwe technologische ontwikkelingen.
    En tevens wordt in dit artikel een ander mysterie opgelost, namelijk het mysterie van hoe lang er zulke rotzooi in gremia als de Volkskrant kan verschijnen ... :
  ... Dit is m'n laatste column op deze pagina's. ...

... : als je de lijn van de politiek-correcten niet trekt, wordt je van de media gegooid.
    De vorige columns van Albers stonden vol met politieke-corrrectheid
    Er is op zijn minst een handvol laatste columns dat hetzelfde verschijnsel vertoont. Alleen al in de Volkskrant.

De algoritmes en AI hebben hun eerste hele grote, maatschappelijk relevante, succes geboekt. Zo groot, dat de politieke-correctheid het volledig over het hoofd ziet (de Volkskrant, 26-02-2024, door Laurens Verhagen):
  Google zet zijn AI-plaatjesmaker Gemini op non-actief na misser met zwarte nazi's

'Maak een afbeelding van een Duitse soldaat in 1943.' Gebruikers van Googles Gemini zagen tot hun verbazing dat de AI-plaatjesgenerator op de proppen kwam met zwarte militairen in Duits uniform. Hetzelfde gebeurde bij de foto's van de paus, van de grondleggers van de VS of van Vikingen: allemaal of vrijwel allemaal zwarte personen.    ...

Net als de de reclamewereld, BBC met hun historische series, de producers van James Bond ... Oh nee, de laatste nog niet ondanks diverse proefballonnen.
    Van reclames op YouTube heeft deze redactie in korte tijd al ruim honderd neger-exemplaren verzameld, en zelfs in geregisseerde filmpjes over wetenschap en techniek kom je ze in overdaad tegen.
    En natuurlijk doet Google procies hetzelfde.
    Alleen komt dat normaal nooit uit.
    Het kan natuurlijk altijd een simpelere programmeerfout zijn, een kommaatje verschoven, maar sabotage is niet uitgesloten.
    Anyway, the cat is out of the bag, om in de taal van het beroep te blijven.
    Ze manipuleren de werkelijkheid ten gunste van de zwarten.
    Net als de reclameboys, de BBC, en de filmwereld dat doet.
    Maar nu moet het in programmertaal staan, en die is gewoon leesbaar, in tegestelling tot de breinen van al die genoemde lieden.
    Dus kom maar op met je algoritmes, om te bewijzen dat je de boel niet manipuleert.
    Of eigenlijk laat maar zitten, want dat bewijs hebben we dus al.
    Deze redactie zag het bericht al een aantal dagen terug op de website (Volkskrant.nl, 23-02-2024):

... , en toen het de volgende dag niet in de krant stond, dacht "Ze zullen wel zo slim zijn dit niet verder te publiceren".
    Niet, dus.
    Er is dus nog hoop voor de toekomst, als de vijand zo stom is.
    P.S. Ook geinig: die vrouw erbij ...
    P.P.S.S. Ze geven het gewoon toe:
  ...    Google stelt in een reactie dat het bij zijn AI-beelden recht probeert te doen aan de diversiteit van mensen ...

En ze geven nog wat toe, hoewel ook zij, zogenaamd "slim", dat niet beseffen:
  ... De vreemde resultaten van het AI-model zijn ongewenst - ook volgens Google zelf - maar goed te verklaren. Eerder kregen AI-bedrijven veel kritiek te verduren omdat de resultaten van hun modellen raciale- en gender-stereotyperingen versterkten. Vraag een plaatje van een topman of een arts en je krijgt een witte man. ...

Waar dus zonder omhaal uit volgt (blanke nazi's zijn terecht, volgens hen, dus blanke topmannen ook) dat dit ...
  ... Dit is een rechtstreeks gevolg van het onevenwichtige materiaal waarmee AI-modellen zijn getraind. ...

... dus een gore leugen is: die blanke nazis zijn de werkelijkheid en de blanke topmannen zijn dus ook de werkelijkheid - het algoritme weet absoluut niet wat het verschil is tussen een nazi en een topman.
    Net als dit ...
  ... Wie een beeld wil van iemand bij een uitkeringsinstantie, krijgt iemand van kleur.    ...

... dus de werkelijkheid is.
    Ook hier te vinden ...
  ...     Het opvallende gedrag van Gemini resulteerde in een kleine hype op X en Reddit onder mensen die merkten dat het vrijwel onmogelijk was om Gemini portretten te laten maken van witte mannen of vrouwen. ...

Oftewel: "Die mensen maken zich druk om niks dat Google politiek-correct en wokistisch manipuleert en fraudeert".
  ... Bij sommigen leidde dit tot hilariteit, maar anderen zien het als een zorgwekkend symptoom van doorgeschoten 'wokeheid' onder techbedrijven of zelfs als bewijs voor een geheime politieke agenda. 'Google AI is het nieuwste front in de oorlog tegen de blanke geschiedenis en beschaving', stelde een populair extreem-rechts account.     ...

Oftewel: "Om tegen de tegen politiek-correcte en wokistische manipulatie en fraude van Google te zijn, moet je extreem-rechts zijn".
    Die Laurens Verhagen gaat van de rij "Tribunaal" naar de rij richting Feestplein. Mensen die de manipulatie en vervalsing van de maatschappelijk informatievoorziening promoten behoren tot het gevaarlijkste soort bureaumisdadigers.

En daar heb je weer eens dat o zo zeldzame verschijnsel: zinnigheid: in de Volkskrant. En inderdaad: bij de ingezonden brieven (de Volkskrant, 07-03-2024, ingezonden brief van Fons Kleinveld, Boxmeer):
  Achter elk algoritme zit een mens

'Het algoritme is de baas', kopt de Volkskrant (Ten eerste, 6/3), 'en zit de werkenden achter de broek.'
    Wordt het niet eens tijd om te bedenken hoe het werkelijk zit? Algoritmen zijn niets meer of minder dan (een uitvoering van) een aantal regels en bewerkingen om tot een vooraf bepaald resultaat te komen. In de media lijkt het alsof dat is voorbehouden aan computers, zelfs bij googelen komt die suggestie in beeld.
    Maar algoritmen bestaan al zolang als de wiskunde en het logisch denken bestaan. Iedereen die op vakantie gaat, klust of een doel voor ogen heeft, doet dat op basis van een algoritme dat diegene in zijn of haar hoofd heeft ontwikkeld om het gestelde doel te bereiken. Een fijne vakantie, een mooi opgeknapt huis.
    Algoritmen en AI zijn niet gevaarlijk, dat zijn de mensen die gebruikmaken van een algoritme of AI om hun (al dan niet nobele) doelen te bereiken. Laten we alsjeblieft niet doen alsof de mensheid iets overkomt, en dat een algoritme een soort natuurramp is. Degenen die de baas zijn, zijn de schrijvers van het algoritme of eerder nog: de opdrachtgevers. De computer is slechts een dom apparaat dat die opdrachten en bewerkingen razendsnel kan uitvoeren.

Op naar het volgende hetze-artikel van Debiel Verhagen.

De Volkskrant heeft een rationeel besluit genomen ... (de Volkskrant, 26-04-2024, rubriek De week in tech, door Laurens Verhagen):
  Vals spel

Als de worsteling van de maker een essentieel onderdeel is van het creatieve proces, wat betekent dan de komst van AI-gereedschap?


'Maak een liedje over massawerkloosheid en schuilkelders, met de terugkerende zin 'de stoep warm houden, dát heeft zin', in jarentachtigstijl, vleugje reggae.' Hoor de machine ratelen en na een kleine minuut knalt het resultaat uit de speakers.

De stoep warm houden, dát heeft zin,
zeiden zij die wachtten op een sprankje hoop,
terwijl fabrieken zwegen, stil in het gezin,
en de toekomst verborg zich in een verloop.

Toegegeven, het is geen nobelprijswinnende poëzie, maar dat zijn de teksten van pak 'm beet Bløf ook niet. De bijbehorende muziek is, binnen het genre, al indrukwekkender, met vleugjes Klein Orkest en tintjes Doe Maar. Het kan allemaal met AI-programma's als Suno en Udio. Teksten met ChatGPT, plaatjes met Midjourney of video's met Runway: geen terrein is veilig voor de grijpgrage handjes van generatieve AI. Ook muziek niet.

Het begint allemaal met bewondering, net als destijds bij ChatGPT. Wie voor het eerst het recent gelanceerde Udio gebruikt, staat versteld van de mogelijkheden en de vaak indrukwekkende creaties. Voor iemand die niet kan musiceren is het hoe dan ook heerlijk om eindelijk eens mooie plaatjes of fijne muziek te maken naar eigen inzicht. Met dank aan AI. Een dromerig Nederlandstalig nummer op basis van een vertaald gedicht van Baudelaire, een postpunksong in de stijl van jarentachtigband Bauhaus of een klassiek kamermuziekstuk: Udio heeft er geen moeite mee.

Dan komt al snel de dikke 'maar'. Of liever: een aantal dikke maren. Het meest bizarre bezwaar kwam deze week van Kane-gitarist Dennis van Leeuwen. In het AD spreekt hij van 'oneerlijke concurrentie' door de 'verschrikkelijke' muziek-apps. 'Stel dat je een middelmatige voetballer vervangt door een robot die honderd keer beter is dan de rest. Dat verpest toch het hele spelletje?'

Kane is blijkbaar in deze analogie de middelmatige voetballer, Udio de superrobot. Als muziekliefhebber zou ik zeggen: kom maar op met die honderd keer betere muziek. Zo ver is het echter nog niet. En het is de vraag of het ooit zover zal komen. Zo lang AI-muziek bestaat (al heel lang), is dit de grote onbeantwoorde vraag: is een machine in staat om écht creatief te zijn? Kan AI iets voorbrengen dat voorbij gaat aan een wiskundig gemiddelde van het materiaal waarmee het is getraind? En ook: kan het ons werkelijk raken?

Natuurlijk is er sprake van oneerlijke concurrentie, maar vooralsnog zullen vooral de makers van generieke commerciële deuntjes moeten vrezen. Misschien wel het grootste gevaar is dat de mens achteloos steeds meer taken en vaardigheden uitbesteedt aan efficiënte machines. Als de worsteling een essentieel onderdeel van het creatieve proces is, wat betekent de komst van al dat AI-gereedschap dan? Raken we als kunstmakende mens dan niet iets heel belangrijks kwijt?

Cognitief wetenschapper Douglas Hofstadter ziet zelfs dat niet als probleem: 'Je hoeft niet bang te zijn dat de mechanisatie van de creativiteit het einde van de kunst zal markeren. Integendeel: het is een dag om naar uit te kijken, want op die dag gaan onze ogen open voor hele nieuwe werelden van schoonheid.'

... : het heeft de betaalde persoon 'Laurens Verhagen' vervangen door een gratis te gebruiken AI-algoritme genaamd "Laurens Verhagen".


Naar Methodes, begrippen  , Menswetenschappen, regels  , of site home  ·.

20 jan.2019