Gesjoemel met AI
Ik ben op zich geen tegenstander van Artificiële Intelligentie (AI), maar misschien komt dat omdat ik uit de ICT-wereld kom. Ik denk dat AI ons heel veel positieve dingen kan brengen en in de (vrij nabije) toekomst een grote hulp zal zijn om moeilijke of complexe taken uit te voeren, of om eentonige taken van de mens over te nemen. Ik denk hierbij aan zelfrijdende auto’s (al zijn die nog niet voor morgen), robots om auto’s te assembleren, hulp aan chirurgen bij een ingewikkelde operatie, …
Maar net zoals elke andere uitvinding is ook Artificiële Intelligentie zo onschuldig of zo gevaarlijk als diegene die het gebruikt. En jammer genoeg kan AI heel schadelijk zijn als het misbruikt wordt door lieden met slechte bedoelingen.
Dat heeft een vrouwelijk Australisch parlementslid onlangs mogen ondervinden. Een lokale tv-zender daar heeft het blijkbaar nodig gevonden om een foto van dat parlementslid met “intelligente” software te “fotoshoppen”: de vrouw had op de foto een aanzienlijk grotere boezem dan ze werkelijk had. Volgens de verantwoordelijken van de zender was dit volkomen “onopzettelijk” gebeurd: de software zou de aanpassingen helemaal zelf “verzonnen” hebben, zonder menselijke tussenkomst. Dat is flauwe kul, natuurlijk: geen enkel computerprogramma, hoe intelligent ook, zal zomaar dergelijke aanpassingen verzinnen. Zelfs al zou dit geheel “artificieel” gebeurd zijn, dan nog moet het computerprogramma instructies in die zin gekregen hebben. Het is dan ook behoorlijk laf van de makers om zich achter computersoftware te verschuilen, terwijl het gewoon om een seksistische ingeving van de verantwoordelijken ging. Het parlementslid in kwestie heeft achteraf wel verontschuldigingen gekregen, maar het kwaad was sowieso geschied: het valse beeld van een vrouw met een flinke boezem was de wereld rond gegaan en zo zouden de mensen zich haar herinneren.
Al bij al is zoiets nog vrij onschuldig, er kwam ook geen bloot aan te pas. En misschien was het niet eens slecht bedoeld. Maar het kan echt wel nog veel erger als we het hebben over de gevallen van “deep nude” die circuleren in de sociale media (X, Facebook, TikTok, Telegram). Bij een “deep nude” wordt met behulp van Artificiële Intelligentie het hoofd van een vrouw of een meisje op het lichaam van een naakte vrouw of een pornoster “gemonteerd” op zo’n manier dat het er volkomen echt en natuurlijk uitziet, waarna die gemonteerde foto via de sociale media ruim verspreid wordt. En daar is zo goed als niets tegen te beginnen. Het kan trouwens zowat iedereen overkomen. Ook beroemde filmsterren, popsterren of (vrouwelijke) BV’s. Zo heeft er ook een “deep nude” van megaster Taylor Swift gecirculeerd, maar die heeft het geluk dat ze een enorme, een heel trouwe en een heel slagvaardige aanhang heeft: zij hebben de sociale media overspoeld met andere foto’s en berichten van en over Taylor Swift, waar de “naaktfoto’s” bij manier van spreken in “verdronken” zijn en niet meer circuleerden. Maar niet iedereen beschikt over zo’n aanhang. Het overkomt ook onschuldige jonge meisjes, overal ter wereld. En dat is desastreus voor het moreel en psychisch welzijn van de getroffen tienermeisjes. Bij “echte” naaktfoto’s die soms tegen hun wil rondgestuurd worden zou je nog kunnen zeggen dat ze er zelf een beetje “schuld” aan hebben omdat ze zo naïef geweest zijn om zo’n foto’s met een vriendje te delen, maar bij die “fake” naaktfoto’s sta je als jong meisje volkomen machteloos, ook al heb je jezelf helemaal niets te verwijten. Het lijkt mij dat hier een grote verantwoordelijkheid ligt bij de beheerders van de sociale media: die zouden dat soort foto’s moeten detecteren en tegenhouden vooraleer het kwaad geschied is. Dat die foto’s zomaar kunnen circuleren, toont dat het die platformen vooral om de eigen winst te doen is, en bewijst nog maar eens hoe giftig en verderfelijk de sociale media wel zijn. En diegenen die die foto’s ineen flansen, zouden voor mijn part gerust aan de schandpaal genageld mogen worden; letterlijk.
En het kan zelfs nog straffer: bijzonder gevaarlijk is het gebruik van “deep fake”-video’s. Dat zijn video’s die met behulp van AI iemand iets laten doen of zeggen wat die zelf nooit gedaan of gezegd heeft. Met “deep fake”-video’s kan je om het even wie om het even wat in de mond leggen en dat helemaal geloofwaardig laten overkomen. De gevaren hiervan zijn eigenlijk nauwelijks te overzien. Stel dat iemand zo’n “deep fake” lanceert waarin bijvoorbeeld Vladimir Poetin aankondigt dat hij een kernaanval zal lanceren; hoe zal de wereld daarop reageren? De mogelijkheden zijn werkelijk onbegrensd, en de bijhorende risico’s (voor het slachtoffer zelf, of zelfs voor de hele wereld) zijn niet in te schatten. Er zou dus volgens mij dringend een erg restrictieve wetgeving moeten komen die elk gebruik van “deep fake” verbiedt en de makers met erg strenge straffen bedreigt.
Nee, ik ben geen tegenstander van Artificiële Intelligentie. Maar ik ben wel een heftig tegenstander van het misbruik ervan. En ik blijf waarschuwen voor het gif van de sociale media.
Reacties
Een reactie posten