Vincent Ginis is opdrachthouder AI en Data aan de VUB en geeft het vraagstuk rond ethische grenzen mee vorm. Een gesprek over taaldiefstal, energieslurpers en fraude. “Machine learningmodellen versterken ook de vooringenomenheden die in de maatschappij aanwezig zijn.”
“Het kan verkeren. Ik herinner mij goed dat er in het rectoraat van Caroline Pauwels gevochten werd tegen het Covid-beest. Onze werkwijze moest dringend digitaal en online gebeuren. Nu merk je dat alles wat achter een digitale muur gebeurt, meer fraudegevoelig is dan wat er in real life gebeurt. Dat is een nieuw spanningsveld. Heel wat opleidingen overwegen dan ook om terug te gaan naar de mondelinge verdedigingen van thesissen en om examens maximaal in de aula plaats te laten vinden.”
Voor welke ethische grenzen moeten we ons hoeden?
“Een van de grenzen waar ik persoonlijk veel aandacht aan besteed, is die van de autonomie van de mens. Er bestaat een potentieel gevaar dat je veel taken en processen uitbesteedt en daardoor de autonomie verliest om ze zelf nog te kunnen uitvoeren. En daarmee verlies je mogelijk ook autonomie over de eigen gedachten en output. Het is een grens die in mijn ogen te weinig bewaakt wordt.”
Wat blijft er nog over van onze privacy?
We zijn zonder het te willen, allemaal onderdeel geworden van het trainingsmateriaal van bijvoorbeeld een taalmodel.
“Op korte termijn komt onze privacy heel erg onder druk te staan omdat we, zonder het te willen, allemaal onderdeel zijn geworden van het trainingsmateriaal van bijvoorbeeld een taalmodel. Jij hebt waarschijnlijk al heel wat teksten geschreven, een groot deel daarvan werd opgemerkt door taalmodellen zonder dat jij daar expliciet toestemming voor gaf. Dat is op een bepaalde manier een verlies van jouw privacy. En dit kan op lange termijn een vreemd gevolg teweegbrengen. Het is namelijk heel gemakkelijk geworden om mensen in de digitale wereld na te bootsen waardoor mensen waarschijnlijk zelf hun privacy zullen openbaren. Want je gaat er in zo’n wereld alles aan willen doen om te bewijzen dat jij daadwerkelijk jij bent. Sommige mensen laten daarom nu al vrijwillig hun irissen scannen.”
Het is heel gemakkelijk geworden om mensen in de digitale wereld na te bootsen waardoor mensen waarschijnlijk zelf hun privacy zullen openbaren.
“Er is ook het dubbel gebruik van nieuwe technologie die op andere manier wordt ingezet dan oorspronkelijk bedoeld. Kijk naar de invoering van AI op het slagveld in Oekraïne om grootschalige drone-aanvallen uit te voeren en af te kunnen slaan. En er is ook een ecologische impact waarvan nu nog moeilijk in te schatten is hoe groot en wat de reikwijdte zal zijn.”
Doe eens een poging.
“Momenteel wordt 40% van alle computerberekeningen gebruikt voor fundamenteel onderzoek, bijvoorbeeld op het gebied van gezondheidszorg, deeltjesversnellers en farmaceutica. Ongeveer 20 procent van alle computerberekeningen wordt vandaag gebruikt voor machine learning en AI. De projectie van hoeveel computerberekeningen nodig zijn voor de volgende generatie GPT’s (Generative Pre-trained Transformers) zijn in die mate hallucinant dat je naar double digit percentages gaat om welgeteld één GPT te trainen. Meer dan tien procent van alle computers op aarde zouden daarvoor ingezet moeten worden. Daar gaat bovendien een enorme hoeveelheid energie voor nodig zijn. Dan spreken we over de energie van minstens een kerncentrale. Die energie is er op dit moment niet en dan heb ik het nog niet over het torenhoge waterverbruik voor de koeling van servers dat ermee gepaard gaat. Er wordt veel gesproken over de energieverslindende bitcoins. Maar dat verdwijnt in het niets vergeleken met de grote machine learningmodellen die eraan komen.”
Er zijn slechts een paar modellen en die gaan voor ons bepalen wat cultureel aanvaarde output zal zijn.
“Machine learningmodellen versterken ook de vooringenomenheden die in de maatschappij aanwezig zijn. Ze worden namelijk getraind op aanwezige data en ze geven de patronen die ze daarin herkennen weer. Als je in Google Translate een zin invoert waarbij een dokter een vrouw is, dan wordt diezelfde dokter na dubbele vertaling plots een man. Met de moderne grote taalmodellen is er nog een extra laag van complexiteit. Ze hebben zich enerzijds de patronen die op internet aanwezig zijn eigen gemaakt, maar ze reproduceren die niet op een eenduidige manier. Als je op het internet een factueel of cultureel geladen statement checkt dan zal je bijvoorbeeld zien dat het internet gemiddeld gezien minder gepolijste praat verkoopt dan wat je uit Chat GTP zal krijgen. AI-ontwikkelaars hebben bij Chat GTP een bijkomende stap toegevoegd: RLHF. Dat is een methode waardoor ze hun eigen culturele waarden laten reproduceren door de modellen. Er zijn slechts een paar modellen en die gaan voor ons bepalen wat cultureel aanvaarde output zal zijn.”
Hoe moet de VUB omgaan met AI?
“Ik wil drie luiken belichten: onze strategische keuzes rond onderwijs en onderzoek en wat wij als universiteit in de maatschappij teweeg kunnen brengen. Bij onderwijs moeten we twee misverstanden uit de wereld helpen. Het eerste is dat generatieve AI enkel kan gebruikt worden om teksten te laten schrijven. Ze kunnen evengoed helpen bij opdrachten die niet op tekst gebaseerd zijn.
"We moeten onze studenten uitleggen in welke gevallen je AI kunt gebruiken. Ik vergelijk het met de fitnessclub: daar zie je nooit iemand een scooter nemen op de loopband."
Het tweede misverstand is dat studenten de leerdoelen die AI kan uitvoeren niet meer onder de knie moeten krijgen. We moeten met onze studenten in gesprek gaan en hen uitleggen in welke gevallen je AI wel en in welke gevallen niet kunt gebruiken. Ik vergelijk het soms met de fitnessclub: daar zie je nooit iemand een scooter nemen op de loopband. Daar begrijpen we opeens wel dat we onszelf niets wijs moeten maken en door een proces moeten gaan om te bereiken wat we voor ogen hebben. We moeten studenten uitleggen dat ze soms echt helemaal alleen op die loopband moeten gaan staan. Studenten eigenaar maken van hun leertraject wordt belangrijker dan ooit.”
Hoe ziet dat er concreet uit?
“Nog te veel mensen die een taak hebben, vragen aan de AI om die voor hen uit te voeren. Maar aan jouw briljante collega vraag je toch ook niet om de inleiding van jouw paper te schrijven? Je gaat er wel mee in gesprek om ideeën en feedback af te toetsen. Dat conversatieaspect kent AI ook, maar wordt heel erg onderbenut. Een problematisch gevolg daarvan is dat wanneer je lang genoeg dingen uitbesteedt, dat je zelf de vaardigheid verliest. Het andere gevaar is natuurlijk het eigenaarschap van materiaal waar je niets aan hebt bijgedragen.”
Thesissen van studenten worden ook gecheckt op originaliteit. Hoe verloopt dat controlemechanisme via GTP?
“Fraude is natuurlijk niet nieuw. Vroeger was er een hele industrie van ghostwriters voor masterthesissen, die overigens ondertussen helemaal is ingestort. Voor 1.000 euro kreeg je een thesis die niet gecheckt kon worden door Turnitin of gelijkaardige checkprogramma’s. En nu? Studenten die vroeger fraude pleegden, zullen dat ook nu proberen doen. Voor hen is het belangrijk dat we de continue procesevaluatie versterken en via een veelheid van grote en kleine maatregelen fraude ontmoedigen. Maar het merendeel dat vroeger heel verantwoord te werk gingen, zullen dat ook nu proberen, gesteund door de voorbeelden van hoe je de taalmodellen op een positieve manier kan gebruiken.”