Kunnen artificiële afgevaardigden – dat zijn autonome agenten die beslissingen nemen in onze plaats – ons helpen betere resultaten te bereiken in situaties waar collectief falen op de loer ligt, zoals bij beslissingen over de klimaatverandering of als snelle actie zich opdringt bij pandemieën? Een nieuw gedragsexperiment onder leiding van professor Tom Lenaerts (VUB/ULB) werpt licht op die vraag. De resultaten zijn verrassend: mensen die hun beslissingen toevertrouwen aan digitale vertegenwoordigers gedragen zich generieker pro-sociaal, maar dat betekent niet automatisch dat er betere uitkomsten uit de bus komen.

De studie toont aan dat mensen die hun keuzes overlaten aan artificiële agenten meer bijdragen aan het collectieve goed, zelfs wanneer ze eerder negatieve ervaringen hadden of ongelijkheid ervaarden. “Wat we zien is dat, zodra mensen een stap opzij zetten en een configureerbare AI voor hen laten kiezen in een sociaal dilemma, de bijdragen groter zijn dan wanneer ze zelf de acties kiezen ,” zegt prof. Tom Lenaerts. “Ze lijken meer bereid om hun steentje bij te dragen, wat een interessante vorm van gedragsverschuiving is.”

Toch leidt die toegenomen bereidheid niet tot meer succesvolle groepsresultaten. De artificiële hulpmiddelen zijn consistent, maar missen het menselijk aanpassingsvermogen om flexibel te reageren op de acties van de anderen in het spel. “Ze kunnen niet goed inspelen op onverwachte omstandigheden of ‘last minute’ beslissingen. Ze zijn goed geprogrammeerd, maar niet perfect,” aldus Lenaerts.

Hoewel het inroepen van digitale vertegenwoordigers positief gedrag aanmoedigt, volstaat dat niet om complexe groepsproblemen efficiënt aan te pakken. De sleutel ligt in menselijke betrokkenheid bij het programmeren van die vertegenwoordigers. “Het doorschuiven naar die hulpmiddelen werkt enkel als mensen actief blijven nadenken over hoe ze die vertegenwoordigers programmeren,” benadrukt Lenaerts. “Het idee dat we gewoon alles kunnen overlaten aan technologie zonder er zelf in te investeren, is een gevaarlijke illusie.”

De bevindingen leggen een belangrijk dilemma bloot in de evolutie naar meer digitale besluitvorming: technologie kan sociale intenties versterken, maar is nog geen garantie voor collectieve impact. In domeinen zoals klimaatbeleid of volksgezondheid kan dat verstrekkende gevolgen hebben. “Artificiële agenten hebben zeker potentieel, maar ze zijn geen magische oplossing,” besluit Lenaerts. “Als we willen dat ze écht werken in de praktijk, zullen we als mensen verantwoordelijkheid moeten blijven nemen, niet alleen in de beslissingen, maar ook in het bouwen van de systemen die die beslissingen nemen.”

De publicaties in het wetenschappelijk tijdschrift PNAS (Proceedings of the National Academy of Sciences USA) maken deel uit van het doctoraatsonderzoek van Dr. Ines Terrucha samen met een nationale en internationale groep wetenschappers en werden gepubliceerd onder de titel Humans program artificial delegates to accurately solve collective-risk dilemmas but lack precision.

Meer info

www.pnas.org/doi/10.1073/pnas.2319942121