Deze bijdrage verscheen eerder op knack.be in kader van Homo Roboticus* en werd geschreven door VUB-onderzoeker -en professoren Rob Heyman, Jo Pierson en Paul De Hert.
 

Privacylessen van sociale media en zoekmachines

Datagedreven technologie verzamelt allerlei soorten gegevens om diensten te verbeteren of aan te bieden. Alphabet Inc., het moederbedrijf van Google, biedt bijvoorbeeld gratis e-mail, een zoekmachine, office-toepassingen en navigatie aan. Facebook Inc. kennen we dan weer van Facebook, Facebook Messenger, WhatsApp en Instagram.

 

Achter die diensten, die vaak gratis zijn, schuilt een strategie. Het doel is om zo snel mogelijk een belangrijke - liefst onmisbare - schakel te worden in ons dagelijks leven. Hoe meer je gebruikmaakt van zo'n dienst, hoe moeilijker het wordt om die te verlaten. Dat levert dat soort bedrijven twee zaken op. Ten eerste geef je ze meer en betere informatie, waarmee de bedrijven hun diensten nog beter kunnen afstemmen in vergelijking met concurrenten. Ten tweede wordt het moeilijker om die diensten te verlaten, mensen zijn er afhankelijk van geworden.

 

Die afhankelijkheid werd al meermaals gebruikt om zaken af te dwingen waarmee eindgebruikers in se niet akkoord zijn. Voornamelijk het hergebruik van data voor nieuwe diensten of via andere organisaties.

Ook huisrobots gaan - daar hebben we het zo dadelijk over - data verzamelen, veel data. Een deel van de datareuzen van het internet waagt de overstap naar robots in huis, dus het kan zijn - maar opnieuw: koffiedik kijken, dat die bedrijven daar hetzelfde van plan zijn.

 

Sociale media of online platformen steunen op drie mechanismen. Ze verzamelen massaal allerhande (persoonlijke) data, vaak zonder dat mensen het beseffen. Het gaat over data die ze vrijwillig aanleveren (naam, foto's ...), geobserveerde data (zoals cookies die je surfgedrag observeren) en afgeleide gegevens (bijvoorbeeld je profiel voor kredietwaardigheid). Vervolgens worden die gegevens vermarkt. Dat betekent vaak dat ze worden ingezet om meer gerichte reclame te genereren. Ten slotte worden de data ook gebruikt om de selectie aan te sturen van wat gebruikers al dan niet te zien krijgen of kunnen doen. Die mechanismen kunnen privacy en andere waarden ondergraven.

Achter die diensten, die vaak gratis zijn, schuilt een strategie. Het doel is om zo snel mogelijk een belangrijke - liefst onmisbare - schakel te worden in ons dagelijks leven.



De fratsen van Alexa

Het voorbeeld van Amazons Alexa is erg veelzeggend (als je Alexa als robot wil bestempelen, het is een persoonlijke assistent van Amazon die werkt via apparaten als Amazon Echo). Alexa luistert de hele tijd mee om commando's te horen als 'Alexa, doe X.' Soms begrijpt ze evenwel mensen verkeerd en geeft ze informatie die iemand van het gezin liever niet deelt. Zo is er het verhaal van een jongen die Alexa vraagt om een liedje te spelen, waarna die het kind voorstelt om naar een pornostation te luisteren. De ontmaskerde vader, wiens zoekgeschiedenis door Alexa per abuis is aangewend, roept vanuit de achtergrond: 'Alexa, stop!'

 

En dan is er nog het verhaal van Danielle. Zij kreeg in mei 2017 een bericht van een collega van haar man. De collega had een bericht van Amazon gekregen, met daarin een opname van een gesprek bij Danielle thuis. Sindsdien staan de Amazon Echo's in Danielles gezin uit. Het is nog altijd onduidelijk wat er precies is gebeurd. Volgens Amazon is het de schuld van Danielle - Echo had toestemming gevraagd. Danielle ontkent dat, maar Amazon houdt voet bij stuk. Er werd tweemaal om toestemming gevraagd om het gesprek naar de collega te sturen. Werd Danielle terecht opgenomen of maakte Amazon een fout? Hard bewijs werd nooit gegeven.

 

In die voorbeelden maakte Alexa ongewild informatie uit een huiselijke context toegankelijk voor anderen. Voor onderzoekers in sociale media is dat zeker niets nieuws. Foto's op Instagram of Facebook of zelfs je eigen zoekgeschiedenis kunnen zulke informatie ook prijsgeven. Een oplossing is om Alexa beter te 'trainen' of om als gebruiker na te gaan welke toegang huisrobots als Alexa hebben en vervolgens eventueel informatie te wissen of ontoegankelijk te maken.

 

Robots weten meer van je dan je denkt

Maar het privacygevaar bij huisrobots gaat verder dan het ongewenst openbaar maken van bestaande informatie.

 

Aldeberan Robotics heeft een robot, Nao, die vervelende vragen stelt over je privéleven. Nao gebruikt gezichtsherkenning. Zodra een gezicht wordt herkend, stelt hij vragen over dingen die hij online van je vindt. Zo leert Nao waar je gisteren hebt gegeten en vraagt hij hoe het in dat specifieke restaurant was. Nao maakt deel uit van een project, Humans And Robots in Public Spaces, waarin wordt onderzocht hoe mensen met robots zullen interageren. Robots zullen veel meer zien en voelen, wat hen een rijkere interactie met ons zal geven, maar ze zullen ook veel invasiever zijn. Vandaar het experiment.

 

Een robot is - zoals we al schreven - datagedreven technologie. Robots verzamelen gegevens via sensoren of halen online informatie op die wij beschikbaar hebben gemaakt. Mensen kunnen dat soort publieke gegevens ook verzamelen, maar het voelt griezeliger wanneer robots het doen. Het voorbeeld van Nao leert dat we kritisch moeten zijn voor het nieuwe onbekende in vergelijking met het dagdagelijkse. Nao is nog vrij onschuldig, want die robot kan niet bij informatie waartoe Apple, Google en Facebook op dit moment wel toegang hebben. Hun persoonlijke assistenten, denk aan Siri en Google Now, weten constant waar je bent, waarnaar je op zoek bent, maar ook hoe je dag er doorgaans uitziet.

Mensen kunnen dat soort publieke gegevens ook verzamelen, maar het voelt griezeliger wanneer robots het doen.


Moeten we robots wantrouwen? Zullen mensen informatie verbergen, net zoals ze stickertjes over de camera van hun laptop plakken omdat ze bang zijn dat er iemand kan meekijken? Het stickertje komt voort uit onmacht en gebrek aan vertrouwen. Mensen die hun laptopcamera bedekken, doen dat omdat ze geen middelen hebben om na te gaan of er echt niemand meekijkt. Het vertrouwen in bedrijven achter huisrobots is ook niet sterk. Bedrijven als Amazon, maar ook iRobot, de producent van de populaire stofzuigrobot Roomba, zijn onduidelijk over wat er gebeurt of zal gebeuren met onze gegevens.

 

Roomba is een elektronische stofzuiger met een zwart-witcamera met lage resolutie, tast- sensoren en infraroodsensoren. In de privacy disclaimer van die robot staat dat het bedrijf onder verschillende voorwaarden je gegevens mag doorverkopen.

 

De baas van iRobot, Colin Angle, laat zijn Roomba's kaarten van woningen doorsturen naar iRobots. In de eerste plaats worden die kaarten gebruikt om efficiëntere routes te berekenen, omdat Roomba dat zelf niet kan. Maar Angle vond dat die kaarten ook interessant zouden kunnen zijn voor leveranciers van het internet of things, zoals Google en Apple. Angle had het over verkopen van gegevens in de pers. Het resultaat was een golf van kritiek en twee dagen later nam hij zijn woorden terug. Hij zou geen data verkopen, maar wel delen als de gebruiker dat zou willen.

 

Het is dus niet alleen moeilijk om te weten wat een bedrijf achter een robot doet met verzamelde gegevens, het is ook raden naar wat een bedrijf er in de toekomst mee zal doen.

 

 

In privacyonderzoek wordt dat fenomeen function creep genoemd. Zodra een systeem gegevens verzamelt, worden er steeds nieuwe doelen of functies voor die informatie gezien en toegepast. Voor bedrijven is het onweerstaanbaar om die nieuwe datatoepassingen niet te doen. Want elke nieuwe functie is pure winst, omdat je de data toch al hebt. Met de Clean MapTM zie je waar de irobot stofzuigrobot heeft gereinigd, maar leidde tot privacy vraagstukken toen er bekeken werd om die grondplannen te verkopen.

Het is dus niet alleen moeilijk om te weten wat een bedrijf achter een robot doet met verzamelde gegevens, het is ook raden naar wat een bedrijf er in de toekomst mee zal doen.



Persoonlijkheid boezemt vertrouwen in

We weten dat robots en personal assistants snel een persoonlijkheid krijgen van hun 'baasjes'. Roomba's krijgen een naam of lijken wel een huisdier. Ook Siri en Google Now kan je personaliseren voor zover ze zelf al geen persoonlijkheid hebben. Personificatie maakt dat de hele structuur achter die 'persoon' onzichtbaar blijft, omdat ze zich in de achtergrond afspeelt of onzichtbaar is. Dat fenomeen is breder dan, maar in het bijzonder van toepassing op robots.

 

Professor Mireille Hildebrandt waarschuwt dat die personificatie wel eens nefast kan zijn, omdat mensen robots daardoor gaan vertrouwen op een manier die riskant zou kunnen zijn. Dat gevaar bestaat zeker. Denk maar aan kinderen die de gekste dingen zouden toevertrouwen aan bots die lijken op hun favoriete tv-helden. Maar bots op Tinder strikken ook goedgelovige mensen die denken dat ze met een mens praten.

 

Robots zijn dommer dan je denkt (nu nog)

Robots in de huiskamer zijn dom, maar net slim genoeg om hun omgeving in kaart te brengen. Een met de robot verbonden computer doet het denkwerk en stelt vast of een instructie werd gegeven of maakt een overzichtelijke kaart van een kamer om beter te stofzuigen. Verbonden robots kunnen zich dus plots anders gaan gedragen als de slimmere computer ze aanpast. Ook dat valt door de personificatie van robots moeilijk in te schatten. Het zit nog niet in ons verwachtingspatroon: je wasmachine gaat zich niet ineens anders gedragen door een update. Dezelfde onzichtbaarheid door personificatie maakt ook dat je als consument niet begrijpt wanneer een bepaalde gegevensstroom aan een ander bedrijf wordt doorgegeven. Het zou dus niet vreemd zijn als er plots een voorval in de stijl van het Cambridge Analytica-schandaal plaatsvindt.

 

Het ander gevolg van personificatie van robots is dat we denken dat robots al het werk doen in plaats van mensen. In sommige gevallen is de slimme ondersteunende computer nog niet af maar worden de robots wel al geleverd. In zo'n geval is het mogelijk dat mensen het werk van computers doen. Dat heet de Wizard of Oz-techniek. Met de digitale dienst 'Invisible Boyfriend' (geen robot dus) kan iemand voor een maandelijks bedrag romantische berichtjes en voicemails ontvangen van een gesimuleerde vriend. Het bedrijf achter Invisible Boyfriend wilde die dienst volledig automatiseren, maar zijn technologie was niet ver genoeg geëvolueerd om dat te kunnen. Dus werden mensen ingeschakeld om lieve berichtjes als antwoord te sturen. Het probleem is dat niet iedereen doorhad hoe dat systeem werkt. Het resultaat: veel mensen dachten ten onrechte dat ze met een computer aan het chatten waren.

Robots in de huiskamer zijn dom, maar net slim genoeg om hun omgeving in kaart te brengen.



Aanbevelingen over huisrobots en privacy

Laten de aangehaalde anekdotes toe om voorspellingen te doen over privacy en huiselijke robots? Wij denken van wel. Veel van de bedrijven die onze privacy online bedreigen, zijn dezelfde als degene die het via robots proberen. In die zin kun je al die anekdotes zien als topjes van ijsbergen. Dat soort dingen gebeurt vast vaker, de kans is groot dat er nog meer onder het oppervlak gebeurt. En laat dat nu net de grootste uitdaging zijn: er heerst een groot gebrek aan transparantie. Het is onduidelijk welke partijen, mensen en computers meekijken, in het heden en de toekomst.

 

Hoe kunnen we transparanter worden? Enkele aanbevelingen:

- Waar het kan, moeten sensoren zo gebouwd zijn dat ze herkenbaar zijn en dat het steeds duidelijk is wanneer ze aanstaan.

- Iedere robot moet uitgerust zijn met een informatiefiche waarmee mensen in één oogopslag kunnen zien wat er met hun gegevens gebeurt.

- Robots, in tegenstelling tot apps en software, mogen niet zomaar met een update veranderen waar ze informatie heen sturen of hoe ze met die informatie omgaan. Aangezien dat complexe materie is, waakt best een team van experts over privacy.

 

Robots kunnen ons helpen. We gebruiken al robots, of beter gezegd programma's, om onze privacyvoorkeuren te regelen in de vorm van apps en browserplug-ins. Die toepassingen doen twee dingen: ze kijken na wat er van gegevens wordt uitgewisseld en ze stoppen bepaalde partijen door hen geen toegang te geven. Robots vinden repetitief werk niet erg en mensen doen het liever niet. Dus robots zijn zeker welkom als ze voor ons werken om onze gegevens te vrijwaren van ongeoorloofde toegang.

 

Maar privacyrobots alleen zijn niet genoeg. Grote bedrijven gebruiken hun marktpositie om keuzes op te dringen: 'Ga akkoord met de nieuwe manieren waarop we je informatie hergebruiken of vertrek.' Vertrekken is moeilijk, omdat die diensten ingebed zijn in ons dagelijks leven. Bij robots kan hetzelfde gebeuren. Stel: we kopen een Roomba die nog geen gegevens doorgeeft aan pakweg Apple op het moment van aankoop. Maar als je je huis niet zelf wil stofzuigen, moet je akkoord gaan met nieuwe voorwaarden of je stofzuiger stopt ermee.

 

 

*Op 7 februari organiseert de Vrije Universiteit Brussel in samenwerking met Knack Homo Roboticus, een inspirerende avond rond mens, robot en AI in de Munt in Brussel. Alle info en tickets vind je hier.

 

Homo Roboticus

In een steeds meer gerobotiseerde samenleving verkennen en bespelen u en ik nieuwe technologieën. Hoewel robotica en artificiële intelligentie mens en natuur kunnen helpen, genereren zij ook vaak angst omdat het dreigt ons te overmeesteren. Zevenvijftig academici van de VUB nemen samen de handschoen op. De filosofen, ingenieurs, architecten, fiscalisten, juristen, economen, moraal- en communicatiewetenschappers en politicologen bekijken het thema mens en technologie vanuit verschillende disciplines. In het boek Homo Roboticus komen ze via 30 prikkelende vragen rond het samenleven met robots, tot concrete stellingen voor een inclusieve robotagenda. Meer info: http://homoroboticus.be/

 

Lees ook: