Risico op datalekken via AI-chatbots zoals ChatGPT, waarschuwt privacytoezichthouder
De Autoriteit Persoonsgegevens (AP) heeft meldingen ontvangen over datalekken die zijn ontstaan doordat medewerkers persoonsgegevens van klanten en patiënten hebben ingevoerd in AI-chatbots zoals ChatGPT.
Dit meldde de website nu.nl op haar website. Dit om precies te zijn op woensdag 7 augustus in het jaar 2024. Dit alles in de vorm van een online artikeltje. We haalden er een paar punten voor je uit.
Deze chatbots worden steeds vaker gebruikt op de werkvloer voor het vereenvoudigen van taken, zoals het samenvatten van documenten. Echter, veel organisaties zijn zich niet bewust dat deze chatbots de ingevoerde gegevens opslaan, wat kan leiden tot privacyschendingen.
In één geval voerde een medewerker van een huisartsenpraktijk medische gegevens in bij een AI-chatbot, wat volgens de AP een ernstige inbreuk op de privacy van patiënten is. Een ander voorbeeld betrof een telecombedrijf waar een medewerker een bestand met klantgegevens deelde met een chatbot.
De AP benadrukt dat het onduidelijk is wat er met de ingevoerde gegevens gebeurt en waarschuwt dat dit kan leiden tot datalekken.
De toezichthouder adviseert organisaties duidelijke afspraken te maken over het gebruik van AI-chatbots en goed te overwegen welke gegevens ingevoerd mogen worden om dergelijke risico’s te vermijden.
(Bron: nu.nl)