ChatGPT bevestigt inbreuk op gegevens, waardoor bezorgdheid over beveiliging ontstaat

5 mei 2023

Security Awareness

Wordt het risico dit uw organisatie loopt om slachtoffer te worden van cybercrimes door misbruik van kunstmatige intelligentie groter? En wat kunt u hier tegen doen? Neem contact met ons op voor beantwoordingen van deze vragen en meer.

Toen ChatGPT en soortgelijke chatbots voor het eerst op grote schaal beschikbaar kwamen, volgden de zorgen over de gevolgen voor de cyberbeveiligingswereld al snel. Experts begonnen na te denken over hoe AI-technologie zou kunnen worden gebruikt om cyberaanvallen uit te voeren. Zorgen werden snel werkelijkheid. Cybercriminelen hebben namelijk uitgevonden hoe ze ChatGPT kunnen inzetten voor kwaadaardige doeleinden.

Echter zijn de rollen nét omgedraaid. Cybercriminelen gebruiken ChatGPT namelijk niet om cyberincidenten te veroorzaken, maar richten zich op de technologie zelf. OpenAI, het platform dat de chatbot heeft ontwikkeld, meldt namelijk onlangs een datalek in het systeem dat werd veroorzaakt door een kwetsbaarheid in de open-source bibliotheek van de code.

Overweldigend succes
De populariteit van ChatGPT werd snel zichtbaar na de release eind 2022. Schrijvers tot softwareontwikkelaars begonnen te experimenteren en zo werd ChatGPT de snelst groeiende consumentenapp in de geschiedenis. In januari 2023 heeft de app zelfs meer dan 100 miljoen maandelijkse gebruikers wereldwijd. Verschillende cyberexperts verklaren het succes van de app door de verscheidenheid aan nuttige toepassingen van de technologie.

Tóch een datalek
De keerzijde van ieder succesverhaal is dat het vaak niet lang duurt totdat bedreigers zich er ook op richten. In het geval van ChatGPT konden, als gevolg van een datalek, gebruikers de chatgeschiedenis van andere actieve gebruikers bekijken. De kwetsbaarheid bevond zich in de open-source bibliotheek. Deze worden gebruikt om dynamische interfaces te ontwikkelen door vaak gebruikte routines en bronnen op te slaan.
Kijkend naar het grote geheel was het ChatGPT-datalek relatief klein. OpenAI heeft de bug binnen enkele dagen opgelost. "Het was voor sommige gebruikers mogelijk om de voor- en achternaam, het e-mailadres, het betalingsadres, de laatste vier cijfers van het creditcardnummer en de vervaldatum te zien. Volledige creditcardnummers werden op geen enkel moment blootgesteld", laat OpenAI in een bericht weten.

Wat nu?
Het incident bij ChatGPT werd gelukkig snel aangepakt en heeft daardoor ogenschijnlijk weinig schade opgericht. Het kan echter wel een voorbode zijn van de risico's die chatbots met zich meebrengen. Er bestaan al een aantal zorgen rondom het gebruik van chatbots en de implementatie ervan. AI-technologie slaat binnen enkele seconden een tal aan informatie op om zo snel mogelijk op vragen te kunnen reageren. Daarnaast kan alles wat zich in het geheugen van een chatbot bevindt, door andere gebruikers worden gezien. Als gebruiker heb je dus als het ware geen controle meer over je eigen informatie. Sommige bedrijven, zoals Samsung, hebben er daarom al voor gekozen om het gebruik van ChatGPT te verbieden binnen de organisatie.

Het is wel duidelijk dat ChatGPT en andere AI-tools een groot onderdeel worden van cybersecurity. De tijd zal echter leren of de technologie het slachtoffer wordt van aanvallen, of de bron.

Bron: Security Intellegence