De FERM Ontbijtsessie van donderdag 8 mei aanstaande staat in het teken van generatieve AI, deepfakes, taalmodellen en de betrouwbaarheid van data. Hoe kunnen we in het licht van de overvloed aan artificieel gegenereerde data nog vertrouwen op wat we zien, horen en lezen – en welke invloed heeft dat op de maatregelen die we moeten nemen op cyberveiligheid? Strategisch specialist en adviseur op het gebied van nieuwe technologie Manon den Dunnen neemt ons mee in de wereld van ‘synthetische media’.
Aansluitend krijgen we op onze gastlocatie bij FERM-participant Neele-Vat een exclusieve rondleiding. Lees verder voor meer informatie, aanmelden kan bij Vivianne Sanders op vivianne@ferm-rotterdam.nl.
“Het hele idee dat we moeten ontdekken of iets echt of nep is, is al achterhaald”, stelt Den Dunnen. “Inmiddels is al zo’n 90 procent van alle digitale content met AI gegenereerd of gemanipuleerd. Denk aan de filters op social media, en de deepfakes van politici of sterren uit Hollywood – maar het zit ook al ingebakken in allerlei apps die we gebruiken, zoals tools voor videoconferencing (wijzend op de MS Teams-verbinding bij het voorbespreken van de Ontbijtsessie, red.).”
“Combineer dat met het feit dat we voor onze informatiepositie inmiddels volledige afhankelijk zijn van een globaal informatie-ecosysteem, dan komen er fundamentele vragen. Heeft het nog zin om te spreken over echt versus nep? Want het gaat er veel meer om hoe betrouwbaar de informatie is voor de context waarbinnen je deze wil toepassen. Anders gezegd, hoe geef je betekenis aan informatie in een wereld waarin alles gemanipuleerd is?”
Synthetische media
Bij synthetische media gaat het meestal om toepassingen voor entertainment, dienstverlening of om onze kwaliteit van leven te verbeteren. Zo’n 99 procent van alle synthesische data is niet malafide, maar het beïnvloedt wèl de waarneming. De context is enorm belangrijk. Bij een videocall dus, maar ook als we online een sollicitatiegesprek voeren, of als een arts online in gesprek is met een patiënt. Dan is het belangrijk te snappen dat je niet het echte gezicht ziet en dat de inhoud van het gesprek door een taalmodel gegenereerd kan zijn.”
“Dat is één kant: alles is al zo’n beetje nep. De andere kant is dat het heel laagdrempelig is geworden om informatie te genereren. Amazon loopt daar tegenaan bijvoorbeeld bij de wildgroei aan boeken die volledig door AI zijn geproduceerd. Er verscheen laatst een natuurboek over allerlei soorten paddenstoelen. Bleek dat er bij de ingrediënten van een gerecht paddenstoelen stonden die je helemaal niet kan eten. Dat is op zich al heel gevaarlijk maar het punt hier is hoe gemakkelijk het is om data te genereren. Alles wat je kunt digitaliseren kun je met deze technologie genereren, manipuleren of klonen. Er is zelfs al synthetisch DNA, van niet-bestaande personen(!).”
“Alles wat digitaal is, is te genereren, te manipuleren en te klonen. Dat heeft een enorme invloed op de complexiteit aan beveiligingsmaatregelen. Daar komt bij dat je geen IT-skills meer nodig hebt om er misbruik mee te maken.”
Manon den Dunnen, Strategisch specialist en
adviseur op het gebied van nieuwe technologie
Laagdrempelig
Die laagdrempeligheid maakt het heel interessant voor een willekeur aan fraudevormen. En mensen voor de gek houden, goedschiks op 1 april of kwaadwillend frauderend, wordt alleen maar gemakkelijker. “Alles wat digitaal is, is te genereren, te manipuleren en te klonen. Dat heeft een enorme invloed op de complexiteit aan beveiligingsmaatregelen. Daar komt bij dat je geen IT-skills meer nodig hebt om het in te zetten.”
Remote authentication, bijvoorbeeld. “Je kunt voor 15 dollar een faceswap tooltje kopen en een rekening op andermans naam openen of op naam van een niet-bestaand persoon, omdat je heel simpel een ID-bewijs kunt genereren om datzelfde te doen. Een inlog bij een bank is vaak een startpunt voor toegang elders, dus de betrouwbaarheid ervan is een serieus issue. Gelukkig hebben Nederlandse banken maatregelen getroffen, maar dit raakt aan een belangrijk punt in de haven: kunnen vertrouwen op je ketenpartners. Je bent niet alleen verantwoordelijk voor je eigen organisatie, maar moet ook (kunnen) controleren hoe het bij de buren is geregeld. En je moet kunnen checken of het ook klopt wat ze zeggen.”
Er zijn voorbeelden te over, waar we in de Ontbijtsessie uitgebreid op in zullen gaan. De Australische Belastingdienst is inmiddels weer gestopt met stemherkenning om toegang tot je account te verkrijgen – want het is volstrekt onbetrouwbaar. “We zijn zo gewend om te vertrouwen op wat we horen, dat we niet eens twijfel toestaan. Stemmen zijn kinderlijk eenvoudig te klonen, dat maakt voicekloning interessant voor criminelen bij CEO-fraude of het verkrijgen van vertrouwelijke informatie. In de praktijk betekent dat, dat zodra het over iets vertrouwelijks gaat, of een handeling die je niet terug kan draaien (zoals een overboeking), je nu altijd een extra verificatiestap in moet bouwen. Dat kan zijn ophangen en zelf terugbellen.
Spoofing
Havenbedrijven werken bijvoorbeeld veel met sensoren, op basis van signalen die je niet noodzakelijk meer hoeft te vertrouwen. Je kunt programma’s immers eenvoudig trainen om diezelfde signalen uit te sturen. “Zo is er zelfs in de fysieke omgeving spoofing mogelijk. Een AES-signaal doet voorkomen alsof een schip, in werkelijkheid gelegen aan kade A, onderweg is in kanaal B. Een truck voorzien van tracking kun je tonen als ‘onderweg’, terwijl de lading, de truck of het hele transportbedrijf misschien niet eens bestaat.”
“Net als met cyberaanvallen of ransomware is het niet de bekende vraag óf je er mee in aanraking komt, maar wannéér. En terwijl misbruik steeds gemakkelijk wordt, worden de juiste maatregelen complexer. Er zijn – helaas – geen makkelijke oplossingen. Dat is een harde werkelijkheid, maar wel enorm belangrijk om de keten – welke keten dan ook – veilig te houden. Ik vertel je er graag meer over bij de FERM Ontbijtsessie!”
Ontbijtsessie Generatieve AI: donderdag 8 mei
90 procent van alle data is nep. Om iets te kunnen zeggen over de betrouwbaarheid en de waarde van informatie in een bepaalde context, zijn daarom extra inspanningen nodig. Deepfake detectietools of goed kijken en luisteren zijn geen oplossing voor de langere termijn. Als bijna alles nep is (meestal zonder slechte bedoelingen), dan wordt het onderscheid tussen nep en echt irrelevant en gaat het om betekenis geven in de specifieke context waarin je de informatie wil toepassen.
Highlights voor deze sessie:
-
- ‘Alles’ is al nep: zo’n 90 procent van alle digitale data is door AI gegenereerd of gemanipuleerd.
99 procent daarvan is niet malafide, maar het beïnvloedt wel de waarneming.
Context is daarom enorm belangrijk; - Generatieve AI is heel laagdrempelig toegankelijk:
je hebt geen IT-skills meer nodig om er misbruik mee te maken; - Alles wat digitaal is, is te genereren, te manipuleren en te klonen. Dat heeft een enorme invloed op de complexiteit aan beveiligingsmaatregelen. Er zijn geen gemakkelijke oplossingen.
- ‘Alles’ is al nep: zo’n 90 procent van alle digitale data is door AI gegenereerd of gemanipuleerd.
Is je interesse gewekt en wil je graag meer weten over generatieve AI en synthetische media? Meld je dan aan voor de FERM Ontbijtsessie op donderdag 8 mei aanstaande! Het programma loopt van 8.00 tot ongeveer 10.30 uur, aanmelden doe je bij vivianne@ferm-rotterdam.nl.
Vind FERM ook op LinkedIn