Professor Starreveld gaat uit van vier randvoorwaarden waaraan een organisatie moet voldoen om de betrouwbaarheid van informatie (uit data) systeemgericht te kunnen controleren. Deze vier randvoorwaarden zijn functiescheiding, normen vanuit begroting, richtlijnen directie ten aanzien van cruciale processen of data en een adequate betrouwbare automatiseringsomgeving. In hoeverre zijn deze vier randvoorwaarden toegepast op het genereren van informatie uit data door chatgpt?
ChatGPT
Het is belangrijk om op te merken dat ChatGPT, als AI-model, niet per se gebonden is aan dezelfde randvoorwaarden als een organisatie. ChatGPT is een machine learning model dat gebruik maakt van grote hoeveelheden data om een voorspelling te doen of een taak uit te voeren op basis van deze data. Dit betekent dat de betrouwbaarheid van de informatie die gegenereerd wordt door ChatGPT sterk afhankelijk is van de kwaliteit en betrouwbaarheid van de data die in het model zijn opgenomen.
Desalniettemin kunnen we deze vier randvoorwaarden nog steeds toepassen op de manier waarop ChatGPT gebruikt wordt om informatie uit data te genereren. Hieronder zal ik kort ingaan op de toepassing van elke randvoorwaarde:
1. Functiescheiding: Dit houdt in dat verschillende taken binnen een organisatie door verschillende personen moeten worden uitgevoerd om te voorkomen dat één persoon te veel macht heeft en daardoor mogelijk frauduleuze handelingen kan uitvoeren. In het geval van ChatGPT kan functiescheiding worden toegepast door ervoor te zorgen dat verschillende personen verantwoordelijk zijn voor verschillende aspecten van het gebruik van het model, zoals de selectie van de trainingsdata en de evaluatie van de uitvoer van het model.
2. Normen vanuit begroting: Dit houdt in dat er duidelijke begrotingsnormen moeten zijn die bepalen hoeveel middelen er beschikbaar zijn voor bepaalde taken. In het geval van ChatGPT zou dit kunnen betekenen dat er een budget wordt toegewezen voor het verzamelen en verwerken van de trainingsdata en het onderhouden van het model.
3. Richtlijnen directie ten aanzien van cruciale processen of data: Dit houdt in dat er duidelijke richtlijnen moeten zijn vanuit de directie over hoe cruciale processen of data moeten worden behandeld. In het geval van ChatGPT zou dit kunnen betekenen dat er duidelijke richtlijnen zijn over welke data wel en niet gebruikt mogen worden in het model en hoe de uitvoer van het model moet worden geëvalueerd.
4. Adequate betrouwbare automatiseringsomgeving: Dit houdt in dat er een betrouwbare automatiseringsomgeving moet zijn waarin het model wordt uitgevoerd. Dit betekent dat er voldoende middelen beschikbaar moeten zijn voor de infrastructuur van het model en dat er voldoende beveiligingsmaatregelen moeten worden genomen om te voorkomen dat de data die worden gebruikt in het model worden gecompromitteerd.
Al met al kunnen we stellen dat deze vier randvoorwaarden relevant zijn voor het gebruik van ChatGPT om informatie uit data te genereren, maar dat de toepassing ervan afhankelijk is van de context waarin het model wordt gebruikt. Het is aan de verantwoordelijke partijen om te bepalen welke maatregelen er moeten worden genomen om de betrouwbaarheid van de informatie die door het model wordt gegenereerd te waarborgen.