Audits & Assessments

Consultancy banner

Wij zorgen ervoor dat je aan alle regels voldoet.

"With great power comes great responsibility." Deze uitdrukking vat precies het enorme potentieel van Kunstmatige Intelligentie (AI) samen. Het stimuleert innovatie, maar kan ook nadelige gevolgen hebben voor privacy, ethiek, mensenrechten en het milieu.

Rhite biedt een team van experts in het identificeren en beheersen van dergelijke risico's, en helpt je verantwoordelijke oplossingen te bouwen, van de technische details van toepassingen tot het beleid op organisatieniveau.

Wil je een audit of assessment aanvragen van een op Kunstmatige Intelligentie gebaseerde oplossing? Neem contact met ons op of kom langs voor een bezoek.

Soorten assessments

Soorten assessments

consultancy: responsible ai

AI Impact Assessments

We kunnen oplossingen onderzoeken om de mogelijke impact op individuen en de samenleving te bepalen. Hiervoor gebruiken we verschillende tools en impactbeoordelingskaders.

Mogelijke gebruiksscenario's zijn onder andere:

  • Beoordeling van een AI-oplossing tijdens de ontwikkeling;
  • Beoordeling van een AI-oplossing van derden vóór gebruik;
  • Due diligence van AI-oplossingen, voor investeerders.

We begeleiden uw organisatie bij de uitvoering van verschillende soorten impactbeoordelingen zoals: IAMA, ALTAI, DPIA, PLOT4ai, FRIA en anderen. Afhankelijk van het type organisatie (overheid, grote of middelgrote organisatie, MKB, startup) en het type oplossing en context, zal onze begeleiding gedaan worden met het impactbeoordelingsinstrument dat het meest geschikt is voor de specifieke omstandigheden en wettelijke vereisten.

We kunnen de sessies en het hele proces van begin tot eind faciliteren. We kunnen ook op maat gemaakte trainingssessies voor uw organisatie verzorgen om te leren hoe en wanneer de verschillende beoordelingstools geimplementeerd kunnen worden tijdens en na de development lifecycle van een oplossing.

AI Bias-beoordelingen en audits

Onze AI Bias Audit-service biedt een onafhankelijke beoordeling van je AI-systeem om bias te identificeren met behulp van geavanceerde methoden en tools die zijn afgestemd op jouw specifieke use case, om eerlijkheid en compliance met nationale regelgevingen te waarborgen. Afhankelijk van jouw behoeften kunnen we de architectuur van je AI-model beoordelen, trainingsdata analyseren, statistische bias-detectietests uitvoeren en de menselijke controle- en governanceprocessen evalueren. Onze resultaten omvatten een uitgebreid auditrapport met bevindingen en aanbevelingen voor bias-mitigatie, evenals doorlopende strategieën voor monitoring en naleving. Onze methoden zijn altijd gebaseerd op de meest recente inzichten en onderzoeken.

Red teaming Large Language Models (LLMs)

Wij bieden gespecialiseerde Red Teaming-diensten voor LLLMs, ontworpen om kwetsbaarheden te ontdekken en zowel de veiligheid als beveiliging van je AI-systemen te waarborgen. Door gebruik te maken van geavanceerde, op de use case afgestemde technieken, helpen we ervoor te zorgen dat je modellen bestand zijn tegen mogelijke bedreigingen en geen schade toebrengen aan anderen. Onze diensten omvatten het simuleren van aanvallen door kwaadwillenden, het testen van de reactie van het model op schadelijke inputs, het controleren op inbreuk op het auteursrecht en het evalueren van bestaande verdedigingsmechanismen. Je ontvangt een grondig rapport met onze bevindingen, samen met concrete aanbevelingen voor het mitigeren van risico's en het versterken van de robuustheid en veiligheid van je AI. We bieden ook strategieën voor doorlopende monitoring en verbetering om je systemen op lange termijn veilig en compliant te houden.

AI Audits vs Assessments

Wat is het verschil tussen een assessment (beoordeling) en een externe audit?

In beide gevallen kunnen systemen en organisaties worden beoordeeld op basis van verschillende controles. Deze controles zijn meestal afkomstig van een goedgekeurde norm of raamwerk. Momenteel is er nog geen goedgekeurde Europese norm voor het auditen van AI-systemen en organisaties, en daarom zijn er nog geen geaccrediteerde instanties die auditcertificeringen kunnen aanbieden.

Dit betekent niet dat je organisatie niet door een externe partij kan worden geaudit. Een externe partij kan je systeem auditen op basis van beschikbare raamwerken, soms alleen op basis van interviews en beoordeling van documentatie, en soms ook door je systeem te analyseren of er samen met jou naar te kijken.

Het resultaat van de audit zal een rapport zijn waarin de nalevingsstatus van je systeem en organisatie wordt aangegeven volgens de vereisten en maatregelen van de beoordeelde controles.

Een assessment is een vergelijkbaar proces als een audit, met het verschil dat het bedrijf dat de beoordeling uitvoert ook begeleiding kan bieden aan de organisatie om de juiste controles te implementeren en het volwassenheidsniveau te verhogen. Een externe audit moet worden uitgevoerd door een onpartijdige partij. Dit betekent dat dezelfde partij die begeleiding en advies biedt, niet dezelfde partij mag zijn die het systeem auditeert.

consultancy: privacy by design

Privacy Impact Assessments

DPIA

Het is belangrijk om op tijd te beginnen met een Data Protection Impact Assessment (DPIA). We richten ons specifiek op de technisch uitdagende DPIA’s binnen jouw organisatie. Naast de juridische aspecten kijken we ook naar de risico’s* en helpen je beoordelen of deze acceptabel zijn of dat er maatregelen genomen moeten worden.

*We kijken niet alleen naar risico's met betrekking tot gegevensbescherming en beveiliging, maar ook naar andere risico's die kunnen voortvloeien uit het ontwerp en die een negatieve impact kunnen hebben op het individu en/of de samenleving.

Rhite doet zowel audits als assessments.

Neem contact op met ons voor meer informatie.