‘Zolang ‘de mens’ leeft delegeren we al taken aan (technologische) systemen buiten onszelf. Van boekdrukkunst tot landbouwwerktuigen tot computers. Dat bevordert onze vrijheid en economische groei. Tegelijkertijd stelt het ons voor ethische vragen over ongelijkheid en autonomie. Met de komst van generatieve AI gaat die autonome ontwikkeling sneller dan ooit. Én gaan we hierin ongemerkt over een scheidslijn: die van wederkerigheid. Zijn routines te stoppen of terug te draaien of onomkeerbaar? Waar ligt de grens tussen mens en machine? Die vraag daagt ons uit onze bedrijfs-governance versneld door te ontwikkelen.
Met zgn ‘LAWS’ (Lethal Autonomous Weapon Systems) op het slagveld, zelfsturende auto’s, voorspelmodellen, etnisch profileren en AI-bots die klantafhandeling volledig automatiseren,…, ligt de roep om instituties en AI-waakhonden voor de hand. Toch kan wetgeving als de EU AI-act en de General Data Protection Regulation de technologische ontwikkeling onvoldoende bijbenen. Bedrijven zullen dus zelf de governance van autonome algoritmes ter hand moeten nemen. Met snelheid, want waar deze technologie exponentieel groeit kunnen lineaire governance processen onvoldoende verantwoording afleggen.
Allereerst kijken we vanuit verantwoording naar de principiële grenzen. Eenvoudig. Verantwoordelijkheid is niet uit te besteden. Verantwoording is waar zeggenschap ligt. De radioloog blijft verantwoordelijk voor de diagnose, hoezeer hij/zij ook mag vertrouwen op dubbel uitgevoerde, foutloze AI systemen. Een ander krachtig voorbeeld over verantwoordelijkheid zagen we bij Anthropic, het bedrijf achter zoekrobot Claude. Conform hun ‘constitution’ weigeren zij bij te dragen aan technologie voor ‘unstopable’ wapensystemen. We zien ethische codes wel eens verwateren als de winst onder druk komt te staan, ethiek is een psychologisch proces. Hun moedige, verantwoorde daad verdient dus navolging.
Vervolgens hebben we in het AI-tijdperk onze governance-processen te versnellen. Hoogleraar Global ICT Law, Lokke Moerel, heeft goede beginselen opgesteld om te komen van periodieke compliance naar real-time monitoring. Zij noemt onder meer ‘anticipatory governance’ als model van de toekomst van toezichtstructuren, met bijvoorbeeld een interne AI-ethics board als uitvoerend orgaan. Governance ontwikkelt zich zo van periodieke, terugkijkende audits naar actueel inzicht en permanente controle. De governance moet dezelfde snelheid hebben als het systeem zelf.
Het geijkte governance-proces van beeldvorming, oordeelsvorming, besluitvorming, executie en leren (B.O.B.E.L) kunnen we uitgerekend met diezelfde AI-technologie versnellen! Voorbeelden daarvan zijn systemen die continu algoritmen monitoren op bias, drift, anomalieën en onverwachte uitkomsten (AI-for-AI auditing). Ook kunnen multidisciplinaire datastromen bestuurders live inzicht geven in systeemgedrag (real-time-risk-dashboards).
Verder zijn verbeteringen door te voeren door simulaties van algoritme-updates vóór implementatie (digital twins) en door ingebouwde kill-switches met heldere escalatielogica. Maar denk ook aan sectorgewijze controle bij elkaar. Dat klinkt onnozel, maar elkaar controleren in de strijd tegen schadelijke autonome eenheden weegt echt op tegen concurrentievoordeel.
Door de AI-power zal de grens tussen mens en machine weer wat verschuiven. ‘With great power comes great responsibility’; daarom heeft AI counterveiling power nodig. AI-tegenspraak! Uitgerekend door de inzet van AI kán ook governance zich sneller ontwikkelen. En met een intensieve dialoog hierover kunnen we verantwoordelijkheid als een onwrikbaar uitgangspunt handhaven. ‘De mens’ blijft in charge van de eigen, morele vorming.
(illustratie: beeld Jaume Plensa, ‘Echo’, Madisonsquarepark, 2011. Foto: James Ewing)
