AI-gedreven systemen herschrijven de regels van biologisch onderzoek, maar de huidige veiligheidsvoorschriften zijn hier niet op toegerust. Dit creëert een risicovolle grijze zone, vooral voor kleinere bedrijven en labs die met deze technologieën willen innoveren maar moeten navigeren tussen snel voortschrijdende mogelijkheden en statische wetgeving.
Wat er aan de hand is
Volgens een analyse in Fast Company houden de bestaande regels die AI sturen geen specifiek rekening met het gebruik ervan in de biologie. De snelle integratie van AI-tools – van het ontwerpen van moleculen en het voorspellen van eiwitstructuren tot het automatiseren van experimentele protocollen – voltrekt zich in een juridisch en ethisch kader dat hier niet voor is gemaakt. Traditionele bioveiligheidsprotocollen en goedkeuringsprocessen zijn gebaseerd op menselijk handelen en bekende risico’s, niet op de autonome, vaak onvoorspelbare besluitvorming van geavanceerde algoritmen. Deze kloof tussen technologische capaciteit en regelgevend toezicht wordt breder naarmate AI-krachtiger en toegankelijker wordt.
Wat dit betekent
Voor Nederlandse MKB’ers en startups in de life sciences, agrofood, farmacie of medische technologie betekent dit dat zij operationeel in een vacuüm terechtkomen. De verantwoordelijkheid voor het identificeren en mitigeren van risico’s verschuift daardoor in de praktijk naar het bedrijf zelf. Waar grote farmaceuten mogelijk eigen compliance-afdelingen hebben, moeten kleinere spelers dit vaak zelf uitzoeken. Het risico is drieledig: ten eerste het intrinsieke veiligheidsrisico van een experiment dat door een slecht begrepen AI wordt aangestuurd. Ten tweede het juridische en aansprakelijkheidsrisico wanneer iets misgaat in een ongereguleerd gebied. Ten derde het reputatierisico, waarbij het vertrouwen van investeerders, partners en de maatschappij op het spel staat. Innoveren zonder duidelijke regels is zowel een kans (minder bureaucratie) als een bedreiging (meer eigen verantwoordelijkheid).
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van jouw specifieke situatie en sector. Omdat er geen pasklaar regelgevend kader is, draait het om proactief risicomanagement en het bouwen van interne zekerheden.
Als je een startup runt die AI gebruikt voor molecuulontwerp… richt dan niet alleen een wetenschappelijk team op, maar betrek vanaf het begin ook iemand met kennis van bio-ethiek of compliance. Stel interne reviewcommissies in voor AI-aangedreven experimenten, vergelijkbaar met ethische toetsingscommissies in academia. Documenteer niet alleen de resultaten, maar ook de trainingsdata, aannames en beperkingen van het gebruikte AI-model, zodat je beslissingen kunt verantwoorden.
Als je een MKB-lab hebt dat experimenten automatiseert met AI… implementeer dan ‘human-in-the-loop’ checks op kritieke punten. Laat een AI-systeem bijvoorbeeld wel experimenten voorstellen of data analyseren, maar reserveer de finale goedkeuring voor het starten van een fysiek experiment voor een menselijke expert. Ontwikkel standaard operating procedures (SOP’s) specifiek voor AI-gebruik, waarin je escalatiepaden en stopcriteria vastlegt.
Als je investeert in of samenwerkt met life science-bedrijven die AI gebruiken… maak due diligence niet alleen financieel of technisch, maar voeg een expliciete ‘AI-veiligheids- en ethiekcheck’ toe. Vraag naar hun interne governance, hoe ze omgaan met bias in data, en wat hun plan is voor incidenten. Dit beschermt niet alleen je investering, maar wordt ook een steeds belangrijker onderdeel van verantwoord ondernemen.
Als je producten ontwikkelt voor deze markt… kun je onderscheidend vermogen creëren door veiligheid en transparantie centraal te stellen. In plaats van alleen de snelheid of kracht van je AI-tool te benadrukken, communiceer duidelijk over de ingebouwde veiligheidslimieten, audit trails en de mate waarin de gebruiker controle houdt. In een onzekere markt wordt betrouwbaarheid een verkoopargument.
Bron: Fast Company