AI verandert de manier waarop biologisch onderzoek en experimenten worden gedaan, maar de veiligheidsregels en wetgeving lopen hierop achter. Dit betekent dat ondernemers en labs in de life sciences zelf verantwoordelijkheid moeten nemen voor het beveiligen van hun AI-gestuurde processen, door nu al kritische vragen te stellen aan hun softwareleveranciers en interne protocollen te herzien.

Wat er aan de hand is

Volgens een artikel in Fast Company is er een groeiende kloof tussen de snelle adoptie van kunstmatige intelligentie in biologische experimenten en het huidige regelgevingskader. De bestaande regels die AI gebruik reguleren, zijn vaak algemeen en adresseren niet de specifieke risico’s en scenario’s die ontstaan wanneer AI wordt ingezet voor taken in laboratoria, zoals het ontwerpen van moleculen, het voorspellen van eiwitstructuren of het automatiseren van experimentele procedures. Deze ontwikkeling maakt deel uit van een bredere trend waarin technologie sneller gaat dan wetgeving, een fenomeen dat in sectoren zoals financiën en transport ook zichtbaar is.

Wat dit betekent

Voor ondernemers, onderzoekers en bedrijven in de life sciences, biotech, farmacie en aanverwante sectoren brengt dit directe operationele en aansprakelijkheidsrisico’s met zich mee. Zonder duidelijke, specifieke regelgeving rust de verantwoordelijkheid voor veilig en ethisch gebruik grotendeels bij de gebruiker. Dit heeft gevolgen voor verschillende gebieden: de reproduceerbaarheid van experimenten kan in het geding komen als een AI-model onverklaarbare keuzes maakt, er kunnen onbedoelde en potentieel riskante resultaten ontstaan, en de aansprakelijkheid bij incidenten is onduidelijk. Voor een klein lab of startup kan één veiligheidsincident of reputatieschade door een onethisch geacht experiment fataal zijn.

Hoe je dit kunt toepassen

De praktische toepassing hangt af van jouw situatie. Je kunt niet wachten op nieuwe wetgeving, maar moet nu actie ondernemen om je processen en partnerships te beveiligen.

Als je AI-software gebruikt of overweegt voor labwerk… stel dan proactief kritische vragen aan je leverancier. Vraag niet alleen naar de nauwkeurigheid, maar ook naar de transparantie van het model: kun je de bron van trainingsdata inzien? Is er documentatie over de beperkingen en bekende bias van het systeem? Heeft de leverancier een protocol voor het melden van onverwachte of potentieel riskante uitkomsten? Dit soort due diligence is nu essentieel.

Als je een team aanstuurt in een onderzoekslab of biotech-bedrijf… herzie dan je interne standaardoperatieprocedures (SOP’s). Voeg een verplichte reviewstap toe voor alle experimenten die worden ontworpen of uitgevoerd met behulp van AI. Zorg ervoor dat er altijd een menselijke expert de setup, parameters en resultaten beoordeelt voordat een experiment van start gaat of een conclusie wordt getrokken. Documenteer expliciet het gebruik van AI in alle onderzoeksverslagen.

Als je samenwerkt met externe partijen of CRO’s (Contract Research Organizations)… maak AI-gebruik en -veiligheid een expliciet onderdeel van je contracten en service level agreements (SLA’s). Spreek af wie verantwoordelijk is voor de validatie van de AI-tools die worden gebruikt in jouw project en hoe data-integriteit wordt gewaarborgd. Dit voorkomt verrassingen en creëert helderheid over aansprakelijkheid.

Als je investeert in of leiding geeft aan een life sciences startup… integreer AI-veiligheid en ethiek vanaf dag één in je bedrijfscultuur en technische architectuur. Zie het niet als een compliance-checklist, maar als een fundamenteel onderdeel van je productontwikkeling. Dit kan een sterk verkoopargument worden naar partners en klanten toe die ook bewust omgaan met deze risico’s.

Bron: Fast Company