Responsible AI is een benadering van het ontwerpen, ontwikkelen en inzetten van kunstmatige-intelligentiesystemen waarbij ethiek, transparantie, verantwoording en eerlijkheid centraal staan. Het bestrijkt de volledige levenscyclus van AI—van dataverzameling en modeltraining tot inzet en monitoring—en waarborgt dat systemen geen vooroordelen bestendigen, privacy schenden of onverklaarbare beslissingen produceren.
Met de EU AI Act en vergelijkbare regelgeving wereldwijd verschuift responsible AI snel van een vrijwillige best practice naar een wettelijke verplichting. Organisaties die AI inzetten, moeten hun risicobeoordelingen documenteren, menselijk toezicht inrichten en audittrails bijhouden om aan de veranderende regelgeving te voldoen.