Bij Barrelai baseren we ons op bestaande kaders en wetgeving, en op eerlijke communicatie naar de gebruikers van AI. Lees hieronder vast wat informatie over de verschillende facetten van verantwoorde AI.

Verantwoorde AI

Verantwoorde Artificial Intelligence verwijst naar de ontwikkeling en implementatie van AI-systemen op een manier die ethische overwegingen, rechtvaardigheid, transparantie, verantwoordelijkheid en maatschappelijke impact vooropstelt. Het doel van verantwoorde AI is ervoor te zorgen dat AI-technologieën worden ontwikkeld en gebruikt op een manier die individuen en de maatschappij ten goede komt, voordelen maximaliseert en onbedoelde negatieve gevolgen voorkomt.

Belangrijke principes van verantwoorde AI zijn onder meer:

  1. Rechtvaardigheid: Zorgen dat AI-systemen alle individuen en groepen eerlijk behandelen, zonder partijdigheid of vooringenomenheid. Dit houdt in het aanpakken van kwesties met betrekking tot vooringenomenheid in trainingsgegevens, algoritmische besluitvorming en resultaten.
  2. Transparantie: AI-systemen begrijpelijk en uitlegbaar maken voor gebruikers en belanghebbenden. Transparante AI helpt vertrouwen op te bouwen en stelt individuen in staat te begrijpen hoe beslissingen worden genomen.
  3. Verantwoordelijkheid: Duidelijke verantwoordelijkheden vaststellen voor de ontwikkeling en implementatie van AI-systemen. Dit omvat verantwoordelijkheid voor de gevolgen van AI-beslissingen en -acties.
  4. Privacy: Het respecteren van het recht op privacy van individuen en ervoor zorgen dat AI-systemen gevoelige informatie op een passende manier behandelen. Dit omvat het implementeren van robuuste gegevensbeschermingsmaatregelen.
  5. Veiligheid: Maatregelen implementeren om AI-systemen te beschermen tegen kwaadwillende aanvallen en de veiligheid van gegevens die worden gebruikt in AI-training en besluitvorming te waarborgen.
  6. Inclusiviteit: Zorgen dat de ontwikkeling en implementatie van AI-technologieën diverse perspectieven overweegt en bestaande ongelijkheden vermijdt te versterken.
  7. Samenwerking: Het aanmoedigen van samenwerking tussen belanghebbenden, waaronder onderzoekers, ontwikkelaars, beleidsmakers en het publiek, om gezamenlijk uitdagingen aan te pakken en de toekomst van AI vorm te geven.

Verantwoorde AI-praktijken worden vaak gepromoot via richtlijnen, standaarden en kaders die zijn ontwikkeld door organisaties, overheden en de AI-gemeenschap. Deze praktijken streven ernaar een balans te vinden tussen het bevorderen van AI-technologie en het aanpakken van de ethische en sociale implicaties die gepaard gaan met het gebruik ervan.

AI Act

Op 21 april 2021 heeft de Europese Commissie (hierna: EC) de Concept Verordening ten aanzien van kunstmatige intelligentie (hierna: de AI Verordening) gepubliceerd (COM/2021/206 final)1. De AI verordening heeft hoofdzakelijk de interne markt (artikel 114 VWEU) als juridische basis. Het doel van dit voorstel is zorgen dat AI-systemen die op de Europese markt worden gebracht en gebruikt veilig zijn en in overeenstemming zijn met de geldende fundamentele rechten en waarden binnen de EU. Het streven is om zo een interne markt voor veilige en betrouwbare AI-systemen te faciliteren terwijl marktfragmentatie wordt voorkomen. Tevens wil de EC zorgen voor juridische zekerheid om investeringen en innovatie in AI te faciliteren.

Op 9 december 2023 werd de AI Act door de Europese Triloog na lange onderhandeling geaccepteerd. Medio 2024 gaat de AI Act van kracht.