Bij het ontwikkelen van Kunstmatige Intelligentie toepassingen onderschrijft Kwantumlink de ethische principes van Human-centered design (HCD).

De volgende tekst is overgenomen van de site van Kaggle, een online gemeenschap van datawetenschappers en beoefenaars van machinaal leren.

Kaggle geeft ook een training in de ethische aspecten van AI, en beschrijft de principes van Human-centered design (HCD). De volledige tekst vindt u hier.

HCD is een benadering van het ontwerpen van systemen die voorzien in de behoeften van mensen. Het betrekt mensen bij elke stap van het ontwerpproces. Uw team moet zo vroeg mogelijk een HCD-benadering van AI toepassen - idealiter vanaf het moment dat u de mogelijkheid van het bouwen van een AI-systeem begint te overwegen. 

De volgende zes stappen zijn bedoeld om u op weg te helpen bij het toepassen van HCD op het ontwerp van AI-systemen. Wat HCD voor u betekent, hangt echter af van uw bedrijfstak, uw middelen, uw organisatie en de mensen die u van dienst wilt zijn.

1. Begrijp de behoeften van mensen om het probleem te definiëren.

Samenwerking met mensen om de pijnpunten in hun huidige trajecten te begrijpen, kan helpen onvervulde behoeften te vinden. Dit kan worden gedaan door mensen te observeren terwijl ze door bestaande tools navigeren, interviews af te nemen, focusgroepen samen te stellen, gebruikersfeedback te lezen en andere methoden. Uw hele team - inclusief gegevenswetenschappers en technici - moet bij deze stap worden betrokken, zodat elk teamlid inzicht krijgt in de mensen die ze hopen te bedienen. Uw team moet mensen met verschillende perspectieven en achtergronden omvatten en betrekken, langs ras, geslacht en andere kenmerken. Scherp uw probleemdefinitie aan en brainstorm samen over creatieve en inclusieve oplossingen.

2. Vraag of AI waarde toevoegt aan een potentiële oplossing.

Als duidelijk is in welke behoefte u voorziet en hoe, bedenk dan of AI waarde toevoegt. 

  • Zijn de mensen het er in het algemeen over eens dat wat u probeert te bereiken een goed resultaat is?
  • Zouden niet-AI-systemen - zoals op regels gebaseerde oplossingen, die gemakkelijker te creëren, te controleren en te onderhouden zijn - aanzienlijk minder doeltreffend zijn dan een AI-systeem?
  • Is de taak waarvoor u AI gebruikt er een die mensen saai, repetitief of anderszins moeilijk vinden om zich op te concentreren? 
  • Zijn AI-oplossingen in het verleden beter gebleken dan andere oplossingen voor soortgelijke toepassingen?

Als u op een van deze vragen nee hebt geantwoord, is een AI-oplossing wellicht niet nodig of geschikt.

3. Denk aan de potentiële schade die het AI-systeem zou kunnen veroorzaken.

Weeg de voordelen van het gebruik van AI af tegen de mogelijke nadelen, in de hele ontwerppijplijn: van het verzamelen en labelen van gegevens tot het trainen van een model en het inzetten van het AI-systeem. Houd rekening met de gevolgen voor gebruikers en de samenleving. Uw privacyteam kan helpen verborgen privacyproblemen op te sporen en te bepalen of privacybeschermende technieken zoals differentiële privacy of gefedereerd leren geschikt zijn. Neem maatregelen om de schade te beperken, onder meer door mensen - en dus menselijk oordeel - beter te betrekken bij dataselectie, modeltraining en de werking van het systeem. Als u inschat dat de schade waarschijnlijk groter is dan de voordelen, bouw het systeem dan niet.

4. Prototype, te beginnen met niet-AI oplossingen.

Ontwikkel snel een niet-AI-prototype van uw AI-systeem om te zien hoe mensen ermee omgaan. Dit maakt prototyping gemakkelijker, sneller en goedkoper. Het geeft u ook vroegtijdige informatie over wat gebruikers van uw systeem verwachten en hoe u hun interacties lonender en zinvoller kunt maken.

Ontwerp de gebruikersinterface van uw prototype zodat mensen gemakkelijk kunnen leren hoe uw systeem werkt, instellingen kunnen wijzigen en feedback kunnen geven.

De mensen die feedback geven, moeten verschillende achtergronden hebben - ook wat betreft ras, geslacht, deskundigheid en andere kenmerken. Zij moeten ook begrijpen en instemmen met wat zij helpen en hoe.

5. Mensen manieren bieden om het systeem aan te vechten.

Mensen die uw AI-systeem gebruiken als het eenmaal operationeel is, moeten de aanbevelingen kunnen betwisten of er gemakkelijk van af kunnen zien. Zorg voor systemen en hulpmiddelen om uitdagingen te accepteren, te controleren en aan te pakken.

Praat met gebruikers en denk vanuit het perspectief van een gebruiker: als u nieuwsgierig of ontevreden bent over de aanbevelingen van het systeem, zou u het willen aanvechten door:

  • Verzoekt u om uitleg over hoe zij tot haar aanbeveling is gekomen? 
  • Wilt u een wijziging in de informatie die u invoert? 
  • Bepaalde functies uitschakelen? 
  • Het productteam aanspreken op sociale media?
  • Een andere actie ondernemen?

6. Veiligheidsmaatregelen inbouwen.

Het soort veiligheidsmaatregelen dat uw systeem nodig heeft, hangt af van het doel ervan en van de soorten schade die het zou kunnen veroorzaken. Bekijk eerst de lijst met veiligheidsmaatregelen die in vergelijkbare niet-AI-producten of -diensten zijn ingebouwd. Bekijk vervolgens uw eerdere analyse van de potentiële schade van het gebruik van AI in uw systeem (zie stap 3).

Menselijk toezicht op uw AI-systeem is cruciaal:

  • Stel een menselijk "rood team" samen dat de rol speelt van iemand die uw systeem probeert te manipuleren tot onbedoeld gedrag. Versterk vervolgens uw systeem tegen dergelijke manipulatie.
  • Bepaal hoe de mensen in uw organisatie de veiligheid van het systeem het best kunnen controleren zodra het in gebruik is genomen. 
  • Onderzoek manieren waarop uw AI-systeem snel een mens kan waarschuwen wanneer het wordt geconfronteerd met een moeilijke zaak.
  • Manieren creëren waarop gebruikers en anderen potentiële veiligheidsproblemen kunnen signaleren.

x