Ao desenvolver aplicações de Inteligência Artificial, a Kwantumlink subscreve os princípios éticos do design centrado no ser humano (HCD).

O texto que se segue foi reproduzido do sítio do Kaggle, uma comunidade em linha de cientistas de dados e profissionais da aprendizagem automática.

O Kaggle também fornece uma formação sobre os aspectos éticos da IA e descreve os princípios do design centrado no ser humano (HCD). Pode encontrar o texto completo aqui.

A HCD é uma abordagem à conceção de sistemas que satisfazem as necessidades das pessoas. Envolve as pessoas em todas as fases do processo de conceção. A sua equipa deve adotar uma abordagem HCD à IA o mais cedo possível - idealmente, desde que começa a considerar a possibilidade de construir um sistema de IA. 

Os seis passos seguintes destinam-se a ajudá-lo a começar a aplicar a HCD à conceção de sistemas de IA. Dito isto, o que a HCD significa para si dependerá do seu sector, dos seus recursos, da sua organização e das pessoas que procura servir.

1. Compreender as necessidades das pessoas para definir o problema.

Trabalhar com as pessoas para compreender os pontos problemáticos dos seus percursos actuais pode ajudar a encontrar necessidades não satisfeitas. Isto pode ser feito observando as pessoas enquanto navegam nas ferramentas existentes, realizando entrevistas, reunindo grupos de discussão, lendo o feedback dos utilizadores e outros métodos. Toda a sua equipa - incluindo cientistas de dados e engenheiros - deve ser envolvida nesta etapa, para que todos os membros da equipa compreendam as pessoas que esperam servir. A sua equipa deve incluir e envolver pessoas com perspectivas e antecedentes diversos, em termos de raça, género e outras características. Aperfeiçoe a definição do seu problema e faça um brainstorming conjunto de soluções criativas e inclusivas.

2. Perguntar se a IA acrescenta valor a qualquer solução potencial.

Uma vez esclarecida a necessidade a que se está a responder e de que forma, é preciso considerar se a IA acrescenta valor. 

  • As pessoas em geral concordam que o que está a tentar alcançar é um bom resultado?
  • Os sistemas que não são de IA - como as soluções baseadas em regras, que são mais fáceis de criar, auditar e manter - seriam significativamente menos eficazes do que um sistema de IA?
  • A tarefa para a qual está a utilizar a IA é uma tarefa que as pessoas considerariam aborrecida, repetitiva ou difícil de concentrar? 
  • As soluções de IA provaram ser melhores do que outras soluções para casos de utilização semelhantes no passado?

Se respondeu não a qualquer uma destas perguntas, uma solução de IA pode não ser necessária ou adequada.

3. Considerar os danos potenciais que o sistema de IA pode causar.

Ponderar os benefícios da utilização da IA em relação aos potenciais danos, ao longo de todo o processo de conceção: desde a recolha e rotulagem de dados, passando pelo treino de um modelo, até à implantação do sistema de IA. Considerar o impacto nos utilizadores e na sociedade. A sua equipa de privacidade pode ajudar a descobrir questões de privacidade ocultas e determinar se as técnicas de preservação da privacidade, como a privacidade diferencial ou a aprendizagem federada, podem ser adequadas. Tomar medidas para reduzir os danos, nomeadamente integrando as pessoas - e, por conseguinte, o julgamento humano - de forma mais eficaz na seleção de dados, na formação de modelos e no funcionamento do sistema. Se considerar que os danos são susceptíveis de ultrapassar os benefícios, não construa o sistema.

4. Protótipo, começando com soluções sem IA.

Desenvolva rapidamente um protótipo sem IA do seu sistema de IA para ver como as pessoas interagem com ele. Isto torna a criação de protótipos mais fácil, mais rápida e menos dispendiosa. Também lhe dá informações antecipadas sobre o que os utilizadores esperam do seu sistema e como tornar as suas interacções mais gratificantes e significativas.

Conceba a interface de utilizador do seu protótipo de modo a que seja fácil para as pessoas aprenderem como funciona o seu sistema, alternarem as definições e darem feedback.

As pessoas que dão feedback devem ter antecedentes diversos - incluindo raça, género, experiência e outras características. Devem também compreender e dar o seu consentimento sobre o que estão a ajudar e como.

5. Proporcionar às pessoas formas de desafiar o sistema.

As pessoas que utilizam o seu sistema de IA depois de este estar operacional devem poder contestar as suas recomendações ou optar facilmente por não o utilizar. Criar sistemas e ferramentas para aceitar, monitorizar e resolver os desafios.

Fale com os utilizadores e pense na perspetiva de um utilizador: se estiver curioso ou insatisfeito com as recomendações do sistema, gostaria de o desafiar:

  • Pedir uma explicação sobre a forma como a Comissão chegou à sua recomendação? 
  • Pedir uma alteração das informações introduzidas? 
  • Desativar determinadas funcionalidades? 
  • Contactar a equipa de produtos nas redes sociais?
  • Tomar outra medida?

6. Integrar medidas de segurança.

O tipo de medidas de segurança de que o seu sistema necessita depende do seu objetivo e dos tipos de danos que pode causar. Comece por rever a lista de medidas de segurança incorporadas em produtos ou serviços semelhantes sem IA. Depois, reveja a sua análise anterior dos potenciais danos da utilização da IA no seu sistema (ver Passo 3).

A supervisão humana do seu sistema de IA é crucial:

  • Crie uma "equipa vermelha" humana para desempenhar o papel de uma pessoa que tenta manipular o seu sistema para um comportamento não intencional. Depois, reforce o seu sistema contra qualquer manipulação desse género.
  • Determine como as pessoas na sua organização podem monitorizar melhor a segurança do sistema quando este estiver operacional. 
  • Explore formas de o seu sistema de IA alertar rapidamente um humano quando for confrontado com um caso difícil.
  • Criar formas de os utilizadores e outras pessoas assinalarem potenciais problemas de segurança.

x