Na semana passada, Niccolo Mejia partilhado numa perspetiva interessante da utilização do reconhecimento facial em aplicações financeiras.
Ele enumerou três categorias: Verificação da identidade para aprovação de empréstimos, autenticação para carteiras digitais e aplicações com cadeia de blocos, e correspondência de rostos semelhantes para campanhas de marketing. A imagem que captou a nossa atenção foi uma captura de ecrã de Kairos, uma empresa de reconhecimento facial sediada em Miami.
Afirmam utilizar conjuntos de dados diversificados para evitar a identificação incorrecta de pessoas de cor, bem como de diferentes grupos etários e géneros.
No início, ficámos um pouco preocupados com características como a idade, o género e o reconhecimento racial, uma vez que isto pode levar a todo o tipo de preconceitos e problemas de privacidade. Mas também reparámos que a empresa se autodenomina na sua página de acolhimento como um "Fornecedor Ético", e o que isso significa está bem descrito em este post no blogue pelo Dr. Stephen Moore, Chefe da Oferta Científica da Kairos.
A identificação incorrecta de pessoas com base na etnia, no género e na idade assola a indústria do reconhecimento facial, e é nossa missão contínua resolver este problema... Nós Acreditamos fundamentalmente que, para que as interacções entre humanos e IA sejam verdadeiramente úteis - mesmo as interacções entre IA e IA -, é necessário que as IA sejam capazes de se explicar de forma intuitiva e compreensível. Para que o público em geral tenha confiança nas IA, estas têm de ser auditáveis.
A IA responsável, auditável e ética é definitivamente o caminho a seguir e deve fazer parte de qualquer conversa sobre ética digital.
Publicação convidada do curador de conteúdos da The Futures Agency Petervan
Exemplo de "Mapa de Relevância Facial" da Untangle