Título
[pt] ALGORITMO CENTRADO NO HUMANO: DISCUSSÃO SOBRE VIESES DE GÊNERO EM DECISÕES DE PROJETO COM INTELIGÊNCIA ARTIFICIAL
Título
[en] HUMAN-CENTERED ALGORITHM: GENDER BIASES DISCUSSIONS IN ARTIFICIAL INTELLIGENCE DESIGN
Autor
[pt] LARISSA PEREIRA MARQUES CRUZ
Vocabulário
[pt] MAPA MENTAL
Vocabulário
[pt] PROJETO DE ALGORITMO INCLUSIVO
Vocabulário
[pt] INTELIGENCIA ARTIFICIAL CENTRADA NO HUMANO
Vocabulário
[pt] VIES ALGORITMICO DE GENERO
Vocabulário
[en] MENTAL MAP
Vocabulário
[en] INCLUSIVE ALGORITHM DESIGN
Vocabulário
[en] HUMAN CENTERED ARTIFICIAL INTELLIGENCE
Vocabulário
[en] ALGORITHMIC GENDER BIAS
Resumo
[pt] Este estudo aborda a iniquidade de gênero em ambientes de desenvolvi-
mento tecnológico, apoiando-se nos pilares de tecnologia, inteligência artificial
e design. Baseando-se em conceitos para caracterizar os vieses em seus efeitos
de fato, como a criação de brechas digitais ou lacunas de alguns perfis de pes-
soas no paralelo digital, observa-se a ocorrência de vieses algoritmos de gênero,
sendo criados a partir dos dados produzidos. A discussão é centrada na hipótese
de que a falta de diversidade poderia limitar a compreensão e a consideração de
diferentes necessidades e perspectivas, potencializando a criação de vieses
inconscientes nos algoritmos e exacerbando as disparidades digitais. Propõe-se
que seja possível tangibilizar marcadores ético-sociais que os especialistas em
Inteligência Artificial consideram ao desenvolver algoritmos, sendo categoriza-
dos pela temática da estruturação técnica, aspectos de UX, princípios de IA
e experiências pessoais. A pesquisa se volta para o indivíduo decisor, parte do
projeto, suas justificativas e modelos mentais. Inicialmente de forma individual
e posteriormente de forma coletiva, mas mantendo uma identidade de grupo por
gênero, nesse caso, feminino e masculino. Foram realizadas 20 entrevis- tas
com o método de inquirição contextual em que os especialistas simulam a
construção de um algoritmo para divulgação de um anúncio de emprego em
tecnologia. Para aprofundar a discussão, foram realizados dois grupos de foco
para avaliar se o uso de direcionadores baseados em conceitos de Design foca-
dos em inclusão, pode gerar um aumento no envolvimento e na profundidade
de suas análises, promovendo uma tomada de decisão mais consciente. Em
projetos de grande impacto social, essa abordagem pode contribuir para um
desenvolvimento mais sensível e inclusivo e auxiliar na mitigação de vieses de
gênero.
Resumo
[en] This study addresses gender inequity in technological development envi-
ronments, relying on the pillars of technology, artificial intelligence, and design.
Based on concepts to characterize biases and their actual effects, such as the
creation of digital gaps or voids for certain profiles in the digital parallel, the
occurrence of gender algorithm biases, created from the data produced, is ob-
served. The discussion is centered on the hypothesis that a lack of diversity
could limit the understanding and consideration of different needs and perspec-
tives, potentially enhancing the creation of unconscious biases in algorithms
and exacerbating digital disparities. It is proposed that it may be possible to
materialize ethical-social markers that artificial intelligence experts consider
when developing algorithms, categorized by themes of technical structuring,
UX aspects, AI principles, and personal experiences. The research focuses on
the decision-maker, part of the project, their justifications, and mental models.
Initially individually and later collectively, but maintaining a group identity by
gender, in this case, female and male. Twenty interviews were conducted using
the contextual inquiry method in which experts simulate constructing an
algorithm for the dissemination of a job advertisement in technology. To deepen
the discussion, two focus groups were held to evaluate whether the use of drivers
based on Design concepts focused on inclusion could lead to increased engagement
and depth of their analyses, promoting more conscious decision- making. In
projects of significant social impact, this approach can contribute to more
sensitive and inclusive development and help mitigate gender biases.
Orientador(es)
MARIA MANUELA RUPP QUARESMA
Banca
CLAUDIA RENATA MONT ALVAO BASTOS RODRIGUES
Banca
GERSON GOMES DA CUNHA
Banca
MARIA MANUELA RUPP QUARESMA
Banca
MARCOS KALINOWSKI
Banca
CARLOS FERNANDO CARLIM PINTO
Catalogação
2025-03-27
Apresentação
2024-06-17
Tipo
[pt] TEXTO
Formato
application/pdf
Idioma(s)
PORTUGUÊS
Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=69763@1
Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=69763@2
Referência DOI
https://doi.org/10.17771/PUCRio.acad.69763
Arquivos do conteúdo
NA ÍNTEGRA PDF