$$\newcommand{\bra}[1]{\left<#1\right|}\newcommand{\ket}[1]{\left|#1\right>}\newcommand{\bk}[2]{\left<#1\middle|#2\right>}\newcommand{\bke}[3]{\left<#1\middle|#2\middle|#3\right>}$$
X
INFORMAÇÕES SOBRE DIREITOS AUTORAIS


As obras disponibilizadas nesta Biblioteca Digital foram publicadas sob expressa autorização dos respectivos autores, em conformidade com a Lei 9610/98.

A consulta aos textos, permitida por seus respectivos autores, é livre, bem como a impressão de trechos ou de um exemplar completo exclusivamente para uso próprio. Não são permitidas a impressão e a reprodução de obras completas com qualquer outra finalidade que não o uso próprio de quem imprime.

A reprodução de pequenos trechos, na forma de citações em trabalhos de terceiros que não o próprio autor do texto consultado,é permitida, na medida justificada para a compreeensão da citação e mediante a informação, junto à citação, do nome do autor do texto original, bem como da fonte da pesquisa.

A violação de direitos autorais é passível de sanções civis e penais.
Coleção Digital

Avançada


Estatísticas | Formato DC | MARC |



Título: HUMAN-CENTERED ALGORITHM: GENDER BIASES DISCUSSIONS IN ARTIFICIAL INTELLIGENCE DESIGN
Autor: LARISSA PEREIRA MARQUES CRUZ
Instituição: PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO - PUC-RIO
Colaborador(es):  MARIA MANUELA RUPP QUARESMA - ADVISOR
Nº do Conteudo: 69763
Catalogação:  27/03/2025 Liberação: 28/03/2025 Idioma(s):  PORTUGUESE - BRAZIL
Tipo:  TEXT Subtipo:  THESIS
Natureza:  SCHOLARLY PUBLICATION
Nota:  Todos os dados constantes dos documentos são de inteira responsabilidade de seus autores. Os dados utilizados nas descrições dos documentos estão em conformidade com os sistemas da administração da PUC-Rio.
Referência [pt]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=69763&idi=1
Referência [en]:  https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=69763&idi=2
Referência DOI:  https://doi.org/10.17771/PUCRio.acad.69763

Resumo:
This study addresses gender inequity in technological development envi- ronments, relying on the pillars of technology, artificial intelligence, and design. Based on concepts to characterize biases and their actual effects, such as the creation of digital gaps or voids for certain profiles in the digital parallel, the occurrence of gender algorithm biases, created from the data produced, is ob- served. The discussion is centered on the hypothesis that a lack of diversity could limit the understanding and consideration of different needs and perspec- tives, potentially enhancing the creation of unconscious biases in algorithms and exacerbating digital disparities. It is proposed that it may be possible to materialize ethical-social markers that artificial intelligence experts consider when developing algorithms, categorized by themes of technical structuring, UX aspects, AI principles, and personal experiences. The research focuses on the decision-maker, part of the project, their justifications, and mental models. Initially individually and later collectively, but maintaining a group identity by gender, in this case, female and male. Twenty interviews were conducted using the contextual inquiry method in which experts simulate constructing an algorithm for the dissemination of a job advertisement in technology. To deepen the discussion, two focus groups were held to evaluate whether the use of drivers based on Design concepts focused on inclusion could lead to increased engagement and depth of their analyses, promoting more conscious decision- making. In projects of significant social impact, this approach can contribute to more sensitive and inclusive development and help mitigate gender biases.

Descrição Arquivo
COMPLETE  PDF
Logo maxwell Agora você pode usar seu login do SAU no Maxwell!!
Fechar Janela



* Esqueceu a senha:
Senha SAU, clique aqui
Senha Maxwell, clique aqui