Nina da Hora
Cientista da computação, Pesquisadore e Fundadore do Instituto Da Hora, onde desenvolve projetos focados em justiça algorítmica, soberania digital e inovação tecnológica contra-hegemônica.
Session
Muito tem sido debatido sobre tecnologia e vieses, representados pela persistência de convenções de gênero, raça, classe social, sexualidade, idade que se tornam formas de discriminação e diferentes formas de violência. Mais recentemente, esta discussão ganha novo fôlego a partir da popularização das ferramentas de inteligência artificial. Esta atividade quer problematizar a não neutralidade da tecnologia, tomando como base a IA, não apenas a partir dos bancos de dados, mas da própria concepção e construção das ferramentas.
Supor que apenas grandes bancos de dados sejam os responsáveis por reproduzir vieses na construção dessas tecnologias reduz a discussão a uma perspectiva tecnocrata e limitada. Na prática, o que observamos são tecnologias socialmente construídas, cujos desenhos, propósitos e aplicações refletem decisões humanas influenciadas por contextos culturais, históricos e sociais específicos. Tratar tais ferramentas como algoritmos neutros ignora que elas carregam valores, pressupostos e interesses inseridos durante todo seu processo de desenvolvimento, influenciando diretamente como operam e impactam diferentes grupos sociais. A atividade tem como principal objetivo oferecer ferramentas necessárias para analisar criticamente como Chat GPT e Gemini mimetizam essa observação.