Mostrar el registro sencillo del ítem
Algoritmo Auditável: o Papel dos Sistemas de Recomendação na Criação de Filtros Bolha de Desinformação sobre as Urnas Eletrônicas no YouTube
dc.creator | Soares, Yan Ballinhas | |
dc.date.accessioned | 2023-12-04T15:18:15Z | |
dc.date.available | 2023-12-04 | |
dc.date.available | 2023-12-04T15:18:15Z | |
dc.date.issued | 2023-08-15 | |
dc.identifier.citation | SOARES, Yan Ballinhas. Algoritmo Auditável: o Papel dos Sistemas de Recomendação na Criação de Filtros Bolha de Desinformação sobre as Urnas Eletrônicas no YouTube. Orientador: Luciano Volcan Agostini. Coorientadora: Raquel da Cunha Recuero. 2023. 210 f. Dissertação (Mestrado em Ciência da Computação) – Centro de Desenvolvimento Tecnológico, Universidade Federal de Pelotas, Pelotas, 2023. | pt_BR |
dc.identifier.uri | http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/10838 | |
dc.description.abstract | Recommender Systems are a tool conceived out of the need of effective navigation through the vast amount of data available online. Its current implementation, abusing of user’s personal data and inherent subjectivities for better recommendations has been the subject of studies and criticism on several fronts. With its proven influence on popular decision-making processes such as USA’s 2016 Elections and the Brexit referendum, these systems end up reinforcing pre-established views of the world, allowing the creation of filter bubbles through which users consume information and shape their opinions with the influence of a confirmation bias. In this sense, users that consume minsiformative contents end up being directioned to the consumption of even more misinformative contents. When we consider brazilian Electronic Ballots – one of the topics with the greatest information fluxes over the last years and target of constant misinformative campaigns – the creation of misinformation filter bubbles poses an even greater threat to democracy. Considering that YouTube is the second most used social media in Brazil, with a total of 142 million users (almost 70% of the country’s population, according to the 2022 Census), this study sought to audit how the platform’s Recommender Systems contribute to the creation of misinformation filter bubbles, both in search results and recommended videos, simulating diverse content consumption profiles related to Electronic Ballots. Through the author’s developed methodology, it was possible to confirm the widespread presence of misinformation in popular videos on the platform regarding this topic, as well as a general increase in recommended misinformation across all profiles. For the misinformation consumption profile, the creation of a misinformation filter bubble was proven, with the Recommender System significantly reducing the recommended informative videos and substantially increasing the recommended misinformative videos — to the point where one out of every three recommended videos presents potential misinformation. | pt_BR |
dc.description.sponsorship | Sem bolsa | pt_BR |
dc.language | por | pt_BR |
dc.publisher | Universidade Federal de Pelotas | pt_BR |
dc.rights | OpenAccess | pt_BR |
dc.subject | Sistemas de recomendação | pt_BR |
dc.subject | Desinformação | pt_BR |
dc.subject | Urnas eletrônicas | pt_BR |
dc.subject | YouTube | pt_BR |
dc.subject | Recommender systems | pt_BR |
dc.subject | Misinformation | pt_BR |
dc.subject | Electronic ballots | pt_BR |
dc.title | Algoritmo Auditável: o Papel dos Sistemas de Recomendação na Criação de Filtros Bolha de Desinformação sobre as Urnas Eletrônicas no YouTube | pt_BR |
dc.title.alternative | Auditable algorithm: Recommender System’s role in creating misinformation filter bubbles about electronic ballots on YouTube | pt_BR |
dc.type | masterThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/0499715231417946 | pt_BR |
dc.contributor.advisorID | https://orcid.org/0000-0002-3421-5830 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/9604735363839730 | pt_BR |
dc.contributor.advisor-co1 | Recuero, Raquel da Cunha | |
dc.contributor.advisor-co1Lattes | http://lattes.cnpq.br/7230106202961229 | pt_BR |
dc.description.resumo | Os Sistemas de Recomendação são uma ferramenta idealizada a partir da necessidade de navegação na massiva quantidade de dados disponíveis virtualmente. Sua atual implementação, utilizando de dados pessoais e subjetividades inerentes a cada usuário para o direcionamento de conteúdos, têm sido alvo de estudos e críticas em diversas frentes. Tendo tido comprovada influência em decisões populares como as eleições estadunidenses de 2016 e o referendo do Brexit, estes sistemas acabam por reforçar visões pré-estabelecidas de mundo, permitindo a criação de filtros bolha pelos quais os usuários consomem informações e moldam suas opiniões através de um viés de confirmação. Neste sentido, um usuário que consome conteúdos desinformativos acaba sendo direcionado a consumir ainda mais conteúdos desinformativos. Quando consideramos as Urnas Eletrônicas – um dos tópicos de maior fluxo informacional dos últimos anos e alvo de constantes campanhas desinformativas – a criação de filtros bolha de desinformação se torna ainda mais grave e uma ameaça à democracia. Levando em consideração que o YouTube é a segunda mídia social mais utilizada no Brasil, com um total de 142 milhões de usuários (quase 70% da população brasileira, segundo o Censo 2022), o presente trabalho buscou auditar de que maneira os Sistemas de Recomendação da plataforma atuam na criação de filtros bolha de desinformação, tanto para resultados de pesquisa como em vídeos recomendados, levando em consideração os diferentes perfis de consumo de conteúdos relacionados às Urnas Eletrônicas. Através da metodologia desenvolvida pelo autor, foi possível atestar a presença generalizada de desinformação em vídeos populares da plataforma acerca do tópico, além de um aumento geral de desinformação sendo recomendada em todos os perfis. Para o perfil de consumo desinformativo, foi possível comprovar a criação de um filtro bolha de desinformação, com o Sistema de Recomendação reduzindo consideravelmente os vídeos informativos recomendados e aumentando significativamente os vídeos desinformativos recomendados – chegando ao ponto de um a cada três vídeos recomendados apresentar potencial desinformativo. | pt_BR |
dc.publisher.program | Programa de Pós-Graduação em Computação | pt_BR |
dc.publisher.initials | UFPel | pt_BR |
dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.rights.license | CC BY-NC-SA | pt_BR |
dc.contributor.advisor1 | Agostini, Luciano Volcan | |
dc.subject.cnpq1 | CIENCIA DA COMPUTACAO | pt_BR |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
PPGC: Dissertações e Teses [230]
Dissertações e teses.