dc.creator | Azambuja, Flávia Braga de | |
dc.date.accessioned | 2025-02-20T15:53:35Z | |
dc.date.available | 2025-02-20T15:53:35Z | |
dc.date.issued | 2024-08-07 | |
dc.identifier.citation | AZAMBUJA, Flávia Braga de. Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica. Orientador: Juliano Santos do Carmo. 2024. 114 f. Tese (Doutorado em Filosofia) – Instituto de Filosofia, Sociologia e Política, Universidade Federal de Pelotas. | pt_BR |
dc.identifier.uri | http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/15058 | |
dc.description.abstract | This thesis investigates the capability of artificial intelligence (AI) systems to engage in morally significant decision-making. The general hypothesis posits that although AI is becoming ubiquitous in contexts requiring moral judgments, we cannot attribute moral responsibility to autonomous systems because moral knowledge cannot be fully represented or simulated by logic. The specific hypotheses explore various nuances of this central issue. It is argued that autonomous systems lack "moral motivation" and that, despite AI's ability to automate some human thought processes such as creativity and decision-making, it cannot generate authentic moral knowledge due to the impact of data bias and the conditional and contextual nature of knowledge. The thesis also maintains that it is not possible to establish a basis for moral knowledge without considering the element of belief, nor to artificially simulate belief to produce moral knowledge. To examine these hypotheses, the thesis utilises moral dilemmas involving complex decision-making situations, modelled through modal logic equations to assess AI's capability to resolve these dilemmas. The analysis shows that while AI can simulate responses to dilemmas based on logical premises, there is always a significant gap due to the absence of moral motivation and contextual understanding, crucial for genuinely moral decisions. Incorporating the thoughts of Stuart Mill and Jesse Prinz, the research deepens understanding of how traditional philosophical concepts can be applied to modern problems, illustrating that empathy, human moral motivation, and ethical judgement are aspects that current AI cannot replicate or autonomously incorporate. The conclusion reinforces that AI, no matter how advanced, cannot replace human moral judgement. The scientific contributions of this research
are substantial, promoting the debate on AI ethics by clarifying the limits of automating moral decisions. | pt_BR |
dc.description.sponsorship | Sem bolsa | pt_BR |
dc.language | por | pt_BR |
dc.publisher | Universidade Federal de Pelotas | pt_BR |
dc.rights | OpenAccess | pt_BR |
dc.subject | Conhecimento moral | pt_BR |
dc.subject | Sistemas inteligentes | pt_BR |
dc.subject | Lógica | pt_BR |
dc.title | Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica | pt_BR |
dc.title.alternative | A study on the possibility of representing moral knowledge through logic for application in intelligent systems: a non-monotonic logic approach | pt_BR |
dc.type | doctoralThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/5114643785938969 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/7477981517627461 | pt_BR |
dc.description.resumo | Esta tese investiga a capacidade de sistemas de inteligência artificial (IA) para engajar-se em tomadas de decisão moralmente significativas. A hipótese geral postula que, embora a IA esteja se tornando onipresente em contextos que exigem julgamentos morais, não podemos atribuir responsabilidade moral a sistemas autônomos, pois o conhecimento moral não pode ser completamente representado ou simulado por lógica. As hipóteses específicas exploram várias nuances dessa questão central. Argumenta-se que sistemas autônomos não possuem "motivação moral" e que, apesar da capacidade da IA de automatizar alguns processos de pensamento humano, como criatividade e decisões, ela não pode gerar conhecimento moral autêntico devido ao impacto do viés de dados e à natureza condicional e contextual do conhecimento. A tese também sustenta que não é possível estabelecer uma base para o conhecimento moral sem considerar o elemento da crença, nem simular artificialmente a crença para produzir conhecimento moral. Para examinar essas hipóteses, a tese utiliza dilemas morais, envolvendo situações de tomada de decisão complexa, que são modelados através de equações de lógica modal para avaliar a capacidade da IA de resolver esses dilemas. A análise mostra que, embora a IA possa simular respostas a dilemas baseando-se em premissas lógicas, sempre há uma lacuna significativa devido à ausência de motivação moral e compreensão contextual, cruciais para decisões genuinamente morais. Incorporando o pensamento de Stuart Mill e Jesse Prinz, a pesquisa aprofunda a compreensão de como conceitos filosóficos tradicionais podem ser aplicados a problemas modernos, ilustrando que a empatia, a motivação moral humana e o julgamento ético são aspectos que a IA atualmente não pode replicar ou incorporar de forma autônoma. A conclusão reforça que a IA, por mais avançada que seja, não pode substituir o julgamento moral humano. As contribuições científicas desta pesquisa são substanciais, promovendo o debate sobre ética da IA esclarecendo os limites da automatização de decisões morais. | pt_BR |
dc.publisher.program | Programa de Pós-Graduação em Filosofia | pt_BR |
dc.publisher.initials | UFPel | pt_BR |
dc.subject.cnpq | CIENCIAS SOCIAIS APLICADAS | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.rights.license | CC BY-NC-SA | pt_BR |
dc.contributor.advisor1 | Carmo, Juliano Santos do | |
dc.subject.cnpq1 | ADMINISTRACAO | pt_BR |
dc.subject.cnpq2 | FILOSOFIA BRASILEIRA | pt_BR |
dc.subject.cnpq3 | FILOSOFIA DA EDUCACAO | pt_BR |