• português (Brasil)
    • English
    • español
  • English 
    • português (Brasil)
    • English
    • español
  • Login
View Item 
  •   Home
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • View Item
  •   Home
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica

Thumbnail
View/Open
Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica (630.0Kb)
Date
2024-08-07
Author
Azambuja, Flávia Braga de
Metadata
Show full item record
Abstract
Esta tese investiga a capacidade de sistemas de inteligência artificial (IA) para engajar-se em tomadas de decisão moralmente significativas. A hipótese geral postula que, embora a IA esteja se tornando onipresente em contextos que exigem julgamentos morais, não podemos atribuir responsabilidade moral a sistemas autônomos, pois o conhecimento moral não pode ser completamente representado ou simulado por lógica. As hipóteses específicas exploram várias nuances dessa questão central. Argumenta-se que sistemas autônomos não possuem "motivação moral" e que, apesar da capacidade da IA de automatizar alguns processos de pensamento humano, como criatividade e decisões, ela não pode gerar conhecimento moral autêntico devido ao impacto do viés de dados e à natureza condicional e contextual do conhecimento. A tese também sustenta que não é possível estabelecer uma base para o conhecimento moral sem considerar o elemento da crença, nem simular artificialmente a crença para produzir conhecimento moral. Para examinar essas hipóteses, a tese utiliza dilemas morais, envolvendo situações de tomada de decisão complexa, que são modelados através de equações de lógica modal para avaliar a capacidade da IA de resolver esses dilemas. A análise mostra que, embora a IA possa simular respostas a dilemas baseando-se em premissas lógicas, sempre há uma lacuna significativa devido à ausência de motivação moral e compreensão contextual, cruciais para decisões genuinamente morais. Incorporando o pensamento de Stuart Mill e Jesse Prinz, a pesquisa aprofunda a compreensão de como conceitos filosóficos tradicionais podem ser aplicados a problemas modernos, ilustrando que a empatia, a motivação moral humana e o julgamento ético são aspectos que a IA atualmente não pode replicar ou incorporar de forma autônoma. A conclusão reforça que a IA, por mais avançada que seja, não pode substituir o julgamento moral humano. As contribuições científicas desta pesquisa são substanciais, promovendo o debate sobre ética da IA esclarecendo os limites da automatização de decisões morais.
URI
http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/15058
Collections
  • PPGFIL: Dissertações e Teses [145]

DSpace software copyright © 2002-2022  LYRASIS
Contact Us | Send Feedback
Theme by 
Atmire NV
 

 

Browse

All of RepositoryCommunities & CollectionsBy Issue DateAuthorsAdvisorsTitlesSubjectsKnowledge Areas (CNPq)DepartmentsProgramsDocument TypesAccess TypesThis CollectionBy Issue DateAuthorsAdvisorsTitlesSubjectsKnowledge Areas (CNPq)DepartmentsProgramsDocument TypesAccess Types

My Account

LoginRegister

Statistics

View Usage Statistics

DSpace software copyright © 2002-2022  LYRASIS
Contact Us | Send Feedback
Theme by 
Atmire NV