• português (Brasil)
    • English
    • español
  • português (Brasil) 
    • português (Brasil)
    • English
    • español
  • Entrar
Ver item 
  •   Página inicial
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • Ver item
  •   Página inicial
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • Ver item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica

Thumbnail
Visualizar/Abrir
Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica (630.0Kb)
Data
2024-08-07
Autor
Azambuja, Flávia Braga de
Metadata
Mostrar registro completo
Resumo
Esta tese investiga a capacidade de sistemas de inteligência artificial (IA) para engajar-se em tomadas de decisão moralmente significativas. A hipótese geral postula que, embora a IA esteja se tornando onipresente em contextos que exigem julgamentos morais, não podemos atribuir responsabilidade moral a sistemas autônomos, pois o conhecimento moral não pode ser completamente representado ou simulado por lógica. As hipóteses específicas exploram várias nuances dessa questão central. Argumenta-se que sistemas autônomos não possuem "motivação moral" e que, apesar da capacidade da IA de automatizar alguns processos de pensamento humano, como criatividade e decisões, ela não pode gerar conhecimento moral autêntico devido ao impacto do viés de dados e à natureza condicional e contextual do conhecimento. A tese também sustenta que não é possível estabelecer uma base para o conhecimento moral sem considerar o elemento da crença, nem simular artificialmente a crença para produzir conhecimento moral. Para examinar essas hipóteses, a tese utiliza dilemas morais, envolvendo situações de tomada de decisão complexa, que são modelados através de equações de lógica modal para avaliar a capacidade da IA de resolver esses dilemas. A análise mostra que, embora a IA possa simular respostas a dilemas baseando-se em premissas lógicas, sempre há uma lacuna significativa devido à ausência de motivação moral e compreensão contextual, cruciais para decisões genuinamente morais. Incorporando o pensamento de Stuart Mill e Jesse Prinz, a pesquisa aprofunda a compreensão de como conceitos filosóficos tradicionais podem ser aplicados a problemas modernos, ilustrando que a empatia, a motivação moral humana e o julgamento ético são aspectos que a IA atualmente não pode replicar ou incorporar de forma autônoma. A conclusão reforça que a IA, por mais avançada que seja, não pode substituir o julgamento moral humano. As contribuições científicas desta pesquisa são substanciais, promovendo o debate sobre ética da IA esclarecendo os limites da automatização de decisões morais.
URI
http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/15058
Collections
  • PPGFIL: Dissertações e Teses [145]

DSpace software copyright © 2002-2022  LYRASIS
Entre em contato | Deixe sua opinião
Theme by 
Atmire NV
 

 

Navegar

Todo o repositórioComunidades e ColeçõesData do documentoAutoresOrientadoresTítulosAssuntosÁreas de Conhecimento (CNPq)DepartamentosProgramasTipos de DocumentoTipos de AcessoEsta coleçãoData do documentoAutoresOrientadoresTítulosAssuntosÁreas de Conhecimento (CNPq)DepartamentosProgramasTipos de DocumentoTipos de Acesso

Minha conta

EntrarCadastro

Estatística

Ver as estatísticas de uso

DSpace software copyright © 2002-2022  LYRASIS
Entre em contato | Deixe sua opinião
Theme by 
Atmire NV