Você está na página 1de 95

VI Congresso da SBFA

De 01 a 05 de setembro de 2020

Caderno de Resumos
Filosofia Analítica no Século XXI:
Novos Desenvolvimentos

Abstracts Book
Analytical Philosophy in the 21st Century:
New Developments
Sofia Stein • Viviane Braga
(Eds.)

VI CONGRESSO DA SBFA 2020

Caderno de Resumos

Filosofia Analítica no Século XXI: Novos Desenvolvimentos

Abstracts Book

Analytical Philosophy in the 21st Century: New Developments

Porto Alegre
Editorial Philosophia
2020

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 2



APRESENTAÇÃO

Ingressamos no século XXI. No próximo ano, comemoraremos um século da


publicação do Tractatus Logico-Philosophicus de Ludwig Wittgenstein. A academia recebeu,
ao longo do último século, filósofos e filósofas de variadas linhas de pensamento:
neoplatônicos, neokantianos, neohegelianos, neomarxistas, hermeneutas, existencialistas e
analíticos… Quanta pesquisa e escrita filosófica caiu sob esta denominação: filosofia analítica!
Alguns dizem que o fundador da filosofia analítica, Gottlob Frege, não era um analítico afinal,
pois não utilizava o termo “análise” para denominar o método lógico-filosófico escolhido.
Embora Frege fosse um neoplatonista na filosofia da linguagem, continua sendo acertado
chamar ao pai da lógica contemporânea de fundador da filosofia analítica. No entanto, quem
disputaria que a melhor definição do método analítico inicial está dada nos últimos aforismos
do Tractatus? É lá também que é desenhada a sina da análise da linguagem de ser tachada
de fim da filosofia. O temor à análise perpassaria todo o século XX. Admirada e temida,
mostrou-se fonte de muitas terapêuticas bem-sucedidas da linguagem tanto cotidiana quanto
científica, ou mesmo filosófica. Sua inicial aversão à metafísica tradicional não foi perene,
entretanto. A análise não atrelada ao cientificismo pode ser usada em argumentos e redes
conceituais apriorísticos. Assim, os limites da análise filosófica foram se expandindo, e hoje
englobam, por exemplo, teorias da mente e da percepção, teorias políticas e éticas, estética,
além dos âmbitos inicialmente ocupados, da lógica, da filosofia da linguagem e da
epistemologia. Há que se confessar que muitas vezes se sucumbiu à aridez da análise e que
seus críticos tiveram razão em condenar sua maior preocupação com a poda do que com os
frutos. Porém, simultaneamente, em um espírito nitidamente kantiano, foi responsável por
indicar os exageros de discursos filosóficos que acreditavam poder voar no vácuo.
A Sociedade Brasileira de Filosofia Analítica (SBFA) representa um espaço no qual se
preserva parcialmente a concepção inicial do método analítico proposto pelo primeiro
Wittgenstein, todavia resgatando as muitas vertentes geradas por essa proposta ao longo de
décadas, que guardam afinidade de propósito: de respeitarem certos limites traçados pela
análise, enquanto expandem os conteúdos tratados e consideram a possibilidade de elaborar
também teorias positivas de diversos aspectos da sociedade humana. Poderíamos dizer que
um dos traços mais marcantes da filosofia analítica do século XXI seja a sua capacidade de
não apenas propor métodos às ciências ou de analisar discursos, mas de propor conceitos,
argumentos e teorias às ciências, seja por um viés apriorístico, seja por um viés de caráter
naturalista.
A SBFA, completados doze anos de sua fundação, já é parte de uma rede mundial de
sociedades de filosofia analítica. Desde sua fundação em 2008, a SBFA teve cinco presidentes:
Adriano Naves de Brito, André Leclerc, Marco Ruffino, Waldomiro José da Silva Filho e Sofia
Inês Albornoz Stein, e seis diretorias, incluindo a atual. Seus membros fundadores, assim
como seus membros e suas diretorias, consideram-na essencial para congregar pessoas com
pensamentos convergentes, com o ideal de fomentar o debate argumentativo, que é capaz de
criar conceitos e teorias. Os membros da SBFA contribuem com um módico valor anual que
constitui parte importante do orçamento para realização do evento bienal da sociedade e para
a manutenção dos canais de acesso.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 3



A SBFA entende a Filosofia Analítica de forma ampla e inclusiva, como uma linha de
investigação filosófica que abrange tendências de pensamento contemporâneas diversas,
ligadas entre si por uma especial atenção à linguagem: ao cultivo da boa argumentação. Em
outras palavras, a SBFA sustenta que a Filosofia Analítica se define melhor por um modo de
fazer filosofia do que por alguma preferência temática e, assim sendo, deu, no seu VI
Congresso, as boas-vindas a todos interessados que se identificam com essa maneira de
filosofar.
O VI Congresso da SBFA Filosofia Analítica no Século XXI: Novos Desenvolvimentos
transcorreu de 01 a 05 de setembro de 2020, em ambiente virtual, com mais de 70
palestrantes, entre convidados e comunicadores. O evento transcorreu na plataforma Zoom,
em formato de webinar, e foi feita transmissão simultânea no Facebook. As gravações foram
posteriormente disponibilizadas no YouTube. Durante os cinco dias de evento, todos
convidados e palestrantes puderam participar de todas as falas. A participação externa, de
ouvintes, foi livre, com possibilidade de encaminhar questões e comentários.

Comissão organizadora:
Sofia Inês Albornoz Stein (Presidente da SBFA)
Andrea Faggion (Tesoureira da SBFA)
Caio Casagrande (Suporte de Mídia e Mediador)

Período do Evento: 01 Set 2020 – 05 Set 2020


Local: Porto Alegre

Conferencistas:
Dr. Barry C. Smith (Institute of Philosophy, UoL, London, UK)
Dr.ª Juliet Floyd (Boston University, Boston, MA USA)
Dr.ª Maria Eunice Quilici Gonzalez (Universidade Estadual Paulista, São Paulo, BR)
Dr.ª Nélida Gentile (Universidad de Buenos Aires, Buenos Aires, AR)
Dr.ª Teresa Marques (Universitat de Barcelona, Barcelona, ES)
Dr. Waldomiro J. Silva Filho (Universidade Federal da Bahia, Salvador, BR)
Dr. Walter Carnielli (Universidade Estadual de Campinas, Campinas, BR)

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 4



Comitê Científico:
Adriano Naves de Brito
Andrea Faggion
Célia Teixeira
Eros de Carvalho
Juliano do Carmo
Marcos Silva
Nara Figueiredo
Sofia Inês Albornoz Stein

Diretoria 2018-2020:
Sofia Inês Albornoz Stein (UNISINOS) - Presidente
Marcos Silva (UFAL) - Vice-presidente
Célia Cristina Patrício Teixeira (UFRJ) - Secretária Geral
Andréa Luisa Bucchile Faggion (UEL) - Tesoureira
Nara Miranda de Figueiredo (USP) - Secretária Adjunta

Conselho Fiscal:
Eros Moreira de Carvalho (UFRGS)
Ludovic Soutif (PUC-Rio)
Waldomiro José da Silva Filho (UFBA)

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 5



VI CONGRESSO DA SBFA 2020
Filosofia Analítica no Século XXI: Novos Desenvolvimentos

Programa
01 DE SETEMBRO – TERÇA-FEIRA

9h – 10h30min

Laws of nature, dispositions and pragmatics


Renato César Cani
Prof. IFMT
Doutorando/PPGFil -UFSC

Axiomatic Set Theory and Russell's Views on the Foundations of Mathematics


Rodrigo Sabadin Ferreira
Doutorando - UFRGS

Necessity-makers and the grounds of necessity


Dr. Julio de Rizzo
Pós-doutorando/PPGFil - USP

Moderador: Ricardo Perera


Doutorando - Monash University

10h45min - 12h45min

Keynote Speakers

Wittgenstein and Turing


Juliet Floyd, PhD
Boston University

Moderadora: Dr.ª Sofia Stein


PPGFil - Unisinos

14h – 16h30min

On the value of a normative will


Dr. Adriano Naves de Brito
PPGFil - Unisinos/CNPq

Can Relativism un-gibbard Edgington?


Dr. Pedro Mendes de Lemos
Pós-doutorando/PPGFil – UFG

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 6



Pascal’s Wager and Imprecise Decision Theory
Dr. André Neiva
Research Scholar at Purdue University

Acting in Light of a Fact and Acting in Light of a Belief


Rafael Graebin Vogelmann
Doutorando/PPGFIL – UFRGS

Computational philosophy and in silico universes


Dr. Daniel Sander Hoffmann
UERGS

Moderador: Gabriel Jung do Amaral


Mestrando/PPGFil – Unisinos

16h45min - 18h45min

Roundtable “Proper Names and Identity”

Dr. Bruno R. Mendonça


Pós-doutorando/PPGFil - UNICAMP

Dr. Jerzy A. Brzozowski


PPGFil - UFSC

Dr. Newton Marques Peron


UFFS

19h45min – 22h15min

Naming and Right


Dr. Fabien Schang
PPGFil – UFG

Da natureza semiótica dos diagramas euclidianos: figuras como amostras


Dr.ª Tamires Dal Magro
Pós-doutoranda/PPGFil - UFSC

Uma proposta de lógica fuzzy baseada na chance dos eventos experimentados


Dr. Anderson Vinicius Romanini
ECA/USP
Dra. Ana Cláudia Golzio
Pós-doutoranda FFC - Unesp

Considerações sobre os cômputos de relevância na formação de conceitos ad hoc


Dr. Diogo de França Gurgel
PPGFil – UFF

Semântica de eventos e conjuntismo: perspectivas e problemas em aberto

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 7



Dr. Adriano Marques da Silva
UFRN

Moderadora: Viviane Z. Braga


Doutoranda/PPGFil – Unisinos

02 DE SETEMBRO – QUARTA-FEIRA

9h – 10h30min

Metaphilosophy and the encapsulated debate about perceptual experience


Dr. Filipe Herkenhoff Carijó
Doutorando/ PPGLM - UFRJ

Knowledge-first account of group knowledge


Domingos Faria, PhD
FCT Junior Researcher LanCog, Centre of Philosophy - University of Lisbon

Talking about Concepts


Jan Claas, M.A.
Hamburg University

Moderador: Ricardo Perera


Doutorando - Monash University

10h45min - 12h45min

Keynote Speakers

Cuasi regularismo y deflacionismo causal


Dr.ª Nélida Gentile
Universidad de Buenos Aires
Universidad Nacional de Lomas de Zamora

Analytical Philosophy in the 21st Century: Epistemological Implications of Virtual


Realism
Dr.ª Maria Eunice Quilici Gonzalez
Universidade Estadual Paulista

Moderadora: Dr.ª Sofia Stein


PPGFil – Unisinos

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 8



14h – 16h30min

Intentionalism and Dispositionalism


Dr. André Leclerc
PPGFil - UnB/CNPq

Conscious thought and aphantasia


Dr.ª Raquel Albieri Krempel
Pós-goutoranda/PPGFil - UNIFESP

An evaluation of Walton’s distinction between correct and incorrect appeals to


ignorance
Dr. Matias Gariazzo
Instituto de Filosofia - UDeLaR

Epistemic Two Dimensionalism and the Cases of Necessary A Posteriori and


Contingent A Priori Truths
Jeferson José dos Santos
Doutorando/PPGFil - UNICAMP

A noção de responsabilidade derivada no contexto de agentes artificiais


Dr.ª Mariana C. Broens
PPGFil – UNESP/CNPq/FAPESP

Moderador: Gabriel Jung do Amaral


Mestrando/PPGFil – Unisinos

16h45min - 18h45min

Mesa redonda “Problemas em Filosofia da Memória”

Dr. César Schirmer dos Santos


PPGFil - UFSM

Glaupy Fontana Ribas


Doutoranda/PPGFil - UFSM

Susie Kovalczyk dos Santos


Doutoranda/PPGFil - UFSM

Fabrício Diniz Dutra


Laboratoire de Psychologie et Neurocognition – UGA

19h45min – 22h15min

A perspectiva internista da justificação epistêmica


Dr. Carlos Augusto Sartori
PPGFil – UFSM

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 9



Crenças e expectativas
Dr. Rodrigo Gouvea
PPGFil – UFF

Evolução e neurociência para abordar a origem da mente humana


Daniel Uptmoor Pauly
Doutorando/PPGFil – Unisinos

O papel das evidências empíricas para o racionalismo moderado


Gregory Gaboardi
Doutorando/PPGFil – PUCRS

Função biológica e conteúdo distante


Dr. Sérgio Farias de Souza Filho
Pós-doutorando/PPGLM – UFRJ

Moderadora: Viviane Z. Braga


Doutoranda/PPGFil – Unisinos

03 DE SETEMBRO – QUINTA-FEIRA

9h – 10h30min

Fearful object seeing and Defensive Organismic States


Dr. Felipe Nogueira de Carvalho
PPGFil – UFMG

Metacognitive feelings and concepts


Matheus Diesel Werberich
Graduando - UFSM

Interaction of iterated modality with a priori and analyticity


Fernando Rodrigues Furtado
PhD Candidate - LanCog, Centre of Philosophy, University of Lisbon

Moderador: Ricardo Perera


Doutorando - Monash University

10h45min - 12h45min

Keynote Speakers

The expression of hate in hate speech


Dr.ª Teresa Marques
Universitat de Barcelona

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 10



Diálogo e Reflexão: Uma Perspectiva Epistêmica não Individualista sobre a
Reflexão
Dr. Waldomiro J. Silva Filho
PPGFil – UFBA/CNPq

Moderadora: Dr.ª Sofia Stein


PPGFil – Unisinos

14h – 16h30min

Reason receptivity: the epistemic criteria for control


Dr.ª Beatriz Sorrentino Marques
PPGFil – UFMT

Space of Motivations, Mediational Fields and Dynamic Situated Senses


Dr. Carlos Mario Márquez Sosa
Posdoctoral Research Fellow – USP

Linguistic Enactivism: the theory and its scope


Dr.ª Nara Figueiredo
Pós-doutoranda/PPGFil – UNICAMP

Connecting perception and its propositional attitudes through an enactive


framework
Jeferson Diello Huffermann
Doutorando/PPGFil - UFRGS

Rethinking Utility and Rationality through Gary Becker’s Preference Formation


Theory
Catarina Tello de Castro
MA Student - Universidade de Lisboa

Moderador: Gabriel Jung do Amaral


Mestrando/PPGFil – Unisinos

16h45min - 18h45min

Roundtable “Social Epistemology and Neurophilosophy”

Moderator: Nythamar de Oliveira, Ph.D. - PUCRS/CNPq

Of Non-Naturalist Normative Facts and Metanormative Fact-Free Principles


Claiton Costa
Doutorando/PPGFil – PUCRS

Counterfactuals, Decision Making, and Ethical Alignment in Artificial Intelligence


Nicholas Kluge Correa
Doutorando/PPGFil – PUCRS

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 11



Some brain mechanisms that underly emotional consciousness and their
philosophical implications
Diogo Massmann
Doutorando/PPGFil – PUCRS

19h45min – 22h15min

Daniel Dennett e a desconstrução da experiência


Dr. Gustavo Leal Toledo
PPGFil - UFSJ

Privacidade e autonomia na era de Big Data


Dr.ª Edna Alves de Souza
UNESP/Marília

É o paradigma simulacionista compatível com um fisicalismo não cerebralista?


Dr. César Fernando Meurer
CCNH – UFABC

Causalidade e fluxo de informação: a teoria informacional dretskeana


Isabele Vieira Salsman
Graduanda FFC - UNESP
Dr. Marcos Antônio Alves
FFC - UNESP

The scope and epistemological limits of the use of Big Data analytics in the context
of scientific investigation
Dr.ª Mariana Vitti Rodrigues
UNESP/Marília

Moderadora: Viviane Z. Braga


Doutoranda/PPGFil – Unisinos

04 DE SETEMBRO – SEXTA-FEIRA

9h – 10h30min

Simplicity and Uniformity: Two Myths about Taste Disagreements


David Bordonaba Plou, PhD
FONDECYT postdoctoral researcher - Universidad de Valparaíso

Attention: a case for memory as a generative source of epistemic justification


Dr. Allysson Vasconcelos Lima Rocha
Post-Doc - UFSM

A proposal of classification of biological complexity changes in evolutionary


phenomena
Giorgio Airoldi, PhD
UNED Madrid-Spain

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 12



Moderador: Ricardo Perera
Doutorando - Monash University

10h45min - 12h45min

Keynote Speakers

The Role of Smell in Consciousness: the not hidden sense


Barry Smith, PhD
University of London

New logics, new probabilities


Dr. Walter Carnielli
CLE - Unicamp

Moderadora: Dr.ª Sofia Stein


PPGFil – Unisinos

14h – 16h30min

Números como ferramentas cognitivas


César Frederico dos Santos
Doutorando/Universidade Livre de Amsterdã
Prof. UFMA

Necessidade e Possibilidade são interdefiníveis? O caso de Wittgenstein


Diego de Souza Avendano
Doutorando/PPGFil – Unifesp

Domínios Variados e Fazedores-de-verdade


Paulo Vitor Domingues
Graduando – UFJF

A Interpretação Sintática de Teorias Científicas (Received View) de Rudolf Carnap:


reconsideração para uma possível defesa
Pedro Henrique Nogueira Pizzutti
Doutorando/PPGFil - UEL

Lógicas do Consenso Histórico


Vitor Medeiros Costa
Doutorando/PPGFil – UFSC

Moderador: Gabriel Jung do Amaral


Mestrando/PPGFil – Unisinos

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 13



16h45min - 18h45min

Workshop Sociedade Brasileira de Lógica/SBFA

Paraconsistency, evidence, and truth


Dr. Abílio Rodrigues
PPGFil - UFMG

Revision of Logic and Metalinguistic Negotiations


Dr. Marcos Silva
PPGFil - UFPE/CNPq

Kripke’s Reformulation of the Contingent A Priori Cases


Dr. Marco Ruffino
PPGFil – UNICAMP

Some modal logics with a necessity/impossibility operator


Dr. Cezar A. Mortari
PPGFil – UFSC

19h45min – 22h15min

Teoria da Lógica Mental e Raciocínios Cotidianos


Dr. Juliano do Carmo
PPGFil – UFPel

Ficção e normatividade: Como seguir regras que não existem?


Dr.ª Juliele Maria Sievers
PPGFil – UFAL

Know-how e Planos de Ação


Dr. Luiz Paulo Da Cas Cichoski
PPGFil – UFMT

Traços de memória, paradigma da memória construtiva e o problema das


memórias falsas
Glaupy Fontana Ribas
Doutoranda/PPGFil - UFSM

Sobre o problema da transitividade da relação “melhor que” em Parfit e Temkin


Natália Amorim do Carmo
Doutoranda/PPGFil - UFU

Moderadora: Viviane Z. Braga


Doutoranda/PPGFil – Unisinos

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 14



05 DE SETEMBRO – SÁBADO

9h – 10h30min

Teísmo Aberto, Deus e o tempo – compatibilidades e incompatibilidades da


existência de um ser atemporal em um mundo temporal
Cristiano Dutra Batista
Doutorando/PPGFil-UNB

Algumas notas sobre a estratégia ‘conhecimento apesar da falsidade’


Eduardo Alves
Mestrando/PPGFil-PUCRS

O Lugar da Ignorância na Suspensão do Juízo


Lucas Jairo C. Bispo
Mestrando/PPGFil - UFBA

Moderador: Ricardo Perera


Doutorando - Monash University

10h45min - 12h45min

Uma abordagem probabilística ao problema do Overflow


Gabriel Jung do Amaral
Mestrando/PPGFil – Unisinos

A Compatibilidade entre Mecanismos sintáticos e Leis intencionais na Teoria


Representacional da Mente
Jonathas Kilque Villanova
Mestrando/PPGFil – UFSM

Relação entre Língua e Percepção de Cores


Matheus Dal’Puppo
Mestrando/PPGFil – Unisinos

O Holismo em Quine e as Entidades Inobserváveis das Teorias Científicas


Natália Amaral de Azevedo
Mestranda/PPGFil - UEL

Moderadora: Dr.ª Sofia Stein


PPGFil – Unisinos

14h – 16h30min

Ciência livre de valores? Dificuldades no consenso em torno do argumento do risco


indutivo
Pedro Bravo de Souza
Doutorando/PPGFil – USP

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 15



O argumento do desempate reconsiderado
Gustavo Oliva de Oliveira
Mestrado/PPGFil - PUCRS

As posições clássicas e racionalistas sobre a ação humana


Antônio Afonso Ribeiro Neto
Mestrando/PPGFil – UEL

Causalidade do agente na ação livre: seria Searle um neokantiano?


Daniel Pires Nunes
Doutorando/PPGFil – UCS

Moderador: Gabriel Jung do Amaral


Mestrando/PPGFil – Unisin

16h45min - 18h45mi

Roteiro de posições acerca da epistemologia da memória


Vitor Rodrigues de Almeida
Mestrando/PPGFil – UFSM

Distinguindo abdução peirceana e inferência da melhor explicação liptoniana


Gabriel Chiarotti Sardi
Mestrando/PPGFil - UEL

Formal issues of only-trope theories


Francesco Maria Ferrari, Ph.D.
Research Associate/CLE – Unicamp

Moderadora: Viviane Z. Braga


Doutoranda/PPGFil – Unisinos

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 16



SUMÁRIO
CONFERÊNCIAS 23
KEYNOTE SPEAKERS 23
THE ROLE OF SMELL IN CONSCIOUSNESS: THE NOT SO NEGLECTED SENSE 23
Barry Smith, PhD 23
WITTGENSTEIN AND TURING 23
Juliet Floyd 23
ANALYTICAL PHILOSOPHY IN THE 21ST CENTURY: EPISTEMOLOGICAL IMPLICATIONS OF VIRTUAL REALISM
24
Maria Eunice Quilici Gonzalez 24
CUASI REGULARISMO Y DEFLACIONISMO CAUSAL 24
Nélida Gentile 24
THE EXPRESSION OF HATE IN HATE SPEECH 24
Teresa Marques 24
DIÁLOGO E REFLEXÃO: UMA PERSPECTIVA EPISTÊMICA NÃO INDIVIDUALISTA SOBRE A REFLEXÃO 25
Waldomiro J. Silva Filho 25
NEW LOGICS, NEW PROBABILITIES: WHAT DO THEY MEAN? 25
Walter Carnielli 25
MESAS REDONDAS 27
ROUNDTABLES 27
1. SOCIAL EPISTEMOLOGY AND NEUROPHILOSOPHY 27
OF NON-NATURALIST NORMATIVE FACTS AND METANORMATIVE FACT-FREE PRINCIPLES 27
Claiton Costa 27
Nythamar de Oliveira 27
COUNTERFACTUALS, DECISION MAKING, AND ETHICAL ALIGNMENT IN ARTIFICIAL INTELLIGENCE 28
Nicholas Kluge Correa 28
Nythamar de Oliveira 28
SOME BRAIN MECHANISMS THAT UNDERLY EMOTIONAL CONSCIOUSNESS AND THEIR PHILOSOPHICAL
IMPLICATIONS 29
Diogo Massmann 29
Nythamar de Oliveira 29
2.PROPER NAMES AND IDENTITY 29

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 17



GENERALIZED FREGEAN PUZZLE AND TWO-DIMENSIONAL SEMANTICS 31
Bruno R. Mendonça 31
PROPER NAMES, CRITERIA OF APPLICATION, AND CRI- TERIA OF IDENTITY: THE CASE OF BIOLOGICAL
TAXON- OMY 32
Jerzy A. Brzozowski 32
SOME LIMITS OS THE REFERENTIAL THEORIES OF PROPER NAMES: THE YANOMAMI CASE 32
Newton M. Peron 32
3.PROBLEMAS EM FILOSOFIA DA MEMÓRIA 34
SOBRE A RELAÇÃO ENTRE LEMBRAR E IMAGINAR 35
César Schirmer dos Santos 35
REALISMO DIRETO E REALISMO INDIRETO EM FILOSOFIA DA MEMÓRIA 35
Glaupy Fontana Ribas 35
O QUE FAZ COM QUE UM ATO MENTAL CONTE COMO UMA MEMÓRIA 35
Susie Kovalczyk dos Santos 35
A NOÇÃO DE TRAÇO E A NATUREZA DINÂMICA DA MEMÓRIA À LUZ DAS NEUROCIÊNCIAS 35
Fabrício Diniz Dutra 35
WORKSHOP 36
SOCIEDADE BRASILEIRA DE LÓGICA/SBFA 36
1.PARACONSISTENCY, EVIDENCE, AND TRUTH 36
Abilio Rodrigues 36
2.REVISION OF LOGIC AND METALINGUISTIC NEGOTIATIONS 36
Marcos Silva 36
3.KRIPKE’S REFORMULATION OF THE CONTINGENT A PRIORI CASES 37
Marco Ruffino 37
4.SOME MODAL LOGICS WITH A NECESSITY/IMPOSSIBILITY OPERATOR 37
Cezar A. Mortari 37
COMUNICAÇÕES 38
1.SEMÂNTICA DE EVENTOS E CONJUNTISMO: PERSPECTIVAS E PROBLEMAS EM ABERTO 38
Adriano Marques da Silva 38
2.ON THE VALUE OF A NORMATIVE WILL 39
Adriano Naves de Brito 39
3.ATTENTION: A CASE FOR MEMORY AS A GENERATIVE SOURCE OF EPISTEMIC JUSTIFICATION 40
Allysson Vasconcelos Lima Rocha 40
4.UMA PROPOSTA DE LÓGICA FUZZY BASEADA NA CHANCE DOS EVENTOS EXPERIMENTADOS 41
Anderson Vinicius Romanini 41
Ana Cláudia Golzio 41

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 18



5.INTENTIONALISM AND DISPOSITIONALISM 42
André Leclerc 42
6.PASCAL’S WAGER AND IMPRECISE DECISION THEORY 43
André Neiva 43
7.AS POSIÇÕES CLÁSSICAS E RACIONALISTAS SOBRE A AÇÃO HUMANA 43
Antônio Afonso Ribeiro Neto 43
8.REASON RECEPTIVITY: THE EPISTEMIC CRITERIA FOR CONTROL 44
Beatriz Sorrentino Marques 44
9.A PERSPECTIVA INTERNISTA DA JUSTIFICAÇÃO EPISTÊMICA 45
Carlos Augusto Sartori 45
10.SPACE OF MOTIVATIONS, MEDIATIONAL FIELDS AND DYNAMIC SITUATED SENSES 45
Carlos Mario Márquez Sosa 45
11.RETHINKING UTILITY AND RATIONALITY THROUGH GARY BECKER’S PREFERENCE FORMATION THEORY
47
Catarina Tello de Castro 47
12.É O PARADIGMA SIMULACIONISTA COMPATÍVEL COM UM FISICALISMO NÃO-CEREBRALISTA? 48
César Fernando Meurer 48
13.NÚMEROS COMO FERRAMENTAS COGNITIVAS 49
César Frederico dos Santos 49
14.TEÍSMO ABERTO, DEUS E O TEMPO – COMPATIBILIDADES E INCOMPATIBILIDADES DA EXISTÊNCIA DE
UM SER ATEMPORAL EM UM MUNDO TEMPORAL 50
Cristiano Dutra Batista 50
15.COMPUTATIONAL PHILOSOPHY AND IN SILICO UNIVERSES 51
Daniel Sander Hoffmann 51
16.CAUSALIDADE DO AGENTE NA AÇÃO LIVRE: SERIA SEARLE UM NEOKANTIANO? 51
Daniel Pires Nunes 51
17.EVOLUÇÃO E NEUROCIÊNCIA PARA ABORDAR A ORIGEM DA MENTE HUMANA 52
Daniel Uptmoor Pauly 52
18.SIMPLICITY AND UNIFORMITY: TWO MYTHS ABOUT TASTE DISAGREEMENTS 53
David Bordonaba Plou 53
19.NECESSIDADE E POSSIBILIDADE SÃO INTERDEFINÍVEIS? O CASO DE WITTGENSTEIN 54
Diego de Souza Avendano 54
20.CONSIDERAÇÕES SOBRE OS CÔMPUTOS DE RELEVÂNCIA NA FORMAÇÃO DE CONCEITOS AD HOC 55
Diogo de França Gurgel 55
21.KNOWLEDGE-FIRST ACCOUNT OF GROUP KNOWLEDGE 55
Domingos Faria 55

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 19



22.PRIVACIDADE E AUTONOMIA NA ERA DE BIG DATA 57
Edna Alves de Souza 57
23.ALGUMAS NOTAS SOBRE A ESTRATÉGIA ‘CONHECIMENTO APESAR DA FALSIDADE’ 58
Eduardo Alves 58
24.O NOMEAR E A ORDEM 59
Fabien Shang 59
25.INTERACTION OF ITERATED MODALITY WITH A PRIORI AND ANALYTICITY 60
Fernando Fabrício Rodrigues Furtado 60
26.METAPHILOSOPHY AND THE ENCAPSULATED DEBATE ABOUT PERCEPTUAL EXPERIENCE 61
Filipe Herkenhoff Carijó 61
27.FEARFUL OBJECT SEEING AND THE AFFECTIVE PENETRATION OF PERCEPTION 62
Felipe Nogueira de Carvalho 62
28.FORMAL ISSUES OF ONLY-TROPE THEORIES 63
Francesco Maria Ferrari, Ph.D. 63
29.DISTINGUINDO ABDUÇÃO PEIRCEANA E INFERÊNCIA DA MELHOR EXPLICAÇÃO LIPTONIANA 64
Gabriel Chiarotti Sardi 64
30.UMA ABORDAGEM PROBABILÍSTICA AO PROBLEMA DO OVERFLOW 64
Gabriel Jung do Amaral 64
31.A PROPOSAL OF CLASSIFICATION OF BIOLOGICAL COMPLEXITY CHANGES IN EVOLUTIONARY
PHENOMENA 65
Giorgio Airoldi, Ph.D. 65
32.TRAÇOS DE MEMÓRIA, PARADIGMA DA MEMÓRIA CONSTRUTIVA E O PROBLEMA DAS MEMÓRIAS
FALSAS 66
Glaupy Fontana Ribas 66
33.O PAPEL DAS EVIDÊNCIAS EMPÍRICAS PARA O RACIONALISMO MODERADO 67
Gregory Gaboardi 67
34.DANIEL DENNETT E A DESCONSTRUÇÃO DA EXPERIÊNCIA 67
Gustavo Leal Toledo 67
35.O ARGUMENTO DO DESEMPATE RECONSIDERADO 68
Gustavo Oliva de Oliveira 68
36.ASSERTION, FICTION-MAKING, AND FICTIONAL INFORMATION 69
Iago Mello Batistela 69
37.CAUSALIDADE E FLUXO DE INFORMAÇÃO: A TEORIA INFORMACIONAL DRETSKEANA 70
Isabele Vieira Salsman 70
Marcos Antônio Alves 70
38.TALKING ABOUT CONCEPTS 70

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 20



Jan Claas, M.A. 70
39.CONNECTING PERCEPTION AND ITS PROPOSITIONAL ATTITUDES THROUGH AN ENACTIVE FRAMEWORK
72
Jeferson Diello Huffermann 72
40.EPISTEMIC TWO-DIMENSIONALISM AND THE CASES OF NECESSARY A POSTERIORI AND CONTINGENT A
PRIORI TRUTHS 73
Jeferson José dos Santos 73
41.A COMPATIBILIDADE ENTRE MECANISMOS SINTÁTICOS E LEIS INTENCIONAIS NA TEORIA
REPRESENTACIONAL DA MENTE 73
Jonathas Kilque Villanova 73
42.TEORIA DA LÓGICA MENTAL E RACIOCÍNIOS COTIDIANOS 74
Juliano do Carmo 74
43.FICÇÃO E NORMATIVIDADE: COMO SEGUIR REGRAS QUE NÃO EXISTEM? 75
Juliele Maria Sievers 75
44.NECESSITY-MAKERS AND THE GROUNDS OF NECESSITY 76
Júlio de Rizzo 76
45.O LUGAR DA IGNORÂNCIA NA SUSPENSÃO DO JUÍZO 76
Lucas Jairo Cervantes Bispo 76
46.KNOW-HOW E PLANOS DE AÇÃO 77
Luiz Paulo Da Cas Cichoski 77
47.ALCANCE E LIMITES EPISTEMOLÓGICOS DAS TÉCNICAS DE ANÁLISE DE BIG DATA NO CONTEXTO DA
PESQUISA CIENTÍFICA 78
Mariana Vitti Rodrigues 78
48.RELAÇÃO ENTRE LÍNGUA E PERCEPÇÃO DE CORES 78
Matheus Dal’Puppo 78
49.METACOGNITIVE FEELINGS AND CONCEPTS 79
Matheus Diesel Werberich 79
50.A NOÇÃO DE RESPONSABILIDADE DERIVADA NO CONTEXTO DE AGENTES ARTIFICIAIS 80
Mariana C. Broens 80
51.AN EVALUATION OF WALTON’S DISTINCTION BETWEEN CORRECT AND INCORRECT APPEALS TO
IGNORANCE 81
Matías Gariazzo 81
52.LINGUISTIC ENACTIVISM: THE THEORY AND ITS SCOPE 82
Nara Figueiredo 82
53.O HOLISMO EM QUINE E AS ENTIDADES INOBSERVÁVEIS DAS TEORIAS CIENTÍFICAS 83
Natália Amaral de Azevedo 83
54.SOBRE O PROBLEMA DA TRANSITIVIDADE DA RELAÇÃO “MELHOR QUE” EM PARFIT E TEMKIN 83

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 21



Natália Amorim do Carmo 83
55.DOMÍNIOS VARIADOS E FAZEDORES-DE-VERDADE 84
Paulo Vitor Domingues 84
56.CIÊNCIA LIVRE DE VALORES? DIFICULDADES NO CONSENSO EM TORNO DO ARGUMENTO DO RISCO
INDUTIVO 84
Pedro Bravo de Souza 84
57.CAN RELATIVISM UN-GIBBARD EDGINGTON? 85
Pedro Mendes de Lemos 85
58.A INTERPRETAÇÃO SINTÁTICA DE TEORIAS CIENTÍFICAS (RECEIVED VIEW) DE RUDOLF CARNAP:
RECONSIDERAÇÃO PARA UMA POSSÍVEL DEFESA 87
Pedro Henrique Nogueira Pizzutti 87
59.ACTING IN LIGHT OF A FACT AND ACTING IN LIGHT OF A BELIEF 88
Rafael Graebin Vogelmann 88
60.CONSCIOUS THOUGHT AND APHANTASIA 88
Raquel Albieri Krempel 88
61.LAWS OF NATURE, DISPOSITIONS AND PRAGMATICS 89
Renato César Cani 89
62.CRENÇAS E EXPECTATIVAS 90
Rodrigo Gouvea 90
63.AXIOMATIC SET THEORY AND RUSSELL'S VIEWS ON THE FOUNDATIONS OF MATHEMATICS 91
Rodrigo Sabadin Ferreira 91
64.FUNÇÃO BIOLÓGICA E CONTEÚDO DISTANTE 91
Sérgio Farias de Souza Filho 91
65.LÓGICAS DO CONSENSO HISTÓRICO 93
Vitor Medeiros Costa 93
66.DA NATUREZA SEMIÓTICA DOS DIAGRAMAS EUCLIDIANOS: FIGURAS COMO AMOSTRAS 93
Tamires Dal Magro 93
67.ROTEIRO DE POSIÇÕES ACERCA DA EPISTEMOLOGIA DA MEMÓRIA1 94
Vitor Rodrigues de Almeida 94

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 22



CONFERÊNCIAS
KEYNOTE SPEAKERS

THE ROLE OF SMELL IN CONSCIOUSNESS: THE NOT SO NEGLECTED SENSE


Barry Smith, PhD
University of London
b.smith@philosophy.bbk.ac.uk

Smell is often regarded as a neglected sense, both scientifically and in ordinary perceptual
experience. McGann (2017) suggests the relative neglect of olfaction in psychology and
neuroscience is due to a 19th century myth perpetuated by Broca that humans have poor sense of
smell. In fact, humans have a good sense of smell, but scientific attitudes to smell cannot not
explain why, ordinarily, people neglect their sense of smell in everyday experience. One proposal
to account for this fact is that unlike vision, audition, taste and touch, smell features little in
conscious awareness. According to this minimalist view, olfaction plays a limited role in conscious
daily life, only appearing when we smell something overpowering, or deliberately sniff at
perfumes, foods or wines. Another view, adopted by several olfaction scientists, takes the human
sense of smell to be largely unconscious, only occasionally breaks through into conscious
awareness, but having an impact of cognition and emotion (Sela and Sobel 2012) Another view is
that we only become consciously of an odour, if it is unexpected or potentially dangerous, (Köster,
Møller and Mojet 2014). I will argue these views are mistaken, in whole and in part. Smell plays
a larger role in everyday conscious life than is commonly thought though it goes unrecognized,
and this requires us to explain how an aspect of consciousness can be overlooked. Part of the
explanation involves what smell contributes to our perception of the flavours of what we eat and
drink, which features extensively in our conscious awareness, but is not recognized as due to
smell. The other part points to a lack of meta-cognitive awareness of the olfactory dimension of
everyday experience. More generally, the case of olfactory experience provides a useful
opportunity to explore the relationship between consciousness and attention.

WITTGENSTEIN AND TURING


Juliet Floyd, PhD
Boston University, Boston, MA USA
jfloyd@bu.edu

A philosophical reconstruction of the mutual impact of Wittgenstein and Turing upon one
another. Recognizeably Wittgensteinian features of Turing’s diagonal argumentation and
machine-model of human computation in “On computable numbers, with an application to the
Entscheidungsproblem” (1936/7) and his argumentation in “Computing Machinery and
Intelligence” (1950) are drawn out, emphasizing the anti-psychologistic, ordinary language and
intersubjectivist elements of Turing’s conception. These were indebted, on my story, to exposure
to Wittgenstein’s lectures and dictations. Next Wittgenstein’s manuscripts on the foundations of
mathematics 1934-1942 are interpreted in light of the impact of Turing’s analysis of logic upon
them. Themes will include the emergence of rule-following issues, the notion of Lebensform, and
anti-psychologism.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 23



ANALYTICAL PHILOSOPHY IN THE 21ST CENTURY: EPISTEMOLOGICAL
IMPLICATIONS OF VIRTUAL REALISM
Dr.ª Maria Eunice Quilici Gonzalez
PPGFil - UNESP
CNPq / FAPESP
eunice.gonzalez@unesp.br

The development of information technologies, enhanced in the 21st century by Big Data analytics
and machine learning, seems to be shifting human perception, originally anchored in
environmentally situated and historically incorporated action, to place it in a digital information
space, structured mainly by media, economic, political, and social interests. Inspired by Ryle’s
considerations on “knowing how” to do things and its relation to “knowing truths”, we are going
to discuss the new trend of Virtual Realism (a la Chalmers) and the Digital Constructivism in
science (a la Floridi). Attention will be given to associative methods and the modelling employed
in Big Data analytics, which deals with the rapidly increasing amount of a massive variety of data
available for prediction, control and explanation of events. We will argue that studies on the
concepts of correlation and causality, under development in the analytical perspective of Big Data
studies, with emphasis on the notions of disposition and counterfactual, indicate strong signs of
emergence of a new logic of reasoning structuring rationality in science and common sense.
Aspects of the new logic of volume, velocity, and variety, characteristic of Big Data, will be
discussed to provide guidelines for the following question: What could be the positive and
negative epistemological and ethical consequences of embracing virtual realism grounded upon
Big Data in the study of human perception/action?

CUASI REGULARISMO Y DEFLACIONISMO CAUSAL


Dr.ª Nélida Gentile
Universidad de Buenos Aires
Universidad Nacional de Lomas de Zamora
nelgen@filo.uba.ar

Se analizan algunas de las concepciones más relevantes que se han ofrecido acerca de las leyes y
se señalan ciertas características que afectan su plausibilidad. Se presenta un punto de vista
alternativo inspirado en la posición conocida como el Nuevo Hume. El enfoque defendido es una
postura intermedia entre la concepción regularista estándar y el antirrealismo nomológico de
Mumford. Creemos que la propuesta sortea con éxito las dificultades mencionadas y abre un
nuevo espacio teórico dentro de la disputa sobre las leyes de la naturaleza.

THE EXPRESSION OF HATE IN HATE SPEECH


Dr.ª Teresa Marques
Universitat de Barcelona
teresamatosferreira@ub.edu

In this talk, I offer an hypothesis about how hate speech expresses hate. I will hold that not all
expressions of hate are hate speech, and that hate speech can be expressive of hate even if some
speakers lack the sentiment. In so doing, I try to suggest how hate speech can correlate with hate
crimes. I combine an account of the illocutionary structure of conversational contexts and of the

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 24



normative requirements that speech makes on context, on the one hand, and recent accounts of
the attitudes or sentiments expressed through hate speech, on the other. I concludes that hate
speech is illocutionarily expressive, and presupposes ongoing hate as a sentiment which
“organizes people’s social world”.

DIÁLOGO E REFLEXÃO: UMA PERSPECTIVA EPISTÊMICA NÃO


INDIVIDUALISTA SOBRE A REFLEXÃO
Waldomiro J. Silva Filho
PPGFil – UFBA / CNPq
wjsf.ufba@gmail.com

Esta apresentação visa motivar uma concepção epistêmica não-individualista sobre a reflexão. A
proposta é não-individualista porque (a) não considera apenas o desempenho metacognitivo
individual, (b) refere-se a uma situação em que duas ou mais pessoas estão em desacordo
dialógico sobre o mesmo assunto ou alvo da proposta; (c) essas pessoas realizam uma disputa
com base no espaço de conversação e têm o direito legítimo de esperar uns do outros o
compromisso com a busca da verdade, evitar os erros e o entendimento. Chamo esta proposta de
Perspectiva Dialética sobre Reflexão. Segundo essa perspectiva, reflexão é uma operação
intelectual consciente e intencional através da qual uma pessoa toma conhecimento do conteúdo
de crenças disputadas em uma troca dialógica ou interpessoal, envolvendo tanto suas próprias
crenças quanto as crenças de seus interlocutores. Para essa proposta, a reflexão produz o bem
epistêmico de evitar vícios epistémicos e promover a moderação epistémica.

NEW LOGICS, NEW PROBABILITIES: WHAT DO THEY MEAN?


Walter Carnielli
Centre for Logic, Epistemology and the History of Science and Department of Philosophy
University of Campinas-Unicamp
walter.carnielli@cle.unicamp.br

Logical pluralism is the view that there is more than one correct logic. As probability theory can
be seen as extending logical systems (at least in the opinion of many) probabilistic pluralism is
perfectly justifiable.
When we vary the logical bases on which probability theories are founded, some probabilistic
principles considered as sacred are shaken: contradictions may have non- zero probabilities
when the Principle of Explosion is no longer maintained, and the probability of a negative
event is not necessarily its complementary probability when the Law of Excluded Middle is
challenged.
These new probability measures pose new mathematical and philosophical difficulties, but I
argue that such expanded probability theories are useful and contribute to the arsenal of
rationality. Considering that probability theory is essential for statistics, which in turn play a
crucial role in philosophy of science, probabilistic pluralism represents a significant impact
in the philosophy of science.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 25



Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 26



MESAS REDONDAS
ROUNDTABLES

1. ROUNDTABLE: SOCIAL EPISTEMOLOGY AND NEUROPHILOSOPHY

Social epistemology, as over against traditional, individual epistemology, has sought to reexamine
knowledge and justified belief, so as “to pursue the truth (whichever truth is in question) with the
help of, or in the face of, others. It is also concerned with truth acquisition by groups, or collective
agents.” (Stanford Encyclopedia of Philosophy) Neurophilosophy or the philosophy of
neuroscience and cognitive science has become an interdisciplinary research in neuroscientific
theories of brain/mind and mental phenomena, especially insofar as mental states relate to the
brain, so as to comprise theories of cognition, language, representation, thought, consciousness,
memory, decision-making, beliefs, emotions, rationality, self, cognitive and moral psychology,
moral philosophy and metaethics, and more recently social epistemology. In our research
program, we set out to investigate whether the social conditioning of human behavior leads to
social norms-abiding behavior, or the other way around, as sociality is undermined by
neurobiological conditioning. This interdisciplinary field of research in analytic philosophy
allows thus for in-depth discussions of both theoretical, philosophical texts and empirical
findings of neuroscience, psychology, economics, ethics, and social sciences relating to problems
of naturalism, sociality, and normativity, including decision-making processes, rational-choice
theory, game theory, and artificial intelligence.

1.1. OF NON-NATURALIST NORMATIVE FACTS AND METANORMATIVE


FACT-FREE PRINCIPLES
Claiton Costa
Doutorando/PPGFil – PUCRS
claitoncosta505@gmail.com

Dr. Nythamar de Oliveira


PUCRS / CNPq
nythamar@yahoo.com

How does one draw the line between non-normative facts and normative facts, or between
naturalism and normativity, without realizing that we’re just somehow recasting the Kantian
opposition between nature and freedom, facts vs values, or Hume’s own opposition between (a
priori analytic) relations of ideas and (a posteriori synthetic) matters of fact? Derek Parfit tried to
solve this conundrum by resorting to a non-naturalist, cognitivist standpoint, supposedly safe
from charges of dogmatism and relativism, as he systematically opposes Non-Cognitivism to
Irreducibly Normative Truths. We argue that the problem with Parfit’s monumental attempt to
conjugate the very best variants of Kantianism, Contractualism, and Consequentialism in On
What Matters is precisely that he is assuming too much insofar as normativity, values, and facts
are concerned. In the same vein, G.A. Cohen claims, contra Rawls, that facts ground normative
principles only in the light of an ultimate, logically prior, normative principle. Cohen does this on
the basis of three premises: there is always an explanation of why a fact grounds a principle; that
explanation always implies a further normative principle; the regress started here does
continue ad infinitum. Taking for granted Cohen's premises, we offer a counterexample in which
a metanormative principle—a principle that tells when and only normative principles express

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 27



normative truths—is the normative rock bottom that makes the further grounding relations work,
that is, in our counterexample the grounding structure is not ultimately based on normative
principles but rather on a metanormative one. Hence, we show that Cohen's thesis is false, even
if we take for granted all of his premises. We offer thus criticisms against both Parfit and Cohen,
to show that the first assumes too much and that the metaethical thesis of the second is false.

Keywords: Facts, Metaethics, Metanormativity, Naturalism, Social epistemology

1.2. COUNTERFACTUALS, DECISION MAKING, AND ETHICAL ALIGNMENT


IN ARTIFICIAL INTELLIGENCE
Nicholas Kluge Correa
Doutorando/PPGFil – PUCRS
nicholas.correa@acad.pucrs.br

Dr. Nythamar de Oliveira


PUCRS / CNPq
nythamar@yahoo.com

Counterfactuals have become a major area of interest and interdisciplinary application, especially
in logic, semantics, psychology, decision theory, game theory, and artificial intelligence. In the
case of AI, counterfactual models are allowed for the modeled agents so as to figure out how the
decision-making procedures can occur, respecting the premises of ethical behavior. Intelligent
systems increasingly become an integrated part of our society (complex environments), as the
concept of idealized decision becomes increasingly important, especially for security reasons. In
this paper, we offer some examples of how an AI algorithm can perform a specific task of
executing totally unexpected actions, in order to highlight our difficulty of controlling and
predicting AI agency. If one seeks to improve her control over the impact that intelligent systems
might have on the environment in which they are inserted, a better understanding of
counterfactuals is necessary. Indeed, one of the shortcomings in the area of decision theory
involves the formalization of reasoning and counterfactual logic, where standard models of
decision making (such as game-theoretic) cannot be simply used to describe an idealized decision
procedure. After all, what is meant by an idealized decision procedure? It is necessary that we
find a formal definition or it is necessary to make a good decision, so that the heuristics with this
objective are constructed. However, this definition leads us to the still unknown nature of the use
of counterfactuals in the field of artificial security (AI), insofar as the counterfactual decision
processes are applicable to artificial systems with human interests. It is necessary that artificial
intelligent agents have their values aligned with human values, given that one cannot expect AI
to develop human moral values simply because of its intelligence, according to the so-called
Orthogonality Thesis.
Keywords: AI Ethics, Complexity, Counterfactuals, Decision Theory, Social Epistemology

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 28



1.3. SOME BRAIN MECHANISMS THAT UNDERLY EMOTIONAL
CONSCIOUSNESS AND THEIR PHILOSOPHICAL IMPLICATIONS
Diogo Massmann
Doutorando/PPGFil – PUCRS
diogofm1818@gmail.com

Dr. Nythamar de Oliveira


PUCRS / CNPq
nythamar@yahoo.com

The possibility of unconscious emotional processes implies a relative disconnect between the
explanatory models of emotions and consciousness. Although conscious processes are always
accompanied by emotions, it would be possible to have emotions that are not accompanied by
consciousness as well. Jaak Panksepp builds on the idea that subcortical circuits that control
innate behaviors and related physiological responses are the core of the states of emotional
consciousness. Panksepp calls upon conscious states that the organism is unaware, but cannot
introspect or talk about, similarly to Ned Block. So, Panksepp’s emotion theory can be conceived
as a First-Order Emotion Theory. Antonio Damásio highlighted the importance of body sensing
areas of the cortex giving rise to feelings, but Damásio reviewed it arguing that core feelings are
products of subcortical circuits that receive primary sensory signals from the body. As over
against Panksepp, Damásio assumes that these subcortical action systems operate
nonconsciously. On the other hand, Joseph LeDoux argues that these circuits are better
considered through nonconscious First-Order Representation. Unlike Damásio, LeDoux´s
proposal pointed out that in some cases (e.g., backward masking or continuous flash
suppression), emotions and consciousness can be separate processes, maintained by two different
mechanisms. This does not mean that defensive survival circuits play no role in consciousness,
but that they are not directly responsible for the conscious experience itself. This proposal seems
better interpreted as a High-Order Representation assembly of conscious feelings supported by
General Networks of Cognition.
Keywords: Emotions, First/High-Order Representations, General Networks of Cognition,
Subcortical Systems.

2. ROUNDTABLE: PROPER NAMES AND IDENTITY

Since the publication of [3], identity and proper names have played crucial roles in analytical
philosophy. This round table proposes to debate some problems with respect to them.
One of the main philosophical problems related to identity has been com- monly called Frege’s
puzzle. The puzzle can be summarized as follows: how can we characterize the real
informativeness of non-trivial true identities? But this puzzle can be generalized to quantifiers.
Whilst in Frege’s original case an individual ignores the co-denotation of two proper names, in
the gen- eralized version of the puzzle an individual ignores the co-extensionality of two domains
of quantification.
There are many ways to respond to Frege’s puzzle but Jackson’s 2- dimensional semantics
proposed in [5] presents an interesting solution. The talk Generalized Fregean Puzzle and Two-

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 29



Dimensional Semantics by Bruno R. Mendonc ̧a will show how it is possible to give a 2-
dimensional account of the generalized Fregean puzzle.
The controversy with respect to proper names can be roughly reduced to two major theses. A first
group defends the thesis that proper names have senses. A second group, in turn, says that proper
names don’t have senses, but rather directly refer to an object. Frege in [3] and Dummett in [2]
are members of the first group; Kripke in [6], of the second one. Kripke defends also that proper
names are rigid designators, that is, they designate the same individual in every possible world in
which that individual exists.
But the Kripkean thesis does not seem to be a good solution in what concerns a certain class of
names, biological taxon names. The thesis widely accepted in philosophy of biology is that
biological taxa are individuals. In this context, the exposition Proper names, criteria of
application, and crite- ria of identity: the case of biological taxonomy by Jerzy A. Brzozowski will
suggest an amendment for the Frege-Dummettian account: taxon names, despite being proper
names, have their senses constituted by a criterion of identity and a criterion of application. He
concludes with some philosophical problems related to the taxonomic nomenclature that can be
solved using the Frege-Dummettian account.
Whether definite descriptions or rigid designators, philosophers agree that the fundamental role
of proper names is that, in pronouncing it, we intend to refer to something. But Lizot in [7]
guarantees that, after being an adult, a Yanomami name is almost never pronounced:
pronouncing it is considered an offense.
The talk Some Limits Of The Referential Theories Of Proper Names: The Yanomami Case by
Newton M. Peron will defend that the Yanomami case calls our attention to a function that proper
names have and that has hitherto been underestimated: its vocative function. The vocative
function of proper names seems to be very close to what Austin calls performatives in [1]. Austin
call attention to the fact that until then philosophers of language had only focused on constatives,
neglecting performative sentences. The talk intends to understand proper names in their vocative
function as performatives.
References
[1] J. L. Austin. How to Do Things with Words. Clarendon Press, 1962.
[2] Michael Dummett. Frege: Philosophy of Language. London: Duckworth, 1973.
[3] G. Frege. Über Sinn und Bedeutung. Zeitung für Philosophie und philosophische Kritik,
100:25–50, 1892. trans. as ‘On Sense and Meaning’ in [4].
[4] G. Frege. Collected Papers on Mathematics, Logic, and Philosophy. Wiley-Blackwell, 1991.
[5] F. Jackson. Why we need A-intensions. Philosophical Studies, 118(1- 2):257–277, 2004.
[6] S. A. Kripke. Naming and Necessity. Library of Philosophy & Logic. Blackwell Publishers,
1981.
[7] J. Lizot. Onomastique yano ̃mami. L’Homme, 12(3):60–71, 1973.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 30



2.1. GENERALIZED FREGEAN PUZZLE AND TWO-DIMENSIONAL
SEMANTICS
Dr. Bruno R. Mendonça
State University of Campinas (Unicamp)
bruno.ramos.mendonca@gmail.com

Frege’s puzzle can be formulated as follows: for any true identity a=b, how can someone do not
know it? In other words, how can we characterize the real informativeness of non-trivial true
identities? Despite its centrality in the contemporary debate on the semantics of proper names,
Frege’s puzzle is just the tip of the iceberg of a larger problem on the informativeness of logical
truths: how is it possible for someone to ignore that a given logical validity is true? In fact, we can
define a generalized version of Frege’s puzzle. The informativeness of an identity of the form a =
b is revealed by the failure of substitution of identicals in intensional contexts: a = b is informative
because it is possible for an individual to jointly believe φ(a) and ¬φ(b), for some formula φ(x).
In the same way, it is sometimes possible for someone to jointly believe ∀xφ(x) and ∃x¬φ(x), and
this is just a generalization of the problem proposed by Frege. Whilst in Frege’s original case an
individual ignores the co-denotation of two proper names, in the generalized version of the puzzle
a person ignores the co-extensionality of two domains of quantification.
There are several ways of answering Frege’s puzzle, but 2-dimensional semantics [1] offers us an
especially interesting solution. This framework characterizes the semantic contents of proper
names in two levels, namely, the level of character and the level of content. The content of a name
is its reference, which it denotes rigidly. However, the link of a name with its reference is
conventional, i.e., the name could have been linked to a different reference in a counterfactual
context of linguistic use. This contingent aspect of the semantics of a proper name is captured by
its character, a function that associates some content to the name in each context of linguistic use.
Based on this analysis, we can elaborate a solution for Frege’s puzzle: even though, in the actual
context of linguistic use, a = b is true, often the epistemic situation of an agent doesn’t exclude
counterfactual contexts in which the characters of a and b select distinct references for these
names.
2-dimensional semantics offers a monist solution to Frege’s puzzle, i.e., a kind of solution that
doesn’t require the commitment with a distinction between alethic and epistemic modalities. On
the other hand, mainstream accounts of the problem of the informativeness of logical truths in
general involve some kind of modal pluralism (e.g., [2, 3]). Hence, from a monist point of view, a
generalization of the 2-dimensional solution of Frege’s puzzle to the wider problem of the
informativeness of logical truths would be very important. As a partial contribution in this
research program, in this talk I will present how is it possible to give a 2-dimensional account of
the generalized Fregean puzzle. More specifically, I will argue that our use of quantifiers is also
mediated by characters which fix quantificational domains in every context of linguistic use.
Then, I will show that the epistemic situation of a regular individual does not exclude a priori
counterfactual contexts of lin- guistic use in which the characters associated with the quantifiers
occurring in a formula fix different quantificational domains.
Keywords: Frege’s puzzle; 2-dimensional semantics; Identity; Logical knowledge.
References
[1] F. Jackson. Why we need A-intensions. Philosophical Studies, 118(1- 2):257–277, 2004.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 31



[2] M. Jago. Logical information and epistemic space. Synthese, 167(2):327– 341, 2009.
[3] M. Jago. The content of deduction. Journal of Philosophical Logic, 42(2):317–334, 2013.

2.2. PROPER NAMES, CRITERIA OF APPLICATION, AND CRI- TERIA OF


IDENTITY: THE CASE OF BIOLOGICAL TAXON- OMY
Dr. Jerzy A. Brzozowski
Federal University of Santa Catarina (UFSC)
jerzyab@gmail.com

According to the causal theory of reference, a rigid designator is that which designates the same
individual in every possible world in which that indivi- dual exists. It is not clear how one should
construe the expression “the same” in the preceding sentence. In [2], Kripke was very dismissive
of the idea that criteria of identity, and especially transworld criteria of identity, are needed at all
for the determination of a proper name’s reference. Kripke presented us with an account in which
individuals are projected onto possible world by stipulation, and thus their identity conditions
remain somewhat primitive.
On the other hand, Michael Dummett in [1] argued that a criterion of identity is a component of
the Fregean senses of proper names. Dummett also distinguished proper names from other
classes of terms based on the constitution of their Fregean senses. Unlike proper names, whose
senses contain only criteria of identity for their referents, the senses of adjectival predicates
contain only criteria of application, while those of sortal predicates contain both criteria of
application and of identity.
In this talk, I argue that the Frege–Dummettian account fares better than the Kripkean one, at
least in what concerns a certain class of names, biological taxon names. In order to accomplish
this goal, I must first present the thesis, which is widely accepted in philosophy of biology,
according to which biological taxa are individuals. Second, I suggest an amendment for the
Frege–Dummettian account: that taxon names, despite being proper names, have their senses
constituted by both criteria of identity and criteria of application. I conclude with some
philosophical problems related to the taxonomic nomenclature that can be solved using the
Frege–Dummettian account.
Keywords: theories of reference; rigid designators; proper names; crite- ria of identity; criteria
of application.
References
[1] Michael Dummett. Frege: Philosophy of Language. London: Duckworth, 1973.
[2] S. A. Kripke. Naming and Necessity. Library of Philosophy & Logic. Blackwell Publishers,
1981.

2.3. SOME LIMITS OS THE REFERENTIAL THEORIES OF PROPER NAMES:


THE YANOMAMI CASE
Dr. Newton M. Peron
Federal University of Southern Frontier (UFFS)
newton.peron@uffs.edu.br

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 32



Since the publication of [2], proper names has played a crucial role in recent philosophy of
language. Russell in [6] was the first text arguing against Frege’s view that proper names have
sense. The controversy was revived fifty years later by Strawson in [8] but it was far from over.
Searle, Davidson, Barcan, Kripke and Kaplan participated in this debate. It is difficult to find an
analytical philosopher who has not contributed to the debate or, at least, publicly sided with it.
The controversy can be roughly reduced to three major theses. A first group defends the thesis
that proper names are fixed by a define description or a cluster of define descriptions. A defined
description is an expression that begins with the defined article “the” and that intent to refer to a
single object. A second group, in turn, says that proper names are not fixed by one or a cluster of
defined descriptions, but they fix directly an object. A third thesis emphasizes that we can
determine the reference of a proper name only by the context in which it occurs and, in this sense,
its main function is anaphoric.
Whether definite descriptions, rigid designators, or anaphora, everybody agrees that the
fundamental role of proper names is that, in pronouncing it, we intent to refer to something. But
the French anthropologist Lizot in [5] guarantees that, after being an adult, a Yanomami name is
almost never pronounced, being considered an offense pronouncing it. In the case of a dead
person, the act is so outrageous that the relative can challenge a deadly duel the person who
pronounced his ancestor’s name.
The key in order to understand the Yanomami’s case seem to be a function that proper names
have and that, according to the linguists Sonnenhauser and Aziz Hanna in [7] has been
underestimated by linguists (and, we should add, by the philosophers of language too): its
vocative function.
The vocative function of proper names seems to be very close to what Austin calls a performative
in [1]. Austin catches our eye that, until now, the philosophers of language had only focused on
constatives, forgetting the performative sentences. If the constatives have the role to refers to
facts or thoughts, the performatives must be understood as an act (a wish, an order, an advice ...).
But Austin seems to agree with the Fregean principle – and widely advocated by the analytical
tradition – saying that a word can be understood only in the context of a sentence. My propose is
to suspend this principle in order to understand proper names in their vocative function as a
whole sentence. From that, this whole sentence can be considered a performative.
Keywords: theories of reference; proper names; speech act; vocative; taboo against naming the
dead.
References
[1] J. L. Austin. How to Do Things with Words. Clarendon Press, 1962.
[2] G. Frege. Über Sinn und Bedeutung. Zeitung für Philosophie und philosophische Kritik,
100:25–50, 1892. trans. as ‘On Sense and Meaning’ in [3].
[3] G. Frege. Collected Papers on Mathematics, Logic, and Philosophy. Wiley-Blackwell, 1991.
[4] S. A. Kripke. Naming and Necessity. Library of Philosophy & Logic. Blackwell Publishers,
1981.
[5] J. Lizot. Onomastique yano ̃mami. L’Homme, 12(3):60–71, 1973.
[6] B. Russell. On Denoting. Mind, 14(56):479–493, 1905.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 33



[7] P. N. Sonnenhauser, B; Aziz Hanna. Vocative!: Addressing Between Sys-tem and
Performance. Trends in Linguistics. Studies and Monographs. De Gruyter Mouton, 2013.
[8] P. F. Strawson. On Referring. Mind, 59(235):320–344, 1950.



3. MESA-REDONDA: PROBLEMAS EM FILOSOFIA DA MEMÓRIA

A Filosofia da Memória enquanto área especializada reflete o crescimento da pesquisa sobre o


que é, que processos estão envolvidos e quais as implicações de se resgatar mentalmente algo
vivido. A investigação filosófica da memória não é novidade, mas a colaboração com a psicologia
e as neurociências lançaram nova luz ao estudo filosófico, pondo em xeque o modelo em que a
memória ‘armazena’ experiências do passado e suscitando uma série de problemas. O primeiro
conjunto de problemas é “Sobre a Relação entre Lembrar e Imaginar”. Recentes estudos sobre a
natureza da memória episódica abrem espaço para a tese que lembrar e imaginar são duas
espécies do mesmo gênero. Por conta de evidências empíricas, a tese da continuidade
imaginação-memória ganhou força entre filósofos de orientação naturalista, enquanto a tese da
descontinuidade passou a ser estigmatizada como apriorista. No entanto, dois problemas se
apresentam. Primeiro, usualmente, continuístas e descontinuístas realizam projetos metafísicos
diferentes, e compatíveis. Continuístas costumam ser metafísicos científicos, descontinuístas se
alinham mais naturalmente a uma metafísica descritiva do senso comum. Segundo, um
descontinuísmo naturalista é possível. O segundo conjunto de problemas é sobre o “Realismo
Direto e Realismo Indireto em Filosofia da Memória”. Sven Bernecker defende o realismo direto
em filosofia da memória, afirmando que, quando lembramos, é o evento em si que vem à nossa
mente. Já John Sutton defende o realismo indireto, argumentando que só tomamos ciência do
evento porque retemos uma representação do mesmo. No entanto, ambos negam que o traço é
uma entidade mental a partir do qual podemos inferir a existência do evento passado; e ambos
defendem que o traço é o componente neural que permite que tragamos o evento de volta à mente.
Ou seja, a partir das mesmas teses os autores obtêm teorias divergentes. O terceiro conjunto de
problemas envolve “O que faz com que um ato mental conte como uma memória”. Segundo
teorias causais, o ato precisa estar causalmente conectado à representação do evento passado via
traços de memória. Essas teorias são acusadas de desconsiderar o caráter construtivo da
memória. Segundo as simulacionistas, o ato precisa ser produzido por um sistema construtivo
confiável. Um desafio é explicar diferenças entre memória e imaginação, uma vez que
simulacionistas defendem que são produzidas por um sistema cognitivo da mesma natureza. Uma
alternativa híbrida defende a necessidade da retenção da informação do evento original e da
construção de uma representação precisa dele. O quarto conjunto de problemas envolve “A Noção
de Traço e a Natureza Dinâmica da Memória à Luz das Neurociências”. Diversos autores
defendem que o traço de memória, supostamente responsável por preservar conteúdos de
experiências passadas, apresenta uma relação íntima (muitas vezes, de identidade) com redes
neurais específicas (os chamados “engramas”). Pesquisas neurobiológicas demonstram,
entretanto, que populações neuronais que fundamentam as memórias são modificáveis,
reforçando a ideia de que a memória é dinâmica por natureza e pondo em xeque a noção clássica
do traço como entidade estática. Compreender processos neurobiológicos da memória, como
consolidação, reconsolidação e extinção, oferece informações importantes para o debate
filosófico.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 34



Descrição de como as contribuições individuais e a discussão serão organizadas
Em um primeiro momento, cada um dos quatro participantes irá apresentar sua contribuição em
apresentações individuais de 15 minutos. Na primeira apresentação, César Schirmer dos Santos
falará “Sobre a Relação entre Lembrar e Imaginar”, apresentando a discussão entre continuismo
e descontinuismo entre memória e imaginação. Na segunda apresentação, Glaupy Fontana Ribas
abordará as teses do “Realismo Direto e Realismo Indireto em Filosofia da Memória”, explorando
a relação entre o evento original e o que está sendo lembrado. Na terceira apresentação, Susie
Kovalczyk dos Santos apresentará as teorias causais, simulacionsitas e a alternativa híbrida para
responder a “O que faz com que um ato mental conte como uma memória”. Na última
apresentação, Fabrício Diniz Dutra explorará “A Noção de Traço e a Natureza Dinâmica da
Memória à Luz das Neurociências”, discutindo a necessidade do traço de memória para as teorias
do lembrar e os possíveis conflitos entre a noção de traço e a natureza dinâmica da memória. Tais
apresentações serão seguidas de, em um segundo momento, uma discussão de 30 minutos sobre
os problemas abordados nas apresentações individuais entre os membros da mesa e os demais
presentes.

3.1. SOBRE A RELAÇÃO ENTRE LEMBRAR E IMAGINAR


Dr. César Schirmer dos Santos
Universidade Federal de Santa Maria
cesar.santos@ufsm.br

3.2. REALISMO DIRETO E REALISMO INDIRETO EM FILOSOFIA DA


MEMÓRIA
Glaupy Fontana Ribas
Doutoranda no Programa de Pós-Graduação em Filosofia da UFSM
fontanaribas@outlook.com

3.3. O QUE FAZ COM QUE UM ATO MENTAL CONTE COMO UMA MEMÓRIA
Susie Kovalczyk dos Santos
Doutoranda do Programa de Pós-Graduação em Filosofia da UFSM
lczyk.susie@gmail.com

3.4. A NOÇÃO DE TRAÇO E A NATUREZA DINÂMICA DA MEMÓRIA À LUZ


DAS NEUROCIÊNCIAS
Fabrício Diniz Dutra
Laboratoire de Psychologie et Neurocognition da Université Grenoble Alpes (UGA).
fabricio.dutras@gmail.com

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 35



WORKSHOP
SOCIEDADE BRASILEIRA DE LÓGICA/SBFA

1. PARACONSISTENCY, EVIDENCE, AND TRUTH


Dr. Abílio Rodrigues
PPGFil - Universidade Federal de Minas Gerais (UFMG)
abilio.rodrigues@gmail.com

The aim of this talk is to present some recent developments of the approach to paraconsistency
in terms of preservation of evidence. A logic of formal inconsistency called LETF (the logic of
evidence and truth based on FDE) will be introduced. LETF is an extension of the well-known
Belnap-Dunn 4-valued logic that treats positive and negative non-conclusive evidence as two
primitive and non-complementary notions. It is equipped with a classicality operator that is able
to distinguish scenarios of conclusive evidence, subjected to classical logic, from non-classical
scenarios where the evidence available is non-conclusive or unreliable. Decidable bi-valued
semantics, a probabilistic semantics, and Kripke models for LETF will be presented and
discussed.

2. REVISION OF LOGIC AND METALINGUISTIC NEGOTIATIONS


Dr. Marcos Silva
PPGFil - Federal University of Pernambuco (UFPE)/CNPq
marcossilvarj@gmail.com

Here, we will investigate the possibility of using Sundell and Plunkett's seminal idea of
metalinguistic negotiation (2013) in the discussion of revision of logic. The concept of
Metalinguistic Negotiation was already successfully applied into discussions concerning
metaethics (Burgess and Plunkett 2013a; 2013b), aesthetics (Sundell 2017), metaphysics
(Plunkett, 2015; Thomasson, 2017) and law (Plunkett and Sundell, 2014). It is noteworthy that
metalinguistic negotiations are compatible with developments of a social perspective of logic as
championed by Brandom's (1994, 2000, 2008) and Dutilh Novaes' work (2013, 2015, 2016),
because it investigates logic in a non-individualistic and anti-representationalist platform, by
emphasizing the notion of normativity to understand the nature of logic. In particular, the very
notion of metalinguistic negotiation can be tested to advance a multi-agent platform for
understanding the kind of disagreement we have, when we are concerned with the possibility of
revision of logic. The main idea is that philosophical disputes concerning revision of logics should
be taken as metalinguistic disputes. In other words, discussions to motivate revising logic take
place on the metalinguistic level, since people longing to revise logical principles do so by
negotiating the way we use our concepts, giving special attention to what we do or how we use
some terms and not by referring logical vocabulary to some independent structure of reality to
test its correctness.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 36



3. KRIPKE’S REFORMULATION OF THE CONTINGENT A PRIORI CASES
Dr. Marco Ruffino
PPGFil - UNICAMP
ruffinomarco@gmail.com

The purpose of this presentation is to discuss and evaluate the main arguments developed in
Kripke’s unpublished lectures “Rigid Designation and the Contingent A Priori: The Meter Stick
Revisited” delivered at the University of Notre Dame in 1986. In these lectures Kripke considers
the objections raised by two of his main critics against his classical examples of contingent a
priori truths: the objections raised by Donnellan (1979) against the Neptune example, and the
objections raised by Salmon (1986) and Plantinga (1975) against the standard meter case.
Donnellan’s point is that one cannot have any de re knowledge concerning Neptune based only
on the baptism because there is something missing, i.e., acquaintance with the referred object.
And Salmon and Planting argue that some visual contact must exist between the baptizer and the
meter bar in order for there to be any knowledge at all, but this disqualifies that kind of knowledge
as a priori. Kripke introduces some slight changes in his initial position that are, according to
him, enough to deal with both objections. As I shall argue, Kripke’s replies are both insufficient
and dispensable, for there is an easier way out of both forms of criticism. (I propose an alternative
approach in terms of the illocutionary success of the act of baptism that avoids both sorts of
objections.)

4. SOME MODAL LOGICS WITH A NECESSITY/IMPOSSIBILITY OPERATOR


Dr. Cezar A. Mortari
PPGFil - Universidade Federal de Santa Catarina (UFSC)
cmortari@cfh.ufsc.br

In this paper I examine some modal logics in which the modal operator □ can be read as
necessity, or impossibility, or both; in a sense, a noncontingency operator. For an example,
consider classical modal logics, those logics closed under the rule of inference α ↔ β / □α ↔ □
β. Usually the □ operator represents necessity, but it also can be read as possibility,
impossibility, contingency, non-necessity, even negation, and the rule still preserves validity. On
the other hand, in a a rule like α → β / □β → □α, □ can no longer be read as necessity, or
possibility – but it makes sense to read it as impossibility or negation: if α implies β, and β is
impossible, or false, so is α. I am interested in determining what conditions must be required,
both on neighbourhood frames and relational frames, to force one of these different readings, and
under what conditions the readings still remain neutral. In this paper I will consider only the
necessity/impossibility readings, extending some previous results. Several conditions on frames,
of different strengths, are identified, as well as the modal formulas corresponding to them. I also
consider several logics obtained by adding one or more of these formulas as axioms, and prove
soundness, completeness and decidability theorems for each of them.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 37



COMUNICAÇÕES

1. SEMÂNTICA DE EVENTOS E CONJUNTISMO: PERSPECTIVAS E PROBLEMAS


EM ABERTO
Dr. Adriano Marques da Silva
UFRN
adrymarques@gmail.com

Em Events and Semantic architecture (OUP 2005), Paul Pietroski procura demonstrar a
viabilidade do Conjuntismo, i.e. a tese de que as relações predicado-argumento são mais
adequadamente descritas em termos de conjunção do que aplicação funcional. O autor toma
como ponto de partida a análise de eventos (neo)davidsoniana, responsável pela formalização de
um série de padrões de acarretamento, como a relação exibida entre a sentença (1) e (2):
(1) Brutus esfaqueou César bruscamente com uma adaga vermelha.
(2) Brutus esfaqueou César suavemente com uma adaga azul.
Vemos claramente que (1) acarreta as sentenças (3-5). Além disso, (2) implica as sentenças (6-
8):
(3) Brutus esfaqueou Cesar com uma adaga vermelha.
(4) Brutus esfaqueou Cesar bruscamente.
(5) Brutus esfaqueou Cesar.
(6) Brutus esfaqueou Cesar suavemente.
(7) Brutus esfaqueou Cesar com uma adaga azul.
Vemos ainda que a conjunção entre (1)-(2) não acarreta nem (8) ou (9):
(8) Brutus esfaqueou César suavemente com uma adaga vermelha.
(9) Brutus esfaqueou César bruscamente com uma adaga azul.
Existe, portanto, uma rede de acarretamento. Esse padrão é geralmente explicado atribuindo às
sentenças (1)-(2) formas lógicas (1a) e (2a):

(1a) ∃e{Esfaqueou(e, Brutus, Cesar) & ∃x[Vermelho(x) & Adaga(x) &


Instrumento(e, x)] & Bruscamente(e)}

(2a) ∃e{Esfaqueou(e, Brutus, Cesar) & ∃x[Azul(x) & Adaga(x) & Instrumento(e,
x)] & Suavemente(e)}

A semântica de eventos revela a existência de um padrão estrutural subjacente à semântica do


sintagma verbal. Pietroski toma esse padrão como uma hipótese empírica sobre a
composionalidade semântica da linguagem natural. Embora seja intuitivamente plausível que o
modo de composição semântica de alguns predicados seja, de algum modo, „conjuntivo‟, é
necessário especificar qual o tipo de conjunção requerida pelas diferentes modalidades de

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 38



concatenação sintática. O argumento desenvolvido no livro (e parte dos artigos que se seguiram
a sua publicação) pode ser dividido em dois passos:
(i) Mostrar que o Conjuntismo é capaz de dar conta dos mesmos casos que a aplicação funcional;
(ii) Mostrar que o Conjuntismo é mais simples do que a aplicação funcional.
Nesta comunicação abordarei duas questões gerais relevantes para futuras pesquisas sobre tal
semântica. A primeira diz respeito à motivação geral de uma semântica conjuntista, a saber, a
“simplicidade”: em que sentido o Conjuntismo é sensivelmente "mais simples" do que a aplicação
funcional? A segunda diz respeito a modificação adjetival, como em (10)- (11), que apresenta um
obstáculo para uma teoria baseada fortemente na conjunção, pois em língua portuguesa existe
uma distinção semântica entre o par de sentenças abaixo:
(10) João é o novo professor
(11) João é o professor novo
Como uma abordagem estritamente conjuntiva daria conta da diferença entre (10) e (11) sem
introduzir uma distinção relacional e, portanto, abrindo mão da simplicidade estrita do
conjuntismo? Mostrarei, além disso, como esses problemas em aberto podem ser convertidos em
uma plataforma de investigação.
Keywords: Filosofia da Linguagem, Semântica Formal, Filosofia da Linguística.

2. ON THE VALUE OF A NORMATIVE WILL


Dr. Adriano Naves de Brito
Department of Philosophy
Unisinos University - Brazil
brito@unisinos.br

The price for naturalising morality is to give up certainty, but not normativity nor the objectivity
of its content. Once one takes objectivity and norm for granted, certainty might be a fair price to
pay. Moreover, it might be a price we should be willing to pay in order to achieve a better
understanding of the social and political process of choosing and enforcing values and norms. I
have been arguing in favour to explain normativity in mere immanent terms through an analysis
of the will. The point here is that the basis upon which normativity has been raised and
maintained among humans is a “will” oriented to the will of others, a “will” that everyone wants
to be dominant, a “will” that wants to be the will of other wills, but which is also reflexive and
therefore concerns everyone. In the first part of the talk, I will return to this point to schematise
the volitive structure of norm objectiveness. This structure is, nevertheless, value-neutral. What
shall one will? Does anything one will under the volitive structure of normativity work as a good
moral norm?
The problem of the content of the norm is the problem of its value. Shall anything go as a good
moral norm, morality would lose its objectivity. Validity is not equal to good, but one may hope a
valid moral norm to be a good one as well. Indeed, the supervenience from the structure over the
content is precisely what principles as universals as the Golden Rule and the Categorical
Imperative try to provide to morality. At the second part of the talk, I shall address this issue. The
answer to the gap between validity and value, however, cannot compromise the research with a
kingdom of ends, freedom or other furniture of a nature beyond nature, without jeopardising its

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 39



naturalistic vein. Considering how far humanity has come with such a frail mechanism of norm
enforcement based on will, can naturalisation grant us an optimistic view of what we are apt and
prone to want as human beings? In the third part of the talk, I will tackle this question, discussing
some empirically informed examples to sustain that the preference for symmetry is the value
compass nature gave us.

3. ATTENTION: A CASE FOR MEMORY AS A GENERATIVE SOURCE OF


EPISTEMIC JUSTIFICATION
Dr. Allysson Vasconcelos Lima Rocha
Post-Doc - UFSM
allyssonvlr@gmail.com

Attention: a case for memory as a generative source of epistemic justification. Preservationism,


in the Epistemology of memory, represents the view that remembering isn't a means to bring
about a positive epistemic status for our beliefs. Memory could only preserve, at a time t2, the
rationality, justification or knowledge that our beliefs obtained through other sources, mainly
perceptual experience, at a time t1. Contrary to this thought, Generativism represents the view
that mere preservation wouldn’t properly describe the role played by memory in our epistemic
lives. Rather, memory would be both a generative source of beliefs and of their positive epistemic
status. It is important to notice, though, that, in most cases, both generativists and
preservationists about the Epistemology of memory still give considerable weight to a reliable
experience at time t1 for memory to perform its epistemic role at time t2. More specifically, for
most philosophers in this debate, the reliability of the experience which originally formed the
content of the belief is, at least, necessary for memory to exert its contribution in the obtaining of
justified beliefs or knowledge later. On the present occasion, I wish to discuss the necessity of this
original reliability as for memory to exert its epistemic role. The motivation for my reasoning
issues from two basic observations, through which I also conduct my argumentation. On one
hand, the importance that attention has for memory to perform its role, epistemic or not, an
importance that, I argue, should be taken in consideration in the aforementioned debate. On the
other hand, the differentiation between doxastic (belief) and propositional (content) justification,
which I argue can offer a good means to elucidate many difficulties prompted by the discussion.
To do this I resort, first, to the examples given by authors in the debate between Generativism
and Preservationism (LACKEY, 2005 and 2007; and SENOR, 2007; BERNECKER &
GRUNDMANN, 2019), showing how attention is either mentioned or implicit, even though its
role is not properly explored. Second, to clarify which role I am referring to, I address a recent
theoretical approach to attention proposed by Ganeri (2017), where to attend means, generally,
to place objects in a determinate space c so that one can access the properties of these objects. In
the case of memory, I argue that the precedence of attention resides in its role in placing and
accessing the objects of remembering, as well as systematising or organising the experience which
prompted this content a while ago. This systematisation or organisation would, then, help
weighing the reliability of the experience as whole, mnemonic or not, allowing a proper
assessment by the subject in the end. Finally, my reasoning should also support the view that
memory is mainly a generative source of doxastic epistemic justification, something that I try to
render clearer by explaining how attention helps discerning where propositional justification is
to be found.
BERNECKER, Sven. GRUNDMANN, Thomas. Knowledge From Forgetting. Philosophy and
Phenomenological Research. Rhode Island. Vol. XCVIII, no. 3, may, 2019, pp. 525-540.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 40



GANERI, Jonardon. Attention, Not Self. Oxford University Press: New York, 2017.
LACKEY, Jennifer. Memory as a Generative Epistemic Source. Philosophy and Phenomenological
Research. Rhode Island. Vol. LXX, no. 3, may, 2005, pp. 636-658.
________________. Why Memory Really Is a Generative Epistemic Source: a reply to Senor.
Philosophy and Phenomenological Research. Rhode Island. Vol. LXXIV, no. 1, jan, 2007, pp. 209-
219.
SENOR, Thomas D. Preserving Preservationism: a reply to Lackey. Philosophy and
Phenomenological Research. Rhode Island. Vol. LXXIV, no. 1.

4. UMA PROPOSTA DE LÓGICA FUZZY BASEADA NA CHANCE DOS EVENTOS


EXPERIMENTADOS
Dr. Anderson Vinicius Romanini
ECA/USP
vinicius.romanini@usp.br

Dr.ª Ana Cláudia Golzio


Pós-doutoranda FFC - Unesp
anaclaudiagolzio@yahoo.com.br

No pensamento semiótico de Charles S. Peirce, a informação colateral refere-se à familiaridade


prévia com o objeto da representação de um símbolo socialmente aceito. Essa familiaridade é o
fundamento comum (“common ground”) para que duas ou mais mentes possam comunicar
informação entre si. A informação colateral está, portanto, na base das crenças compartilhadas
numa comunidade, de onde nascem os hábitos de conduta pragmática.
Se considerarmos que uma investigação se inicia numa dúvida que não pode ser apaziguada pelos
hábitos vigentes, o trabalho de pesquisa na produção de novos hábitos capazes de eliminar a
inquietação da dúvida parece envolver uma equação de otimização que pode ser descrita usando
o logaritmo da chance (Peirce, CP 2.676).
De fato, Peirce considera que o logaritmo da chance de um evento acontecer é a melhor medida
de nosso apego a uma crença. Diante da necessidade de descartar uma velha crença e produzir
uma nova, uma boa estratégia para o pesquisador que inicia sua investigação na completa
ignorância sobre um problema seria formular uma hipótese experimentável que seja o mais
próximo possível de uma escolha binária (sim ou não) - e assim eliminar o máximo e o mais
rápido possível as respostas erradas para a pergunta “O evento acontecerá?”.
Como Peirce deseja fundamentar sua teoria da informação na experiência, a chance é definida
como a simples relação entre o número de sucessos e o número de falhas em um determinado
experimento. Quanto maior o número de sucesso registrado para a pergunta, maior a tendência
do logaritmo ao infinito, reforçando a crença na hipótese avançada, que passa a ser considerada
verdadeira. No caso do fracasso ultrapassar o sucesso, uma crença contrária à hipótese original é
fortalecida, assumindo o valor de verdade. Quantidades intermediárias de sucesso e fracasso
implicam que duas crenças contrárias possuem valores de verdade aproximados, mantendo-se
em superposição.
O principal objetivo deste trabalho é aplicar a ideia do logaritmo da chance em um sistema de
inferência baseado em lógica fuzzy. A teoria dos conjuntos fuzzy (que deu origem a lógica fuzzy)

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 41



foi introduzida em 1965 por Lotfi A. Zadeh com o intuito de prover um tratamento formal para
termos subjetivos da linguagem. A proposta é que a base das inferências do sistema lógico seja a
experiência (julgamentos sintéticos a posteriori) e que as funções fuzzy atuem como um
termômetro para medir a intensidade adequada das crenças, assim como Peirce sugere fazer
utilizando o logaritmo da chance.
Referências:
Hacking, I. The Taming of Chance. Cambridge: Cambridge University Press, 1990.
Peirce, C. S. The Collected Papers of Charles Sanders Peirce (CP). Vols. I–VI ed. Charles
Hartshorne and Paul Weiss. Cambridge, MA: Harvard University Press, 1931–1935. Vols. VII–
VIII ed. Arthur W. Burks, Cambridge, Massachusetts: Harvard University Press, 1958.

5. INTENTIONALISM AND DISPOSITIONALISM


Dr. André Leclerc
UnB/CNPq
andre.leclerc55@gmail.com

Old questions, regularly, allow for new answers. How are intentional properties possible in a
physical world? How something (mental or public representations) can be about something else?
Intentionalists believe that intentionality, the relational property of being about something, is
constitutive of mentality. Brentano’s thesis says: 1) the mental is intentional; 2) nothing physical
exhibits that property. This divide is brutal for any philosopher, even with a modest naturalistic
outlook. An interesting suggestion to close the gap is a generalized dispositionalism relative to
mental properties. But not dispositions as they were conceived of in the empiricist tradition. The
dispositional nature of mentalistic vocabulary has been revealed in the most striking way by
Gilbert Ryle. But Carnap and Ryle tried to “analyze away” dispositional terms through reduction
sentences or conditional analysis. Recently, in metaphysics and in the philosophy of science, a
different, realistic approach to dispositional properties has been developed, especially by
Australian philosophers. Dispositional properties have the characteristic of two-sidedness
(Nancy Cartwright): they have a physical base that caused their own manifestations in auspicious
circumstances, like the solubility of a sugar cube which is realized physically in its molecular
structure and causes its dissolution when put in water. That realistic dispositionalism, I believe,
should be extended to include all mental properties, which are also dispositional and realized
physically in the brain. One does not cease to be a conscious being while sleeping deeply (Rudder
Baker) and phenomenal properties can be reconstructed as dispositional (Gozzano). The case for
propositional attitudes is still simpler and well-known. My aim is to show how we can be
intentionalists (by accepting the first part of Brentano’s Thesis) and dispositionalists at the same
time (by accepting that mental states, acts and events have a physical base of realization). In a
nutshell, here is my working hypothesis: intentional phenomena are manifestations of mental
dispositions. That could be a way to close the gap. Intentional properties are everywhere in the
world we inhabit, and that world is not the one described by physics. It is full of artefacts like
institutions and public representations that all depend on intentional phenomena. But a physical
base can, in auspicious circumstances, cause a manifestation which is about something else. That
is the program. Something has to be said about repertoire of concepts and knowledge of meanings
in that context, because public representations instantiate semantic properties which also are
intentional, and many of our mental states have their content specified by the use of a sentence
belonging to a public language.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 42



Keywords: Intentionalism, Dispositionalism, Intentional Properties, Manifestations.
Nancy Cartwright, What Makes a Capacity a Disposition? Center for Philosophy of Natural
and Social Sciences.
<Http://personal.lse.ac.uk/cartwright/PapersGeneral/what%20a%20capacity%20a%20disposi
tion.pdf.>
Gozzano, Simone, The Dispositional Nature of Phenomenal Properties. Topoi, 2018.
Rudder Baker, Lynne, Naturalism and the First-Person Perspective. Oxford: O.U.P., 2013.

6. PASCAL’S WAGER AND IMPRECISE DECISION THEORY


Dr. André Neiva
Research Scholar at Purdue University
al.neiva@gmail.com

Pascal’s Wager is a pragmatic argument for the existence of God. In its most standard form,
Pascal’s argument leads us to conclude that rationality requires one to Wager for the existence of
God because this is the option that maximizes the expected utility. If you bet for the existence of
God and it turns out that God exists, then you get an infinite reward; otherwise, if you bet against
the existence of God when he exists, then you get either a negative infinite or finite utility value.
You are only finitely rewarded for either betting for or against God when he doesn’t exist. Given
that your subjective probability for God’s existence is some positive real-valued number, your
expected utility of betting for God will be infinite, making it much greater than your expected
utility of betting against God, which will be equal to either negative infinity or some finite number.
Thus, assuming that such a decision matrix is right, the principle of expected utility maximization
requires you to bet for God. As attractive as this line of reasoning might look, Pascal’s Wager
depends upon various crucial assumptions. In particular, it is widely assumed that you should
assign a fixed, point-valued subjective probability to the proposition that God exists. But what
happens to this argument if we drop this condition, allowing agents to have imprecise
probabilities instead? A typical way of representing an agent’s entire doxastic state is by appealing
to a set of probability functions rather than just by a single probability distribution. In what
follows, I will explore Pascal’s argument in the context of imprecise decision theory. More
specifically, I will assess the plausibility of different principles of rationality when it comes to a
decision matrix in which it is rationally permissible to have a vague or imprecise subjective
probability in God’s existence. Also, philosophers have challenged Pascal’s argument in a variety
of ways. I will examine whether the imprecise version of this argument stands or not on its own
feet in light of the so-called many God objection, which claims that you are no longer rationally
required to bet for the traditional God of theism whenever one introduces other deities to the
decision matrix.

7. AS POSIÇÕES CLÁSSICAS E RACIONALISTAS SOBRE A AÇÃO HUMANA


Antônio Afonso Ribeiro Neto
Mestrando/PPGFil - Universidade Estadual de Londrina
antonioafoneto@gmail.com

Joseph Raz, em sua obra Engaging Reason, propõe que, em visões básicas sobre a natureza,
fundamentos e elementos da Ação Humana, podemos nos posicionar, basicamente, de duas

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 43



maneiras. Uma concepção clássica da ação ou uma concepção racionalista ou intelectualista. A
posição racionalista propõe que a ação propriamente humana é aquela tomada porque, de todas
as opções abertas ao agente, ela é a que está amparada pela razão “mais forte”. Assim, a concepção
racionalista propõe que as razões – no caso, as razões “mais fortes”, requerem necessariamente
a ação, estando esta injustificada no campo moral se não se puder tornar inteligível qual razão é
a mais poderosa dentre as inúmeras que existem para se tomar uma ação. Raz (1999) aponta que
os racionalistas, em geral, consideram que o próprio querer do agente constitui uma razão para a
ação, de modo que se pode justificar racionalmente qualquer ação apelando-se ao desejo do
agente de agir deste modo. A concepção clássica propõe que a ação propriamente humana é
aquela tomada porque, de todas as opções que o agente pode elencar como racionalmente
elegíveis, ele escolhe, por ato autônomo da Vontade, aquela que tomou. Deste modo, a concepção
clássica não admite que as razões necessariamente requerem uma dada ação, uma vez que
considera que a cognição apenas seleciona uma série de razões possíveis que podem inclinar uma
ação que é realizada, em última instância, pela Vontade, que cumpre um fator independente na
ação humana e não constitui, em si, uma razão para a ação. O objetivo deste trabalho é dissecar
as diferenças entre estas duas concepções, seus elementos e fundamentos e as consequências
mais prementes advindas com o compromisso com alguma delas, ao fim, tentaremos justificar
que a principal chave para entendermos a distinção entre estas duas concepções é a da admissão
ou não do elemento da incomensurabilidade de valores.
PALAVRAS-CHAVE: Incomensurabilidade. Teoria dos Valores. Ética.

8. REASON RECEPTIVITY: THE EPISTEMIC CRITERIA FOR CONTROL


Dr.ª Beatriz Sorrentino Marques
PPGFil – UFMT
bsorrentinom@gmail.com

Guidance control ensures freedom and moral responsibility over the agent’s action. It requires
that the agent’s own mechanisms issue in the action, and that the mechanism is moderately
reason-responsive, according to Fischer and Ravizza. The former requirement preempts cases of
manipulation, like brain control by an evil neuroscientist. Reason-responsiveness requires that
the agent’s action respond to her reasons to act by exhibiting reason reactivity and reason
receptivity. Reason reactivity is the agent’s capacity to choose according to her reasons to act, as
well as her capacity to act according to her choice. Reason receptivity has an epistemic nature. It
is the agent’s capacity to recognize reasons for action, specifically moral reasons. As stated by
Fischer and Ravizza, the mechanism that issues in the action is strongly reason receptive if (i) it
shows a pattern of reason recognition, and the agent (ii) recognizes the reasons that exist for
acting and how they fit together. Additionally, (iii) the pattern must be understandable by a third
party, who should be able to pick out what constitutes sufficient reason for the agent’s action, and
(iv) reasons must relate to each other in an understandable way to form a comprehensible
pattern. Finally, (v) reasons must be grounded in reality, for an agent might have coherent
reasons that form an understandable pattern, but still not grounded in reality. Interesting
phenomena in recent years show the relevance of the epistemic side of control. Some agents act
in a way that may seem cynical or irrational to most of society. Anti-vaxers, for instance, have
earned the label for being against vaccination. Simplifying, they believe that vaccination is bad
instead of good for health. As a result, they refuse to vaccinate their children, which may allow
for the return of, e.g., measles. Should anti-vaxers be held responsible? On the other hand, in a
traditional society in which medical treatments are intertwined with religion, a healer may feed

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 44



herbs to a sick person, as part of a healing ritual. The herbs may be effective for their biochemical
properties, not because they have any spiritual properties, but it seems unreasonable to claim
that the healer’s reasons for acting were not grounded in reality. Cases as these show the
importance of reason receptivity in action control, and its relevance to freedom of action and
moral responsibility. In cases of manipulation—e.g., mind control—the agent does not have
control over her action. I claim that a similar effect may happen if an agent is epistemically
impaired to the point that she is significantly unreceptive to reasons. Phenomena such as
epistemic dishonesty, epistemic bubbles, ideology, and echo chambers show that epistemic
obstacles or manipulation are not uncommon and that these may challenge epistemic receptivity,
but not all of them excuse moral responsibility. Therefore, it is important to evaluate and further
detail the requirements for reason receptivity, as well as whether failure to fulfill these
requirements results in lack of responsibility for one’s actions.

9. A PERSPECTIVA INTERNISTA DA JUSTIFICAÇÃO EPISTÊMICA


Dr. Carlos Augusto Sartori
PPGFil – UFSM
carlos.augusto.sartori@gmail.com

O conservadorismo fenomênico (CF) assume que se algo parece a S como se p e não há


anuladores, então S tem justificação suficiente para crer que p. Michael Huemer diz que essa é a
posição epistemológica normal: aceitar as coisas como elas aparecem, se não há nada que indique
o contrário. Em defesa do CF, pode-se apelar para sua motivação internista: para que S esteja
justificado em crer que p, as razões de S são coisas que S poderia apresentar em defesa de p, e
essas razões incluem o modo como as coisas parecem ser para S. O modo como as coisas parecem
ser é interno à mente de S e determina fatos epistêmicos relativamente a S. Ora, dadas duas
proposições p e q, tais que p e q parecem compartilhar todos os aspectos epistêmicos, então, do
ponto de vista de S, ambas devem ser justificadas ou ambas injustificadas. Todavia, se a
justificação dependesse de um fator externo (fator-E), numa situação em que p tem o fator-E e q
não tem o fator-E, então S estaria justificado em crer que p mas não justificado em crer que q, o
que é incoerente, já que tanto p e q são epistemicamente idênticas. Portanto, o fator-E é
irrelevante para o modo como as coisas parecem a S. A ideia é que a justificação epistêmica é
concebida melhor se os fatores justificacionais são internos a S e, assim, se promoverá uma defesa
da perspectiva internista da justificação epistêmica a partir de Huemer, Feldman e Steup.
Defende-se, também, que essa visão internista pode ser ampliada a qualquer forma de
fundacionismo.

10. SPACE OF MOTIVATIONS, MEDIATIONAL FIELDS AND DYNAMIC SITUATED


SENSES
Dr. Carlos Mario Márquez Sosa
Posdoctoral Research Fellow – USP
cmmarquezs@gmail.com

The purpose of this presentation is to introduce the notions of Mediational Fields and Dynamic
Situated Senses as a way to identify the logical structure of perceptual experiences. In order to
introduce the previous topics I will draw some lessons from the famous debate between Dreyfus
and McDowell about the structure of experience. I will notice, firstly, that even accepting
McDowell’s characterization of human experience as essentially permeated with conceptuality

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 45



and mindedness, that by itself is not a view, as McDowell himself recognized, against the
possibility of postulating another kind of knowledge that guides other kinds of experiences.
Experiences of non-rational animals although non-essentially permeated by conceptuality are
still (animal-involved) experiences that disclose for them an environment of motivational forces.
That disclosure may not provide openness to a world of truth-conditional structures, but it could
perfectly provide openness to a world structured as a mediational and motivational field.
McDowell noted that it is a quick and not really good argument to move from the possibility of
describing the structure of experience of non-rational animals as permeated by a kind of
knowledge that presents for them the world as a mediational field, to the ascription of non-
conceptual contents as the ground and essence of human experience. I will assume here that
McDowell’s view about human experience is, by and large, correct. However, even assuming, as
McDowell urges us to assume, that the fundamental function of human experiences is to disclose
a world that can be truth-conditionally structured that by itself does not constitute an argument
to deny that there are other ways of experience in which the world is presented or disclosed as a
space that is not -and need not be- truth-conditionally structured. McDowell may admit this
thesis. His answer to Dreyfus consists mainly in noticing that his notion of conceptuality,
mindedness and rationality is not a notion of detached, un-situated and non-motivational
contents. That is a notion of conceptuality that is not entirely exhausted by the truth-conditional
characterization of conceptual contents. He presents the notion of undetached conceptuality
characterizing conceptual contents as practical and demonstrative (or as I will say, enactive and
situated). We could perfectly continue McDowell’s reasoning about situated and enactive
conceptuality emphasizing the following: what perception discloses for human beings is not
restricted to truth-conditional -non-motivational and non-mediational structures. How the world
is presented when it is structured as a mediational and motivational field? Is it really a sui generis
structure, or that is just another way in which openness to a world of truth-conditional structures
is presented? Those are genuine questions that are not solved by assuming McDowell’s
epistemological stance against the Given and against detached conceptuality. In order to tackle
those questions -taking as background McDowells’ conception of engaged mindedness- I will
introduce Cussins’ distinction between mediational and referential contents and compare it with
Dreyfus characterization of a space of motivations and Alva Nöe postulation of sensorimotor
understanding.
References
Clark, A. and Chalmers, D. 1998. The Extended Mind. Analysis
Cussins, A. 1990. «The Connectionist Construction of Concepts». In M. Boden (Ed.) The
Philosophy of Artificial Intelligence. Oxford: Oxford University Press.
Cussins, A. 1992. «Content, Embodiment and Objectivity: The Theory of Cognitive
trails». Mind, 101(404), 651-688.
Cussins, A. 2003. «Content, Conceptual Content, and Nonconceptual Content». In Y. Gunther
(Ed.), Essays on Nonconceptual Content. Cambridge: MIT Press.
Cussins, A. 2012. «Environmental representation of the body». Review of philosophy and
psychology, 3(1), 15-32.
Dreyfus, H.L., 2005, November. «Overcoming the Myth of the Mental: How Philosophers can
Profit from the Phenomenology of Everyday Expertise». In Proceedings and addresses of the

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 46



American Philosophical Association (Vol. 79, No. 2, pp. 47-65). American Philosophical
Association.
Dreyfus, H.L., 2007a. «The Return of the Myth of the Mental». Inquiry, 50(4), pp.352-365.
Dreyfus, H., 2007b. «Detachment, Involvement, and Rationality: Are We Essentially Rational
Animals? Human Affairs, 17(2), pp.101-109.
Dreyfus, H.L., 2007c. «Response to McDowell». Inquiry, 50(4), pp.371-377.
Dreyfus, H.L., 2013. «The Myth of the Pervasiveness of the Mental». In Mind, reason, and being-
in-the-world (pp. 25-50). Routledge.
Evans, G., 1985. Collected Papers. Oxford University Press.
Evans, G., 1982. The Varieties of Reference. Oxford: Clarendon Press.
Gunther, Y. (Ed.), Essays on Nonconceptual Content. Cambridge: MIT Press.
Heidegger, Martin. The Fundamental Concepts of Metaphysics: World, finitude, solitude.
Indiana University Press, 1995.
Husserl, E., 2012. Ideas: General introduction to pure phenomenology. Routledge.
McDowell, J. 1994. Mind and World. Boston: Harvard University Press.
McDowell, J., 1998a. Meaning, knowledge, and reality. Harvard University Press.
McDowell, J. 1998b. Mind, value, and reality. Harvard University Press.
McDowell, J., 2005. «Evans’s Frege». Thought, reference, and experience: Themes from the
philosophy of Gareth Evans, pp.42-65.
McDowell, J., 2007a. «What myth? ». Inquiry, 50(4), pp.338-351.
McDowell, J., 2007b. «Response to Dreyfus». Inquiry, 50(4), pp.366-370.
McDowell, J., 2008. «Avoiding the Myth of the Given». John McDowell: Experience, norm, and
nature, pp.1-14.
McDowell, J., 2013. «The myth of the mind as detached». In Mind, reason, and being-in-the-
world (pp. 41-58). Routledge.
Merleau-Ponty, M., 1996. Phenomenology of Perception. Motilal Banarsidass Publishe.
Murillo L.A. 2019. «The Content of the Body Representations that Guide Everyday Action». In
Organon F 1 (27). Received: 9 August 2018 / Accepted: 31 May 2019
Noë, A., 2004. Action in Perception. MIT press.
Noë, A., 2012. Varieties of Presence. Harvard University Press.

11. RETHINKING UTILITY AND RATIONALITY THROUGH GARY BECKER’S


PREFERENCE FORMATION THEORY
Catarina Tello de Castro
MA Student - Centro de Filosofia - Universidade de Lisboa
catarinatellodecastro@gmail.com

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 47



Tastes or preferences are fundamental elements for the development of any economic model.
Until Gary S. Becker (1930-2014), it seems that this element was guaranteed to be fixed or without
relevant variations over time. Gary Becker adds variables and develops the idea that preferences
- both for consumption and for those that can be found in another domains of life - are changeable
due to internal and external conditions of the agent through time. Becker represents these
preferences through his extensive version of rational choice, i.e., the idea that all preferences
operate and are valid within a rational action which is the one that maximizes welfare for the
group or the agent alone. This welfare is whatever the agents consider to be. This enables analysts
to predict, according to utility functions which consider past choices, what will be the (near)
future choices and understand the present ones. The model that Becker proposes is quite accurate
regarding its results and it is fundamentally useful for family and public economics.
However well-constructed and closed this framework may be, Becker only seems to do a
descriptive analysis and assumes, optimistically, optimal behaviours even by agents who may not
be in their full capacities (e.g. drug addicts). It is not, however, our intention to go against Becker’s
econometrical model, but only to point out that there are some issues that his theory may not
consider. We point out two main problems which are relevant in an epistemological and
normative viewpoint:
1) Epistemic implausibility about agents’ behavior, then, epistemically implausible predictions.
2) The use of a (too) weak definition of rationality that will endorse destructive or self-destructive
actions.
Our aim is to follow Jon Elster (1997) as well as Peter Swann’s (1999) arguments on why Becker
makes epistemic implausible statements, as well as to defend a stronger use of “rationality” in
order to defend a distinction between a strictly descriptive theory of rational choice and a
normative theory of rational choice. With this distinction (which brings back the debate between
classical and neoclassical traditions) we do not intend to undermine the utility function model,
but to rethink, through Becker’s work and theoretical innovations the concept of utility.

12. É O PARADIGMA SIMULACIONISTA COMPATÍVEL COM UM FISICALISMO


NÃO-CEREBRALISTA?
Dr. César Fernando Meurer
PPGFil – UFABC
meurer.c@ufabc.edu.br

Nas últimas décadas, tanto a compreensão linguística quanto a memória episódica e semântica
vêm sendo descritas como processos de simulação mental de experiências (sensório-motoras e
outras). Farei uma breve apresentação desse entendimento, que denomino “paradigma
simulacionista”, a fim de explorar se ele pode ser compatibilizado com a concepção fisicalista não-
cerebralista de mente que vem sendo desenvolvida por Manzotti (2017; 2019). Para tanto,
chamarei a atenção para algumas ideias-chave dessa concepção: (1) Relatividade objeto-objeto:
objetos físicos têm natureza relativa e atual, isto é, suas propriedades se definem em relação a
outros objetos & em relações atuais no espaço-tempo. (2) Identidade experiência-objeto: o corpo
humano é um objeto físico em relação ao qual objetos do entorno (de natureza relativa e atual)
passam a existir. (3) Relatividade do presente: o tempo presente é tal que engloba o conjunto das
relações causais que constituem o mundo físico de um indivíduo. (4) Objetos passados estão
causalmente presentes na memória: desse modo, lembrar é experienciar, isto é, uma espécie de

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 48



experiência perceptiva com escala temporal diferente. Ao modo de conclusão, apontarei objeções
ao fisicalismo e à proposta de compatibilização com o paradigma simulacionista.

13. NÚMEROS COMO FERRAMENTAS COGNITIVAS


César Frederico dos Santos
Doutorando/Universidade Livre de Amsterdã
Prof. UFMA
cesarfredericosantos@gmail.com

Nesta comunicação, apresentarei uma proposta acerca da natureza da aritmética segundo a qual
números são ferramentas cognitivas. Esta proposta é massivamente inspirada em pesquisa
científica na área das ciências cognitivas, em especial numa área chamada cognição numérica,
bem como em achados da psicologia do desenvolvimento e da pedagogia matemática. Nesta
proposta, não existem números tais como entendidos tradicionalmente, isto é, como os referentes
dos numerais, os quais são muitas vezes vistos como entidades abstratas existentes fora do espaço
e do tempo. Os numerais, aqui, são nomes vazios, sem referência. A razão para isso está
exatamente nos resultados científicos que inspiram esta proposta, que resumo brevemente a
seguir. Estudos com crianças que estão aprendendo os números revelam que elas começam
decorando a sequência dos numerais como uma sequência de palavras sem significado. Elas vão
aprender o significado dos numerais somente quando dominarem o processo de contagem—o
qual elas também não sabem, inicialmente, para que serve nem o que significa. Nesta etapa
inicial, a criança recita numerais e conta coleções apenas mecanicamente, sem realmente
entender o que está fazendo. Porém, quando a aprendizagem é finalizada, a criança terá
desenvolvido conceitos numéricos que serão associados àqueles numerais inicialmente sem
significado. Estes conceitos, num primeiro momento, não são entendidos como referindo-se a
números (no sentido de objetos externos); eles têm apenas função operacional no uso da
contagem. Mais tarde, porém, quando avançamos na educação matemática e aprendemos
operações tais como adição e multiplicação, os conceitos numéricos são reificados, isto é, passam
a ser vistos como se referissem-se a objetos externos (que chamamos, então, de números). Este
processo de reificação é instrumental: passamos a tratar os números como se fossem objetos reais
porque isso traz vantagens cognitivas, notadamente a facilitação de cálculos mentais. Nesta
descrição científica da aquisição do conceito de número, portanto, não existem números, mas
apenas a ideia de que existem números, que se origina da necessidade de tornar operações
aritméticas mais fáceis em termos cognitivos. Dentro deste quadro, mostro como é possível
entender a objetividade e a verdade de enunciados numéricos nos quais numerais são nomes
vazios. A proposta é que enunciados aritméticos são descrições de procedimentos associados ao
processo de contagem e às operações definidas sobre ele. Por exemplo, nesta proposta a adição é
entendida como o processo de mover-se um determinado número de casas à frente na sequência
dos numerais, a partir de um ponto dado. Assim ‘2+2=4’ é uma sentença verdadeira porque ela
descreve fielmente a operação segundo a qual, partindo-se de ‘2’ e movendo-se duas casas à
frente, chega-se a ‘4’. Dessa forma, as verdades aritméticas são objetivas porque as regras que
regem as operações que elas descrevem são determinísticas e não dão espaço à subjetividade. Por
ser uma abordagem da ontologia da aritmética empiricamente informada, a proposta a ser aqui
apresentada está sujeita à refutação empírica, sendo, portanto, a realização de um projeto
genuinamente naturalista no campo da filosofia da matemática.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 49



14. TEÍSMO ABERTO, DEUS E O TEMPO – COMPATIBILIDADES E
INCOMPATIBILIDADES DA EXISTÊNCIA DE UM SER ATEMPORAL EM UM
MUNDO TEMPORAL
Cristiano Dutra Batista
Doutorando/PPGFil-UNB
cristiano.batista@gmail.com

Esta comunicação tem o objetivo analisar o problema da relação de Deus com o tempo a partir da
perspectiva do Teísmo Aberto. Não serão apresentados argumentos a favor da existência de Deus,
dado tratar-se justamente de uma análise da adequação das teorias sobre a natureza do tempo ao
Teísmo Aberto que é uma teoria teísta que defende que o conhecimento de Deus sobre o futuro é
condicionado pelas nossas ações. De acordo com essa teoria, Deus não possui conhecimento
sobre nossos atos futuros, isso porque este conhecimento é sobre contingentes que não possuem
valor de verdade; o futuro é indeterminado (aberto). A onisciência divina seria entendida como a
capacidade de conhecer todas as verdades logicamente possíveis de serem conhecidas. Tal
interpretação da onisciência de Deus é a base da solução proposta pelo Teísmo Aberto ao
problema do conflito entre presciência divina e livre arbítrio.
Expostas as linhas gerais sobre o escopo da análise a ser feita serão apresentadas as hipóteses de
temporalidade ou atemporalidade de Deus. Deus é temporal sse ele está contido no tempo e
participa da experiência da passagem do tempo; Deus é atemporal sse está fora do tempo e não
participa da experiência da passagem do tempo.
A atemporalidade de Deus tem origem nas teorias medievais fortemente influenciadas pelo
neoplatonismo, o que é fortemente criticado pelo Teísmo Aberto. De acordo com essa crítica a
ideia de um Deus atemporal surge da necessidade de conjugar a existência estática de Deus, cuja
simplicidade era valorizada acima da complexidade bem como a permanência sobre a mudança
ou movimento pelos pensadores neoplatônicos, um ser perfeito seria então um Deus imóvel,
imutável. O que afirmam os defensores do Teísmo Aberto é que essa interpretação é um tanto
quanto “contaminada” pelas crenças dos pensadores neoplatônicos, amplamente estudados pelos
primeiros pais da igreja que moldaram o pensamento medieval.
Dentre as defesas possíveis à temporalidade de Deus, usarei a que versa sobre sua capacidade de
interagir com o mundo. Tal capacidade, por si só já é indício de temporalidade. Por “ação”
podemos entender, grosso modo, a capacidade de alterar estados de coisas ou ideias; por sua vez,
“alterar” algo é passar tal coisa de um estado de existência x em um tempo t1 para um estado de
existência y em t2. Portanto a própria capacidade de agir já implica “agir no tempo”. Por outro
lado, como seria possível a existência no tempo de um ser que teoricamente criou o próprio
tempo? Se falarmos da existência de Deus “antes do tempo”, já estamos falando em termos
temporais. Neste caso ou o próprio tempo é finito e, portanto, não comportaria em si uma
existência infinita; ou o tempo sempre existiu. Neste último caso o que seria o tempo? Algo que
coexistente com Deus, sendo tão eterno quanto ele, ou algo que é parte dele (visão panenteísta).
Por fim, uma última alternativa, a da inexistência do tempo, será apresentada antes da conclusão
que avaliará qual das alternativas apresentadas melhor se adequam à proposta do Teísmo Aberto
e como.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 50



15. COMPUTATIONAL PHILOSOPHY AND IN SILICO UNIVERSES
Dr. Daniel Sander Hoffmann
UERGS
daniel-hoffmann@uergs.edu.br

Computational philosophy employs computers in order to support philosophical investigations.


Hence, it is not about computation or about computers per se—and it is certainly not “philosophy
of computation,” as one would have it. Indeed, computation, as far as computational philosophy
is concerned, is most definitely not its subject-matter; rather, computers and programming
languages (and techniques) are to be considered simply as an important part of the contemporary
philosopher’s toolbox. Meaningful examples of computational philosophy in action include,
among others, automated theorem provers, cooperation studies based on game theory, the use of
agent-based models in evolutionary theory and in social epistemology, network simulations of
scientific (and other) endeavors, and artificial intelligence programs employed by professional
philosophers in order to gain first-hand experience with these tools—to professedly arrive, one
presumes, at interesting, if not useful, philosophical insights about perception, consciousness and
the mind. At last, but not least, there is the modeling and simulation of abstract physical universes
using computational resources. The latter are of interest, I believe, to philosophers of physics, to
philosophers of time, and to philosophers of cosmology, to cite only a few. In this work, I describe
and exemplify the use of a specific tool, namely a collection of computational functions and a
graph-theoretical framework recently developed by physicist Stephen Wolfram and coworkers to
support his view that it is possible for one to computationally arrive at the ultimate representation
of the universe, a reductionist physical model based upon a single and simple underlying rule. It
must be stressed that it is not my intention here to fully support, nor to viciously denounce,
Wolfram’s overall worldview. My goal, to put it succinctly, is to demonstrate, using a practical
example, how such an advanced computational tool enables the interested computational
philosopher to engage in a series of sensible—albeit computationally intensive—in silico
experiments with the entrails of Nature itself.
Keywords: Computational philosophy; Graphs; Mathematica; Philosophy of cosmology;
Wolfram Language.

16. CAUSALIDADE DO AGENTE NA AÇÃO LIVRE: SERIA SEARLE UM


NEOKANTIANO?
Daniel Pires Nunes
Doutorando/PPGFil - UCS
daniel.nunes@erechim.ifrs.edu.br

Para Kant somente a ação racional é livre. E na terceira antinomia da razão pura defende que
teríamos liberdade para agir ou de romper com a cadeia causal determinista do mundo se
tivéssemos a capacidade de dar início a um estado de coisas de forma absoluta, independente dos
demais estados de coisas. Ou seja, que haveria como compatibilizar a causalidade determinista
do mundo bruto com a possibilidade da ação livre. Para John Searle os estados mentais de um
agente devem poder ser acerca do que lhes é externo para que a ação possa ser considerada livre.
Para ele, entretanto se tal ação tiver como causa suficiente uma crença ou um desejo, não há como
se afirmar que esta ação é livre, isto porque, neste caso não há rompimento com a relação de causa

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 51



e efeito. Para que haja esse rompimento, o móbil da ação necessariamente deve originar-se em
algo independente dos desejos. Neste sentido, uma razão para a ação – que deve ser externa ao
próprio estado mental – é que origina a motivação da ação livre. A vontade de agir surge então a
partir desta razão independente do desejo que é um motivador para a ação livre. Para Searle, isto
se dá no âmbito da intencionalidade, da qual faz parte a racionalidade. À primeira vista, a
compreensão searleana converge para a explicação kantiana quanto à ação livre.
Sendo assim, pretende-se analisar a postura filosófica de John Searle e algumas de suas
implicações no âmbito sobretudo da ontologia das relações causais na ação livre. Verificar-se-á
se a proposta kantiana de que o sentimento de respeito pela lei moral como efeito do intelecto
sobre a sensibilidade foi aprimorada com outra roupagem por Searle, apesar da postura
pretensamente naturalista deste. Trata-se também de pensar os conceitos de livre-arbítrio e
causalidade na ação livre articulados de forma interdisciplinar com resultados de estudos
científicos e com outras correntes da filosofia contemporânea que abordam o problema “mente e
corpo”. Diante desse panorama, propõe-se cumprir com o desafio de avaliar se o naturalismo
biológico de John Searle em Filosofia da Mente oferece, a partir de sua ontologia das relações
causais na ação livre, um novo embasamento para uma ética deontológica neokantiana. Para
isso, será preciso analisar como se dá a causalidade do agente em Kant, bem como de que forma
se dá a causalidade do agente no naturalismo biológico searleano, para então sistematizar a
relação entre a causalidade do agente em Kant e em Searle. A partir daí, propõe-se avaliar se a
universalidade das leis morais é compatível com a origem evolutiva da moralidade e da
intencionalidade e, por fim, avaliar o estatuto ontológico das relações causais na ação livre.
Palavras-chave: causalidade do agente, ontologia do livre-arbítrio, John Searle, ação livre,
Kant.

17. EVOLUÇÃO E NEUROCIÊNCIA PARA ABORDAR A ORIGEM DA MENTE


HUMANA
Daniel Uptmoor Pauly
Doutorando/PPGFil - Unisinos
dupauly@gmail.com

Aos poucos a ciência reúne peças do quebra-cabeça escondido na cabeça humana. Pretendemos
apontar algumas dessas peças sugerir uma teoria que pode combiná-las harmonicamente. A
média do quociente de encefalização (QE) em humanos é a mais elevada já registrada entre os
animais. Grandes primatas são similares em termos do QE e desempenho cognitivo e social,
pautando como referência uma média entre as demais espécies não-humanas. Tanto a capacidade
de processamento de informação de um organismo, como o número máximo de membros
pertencentes aos grupos formados por primatas, são ambos proporcionais à razão entre o volume
do neocórtex e o volume corporal. A variação do QE estimada ao longo da evolução passou por
momentos de estagnação (entre 1.800 – 600 mil anos atrás), alcançando seu auge entre 600 e
200 mil anos (no qual o QE praticamente triplicou). Esse período de rápida mutação é
acompanhado de alterações profundas no comportamento humano. Absolutamente, em nenhum
momento nos desvinculamos completamente de nossa animalidade. Entretanto, algum
diferencial se mostra presente em nossa espécie por conta dos crânios avantajados que protegem
nossos córtices e lobos compartimentados em módulos integrados, da mais alta eficiência. Esse
panorama introdutório justifica levantarmos a questão: o aumento do número de neurônios afeta
a forma como o processamento da informação se dá? Com a intenção de contribuir com os
debates iniciados na virada linguística, propomos contrastar as interpretações reducionistas e

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 52



dualistas. Ao avaliar o conceito filosófico da emergência, famoso pela máxima “o todo é maior
que a soma das partes”, propomos uma analogia com o pixel, a menor unidade que transmite
informação visual compondo imagens digitais. Mesmo mantendo constantes suas propriedades
físicas, haverá perda da informação transmitida pelo pixel isolado comparado a ele mesmo
inserido na imagem. Mesmo uma pequena alteração de um ou mais de pixeis de uma imagem
pode corromper ou inverter a mensagem contida na imagem, tal informação só está presente no
todo. Analogamente, o neurônio, a menor parte que compõe o sistema nervoso, carregará menos
informação estando separado. Em matrizes bidimensionais formando imagens digitais, a
densidade de pixeis limita o grau de detalhe e precisão possíveis, uma menor densidade de
neurônios, por razões similares, deve ser vaga e pouco definida comparada a uma rede formada
por um grande número de neurônios. Nossa hipótese é que a defesa da emergência, não
necessariamente implica no dualismo, podendo ser compatibilizada se revisarmos a teoria
reducionista. Na física, a teoria da auto-organização está razoavelmente estabelecida, várias
estruturas podem reger sua própria distribuição não-aleatória por conta de suas relações
internas, sem direcionamento externo. Não parece necessário lançar mão de quaisquer
fenômenos não-físicos, simplesmente porque as próprias interações materiais entre os neurônios
agregam informação.
Palavras-chave: Neurociência, evolução, mente humana.

18. SIMPLICITY AND UNIFORMITY: TWO MYTHS ABOUT TASTE


DISAGREEMENTS
David Bordonaba Plou, PhD
FONDECYT postdoctoral researcher - Universidad de Valparaíso
davidbordonaba@gmail.com

1. Introduction
Taste disagreements have been one of the topics that have received much attention in the
philosophy of language in the last fifteen years. These disagreements have been characterized
using examples like the following:
David: Licorice is tasty.
Layla: That’s not true. Licorice is not tasty.
Although widespread, this characterization –henceforth the standard characterization, or TSC for
short– is not adequate because taste disagreements are often complex conversations that rarely
fit a statement-response pattern. This work defends that typical two-turn examples to represent
taste disagreements is a misguided strategy that has helped to consolidate two false ideas about
taste disagreements: the myth of simplicity and the myth of uniformity. The former refers to an
oversimplification of taste disagreements; the latter to the idea that taste disagreements are
expressed mostly in the same way, using the same expressions. Against these two ideas, I argue
that taste disagreements are larger and more complex than one might expect given TSC, and that
they are expressed in a variety of ways, using not only typical explicit marks of disagreement such
as ‘no’, ‘I disagree’, or ‘that’s not true’, but other linguistic constructions.
2. Two Sources of Motivation
Taste disagreements are complex conversations that rarely fit a statement-response pattern. The
sources of motivation for defending this idea come from two different fields: philosophy of

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 53



language and linguistics. On the one hand, from the philosophy of language, some authors
(Schaffer 2011; Bordonaba, 2020) have argued that our examples should be more extensive than
two turns because it is crucial to consider possible developments of the conversation to show the
dynamic features of taste disagreements.
On the other hand, corpus linguistics for pragmatics (see Tao 2003; Rühlemann 2019) and
conversation analysis (see Stivers 2008; Dayter 2015), two fields of linguistics that empirically
study conversations, rarely use two-turn examples. They usually employ examples from everyday
conversations that easily exceed ten lines of conversation, in some cases, reaching forty or fifty
lines.
3. Methodology: Experimental Philosophy and Corpus Linguistics
To determine if taste disagreements are simple, as TSC purports, or somewhat complex, I use
linguistic corpora made from Reddit threads. Although Reddit threads are not spoken everyday
conversations, both share a linearly arrayed structure. Then, I will conduct various analyses on
the corpora to determine how far away TSC has been of taste disagreements as they happen in
real everyday conversations. I will examine three different issues: i) how long taste disagreements
usually are; ii) how frequent are follow-ups when someone expresses disagreement; and iii) the
different ways in which speakers express disagreement.
References
Bordonaba, D. (2020). “Coordination of Contexts and Taste Disagreements”, Daimon.
Dayter, D. (2015). “Small Stories and Extended Narratives on Twitter”, Discourse, Context and
Media 10, 19-26.
Rühlemann, C. (2019). Corpus Linguistics for Pragmatics. A Guide Research. New York:
Routledge.
Stivers, T. (2008). “Stance, Alignment, and Affiliation during Storytelling: When Nodding is a
Token of Affiliation”, Research on Language & Social Interaction 41(1), 31-57.
Schaffer, J. (2011). “Perspective in Taste Predicates and Epistemic Modals”, in Epistemic
Modality, A. Egan, B. Weatherson (eds.), Oxford: Oxford University Press, 179-226.
Tao, H. (2003). “Turn Initiators in Spoken English: A Corpus-based Approach to Interaction and
Grammar”, Language and Computers 46(1), 187-207.

19. NECESSIDADE E POSSIBILIDADE SÃO INTERDEFINÍVEIS? O CASO DE


WITTGENSTEIN
Diego de Souza Avendano
Doutorando/PPGFil – Unifesp
iego.s.avendano@gmail.com

O objetivo desta apresentação é expor a base filosófica por trás das propostas de Wittgenstein ao
tratar das noções de possibilidade e necessidade. Para tanto, procurarei contrastar os escritos do
período final com o que se lê no Tratactus sobre possibilidade e necessidade, prestando atenção
ao seu contexto de origem e considerando uma distinção entre possibilidade física/possibilidade
combinatória para analisar quais são as implicações modais da mudança radical na concepção de
linguagem. A questão que pretendo enfrentar aqui é: o essencial às noções de possibilidade e

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 54



necessidade permanece imutável ou o uso do termo possibilidade, apresentado como as sombras
de nossas sentenças, e o uso do termo necessidade, apresentado como inexorabilidade – tal como
na Gramática Filosófica, nas Investigações Filosóficas e nas Observações sobre os Fundamentos
da Matemática – são radicalmente diferentes daquele uso de possibilidade e necessidade advindo
da combinatória vero-funcional? Tal pergunta se faz relevante se assumirmos a concepção modal
que apresenta uma interdefinição das noções de necessidade e possibilidade, i.e., se uma
proposição qualquer P é necessária, então não é possível que Não-P. Ao final da exposição, espero
ser capaz de sustentar que, ainda que as noções de possibilidade e necessidade sejam diferentes,
Wittgenstein toma cuidado para nunca aproximar o tratamento semântico das sentenças
necessárias àquele dispensado às sentenças contingentes, de modo que o autor não subscreveria
à uma interdefinição em nenhum momento de sua filosofia.

20. CONSIDERAÇÕES SOBRE OS CÔMPUTOS DE RELEVÂNCIA NA FORMAÇÃO


DE CONCEITOS AD HOC
Dr. Diogo de França Gurgel
PPGFil - UFF
diogo.gurgel@gmail.com

Na apresentação proposta, farei um contraste entre a Teoria da Relevância (conforme


desenvolvida por Deirdre Wilson e Dan Sperber) e certas vertentes da Cognição 4E, no tocante a
suas abordagens da natureza cognitiva dos conceitos ad hoc. De acordo com o trabalho seminal
de Lawrence Barsalou, conceitos ad hoc (como “x é objeto que serve para bloquear uma porta”)
têm formação teleologicamente orientada (goal-derived), não sendo, portanto, formados de
acordo com o modelo clássico de conceito, i.e., a partir do maior número de semelhanças entre
seus membros típicos. Minha hipótese de trabalho é que certos modelos desenvolvidos na esteira
da Cognição 4E, por não se comprometerem com o pressuposto de que o objetivo geral (general
goal) da cognição humana é aprimorar o conhecimento acerca do mundo, e por abrirem espaço
para um tipo de conhecimento não interpretativo em seu sistema, permitem uma melhor
abordagem da formação e da atuação efetiva de conceitos ad hoc.

21. KNOWLEDGE-FIRST ACCOUNT OF GROUP KNOWLEDGE


Domingos Faria, PhD
FCT Junior Researcher LanCog, Centre of Philosophy, University of Lisbon
df@domingosfaria.net

In this talk, we want to relate two trending topics in contemporary epistemology: the discussion
of group knowledge and the discussion of knowledge-first approach. In social epistemology of
group knowledge no one has yet seriously applied and developed Williamson’s theory of
knowledge-first approach. For example, explanations for group knowledge, as presented by
Tuomela (2004), Corlett (2007), Gilbert (2014), and Lackey (2020), assume that knowledge is
analysed in terms of more basic concepts, such as group belief, group justification, and so on.
However, if Williamson’s theory is correct, these are not good explanations for understanding
group knowledge. Thus, we want to analyze what consequences Williamson’s theory has for social
epistemology, namely for an understanding of group knowledge.
Starting with the first-knowledge approach, Williamson (2000, 33) argues that “the concept
knows cannot be analysed into more basic concepts”. Knowledge is prior to other epistemic kinds,

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 55



being the concept of knowing a theoretical primitive. But he gave a positive understanding of
knowledge; namely, Williamson (2000, 34) holds that “knowing is the most general factive stative
attitude, that which one has to a proposition if one has any factive stative attitude to it at all”. In
other words, knowledge is the most general factive mental state.
Regarding group knowledge, there are two perspectives in confrontation: summativism and non-
summativim. According to the summativist view, to ascribe knowledge to a group is an indirect
way of ascribing such knowledge to its members. Its first formulation is attributed to Quinton
(1976), but there are several versions of summativism, some more plausible than others. Lackey
(2020) developed a minimal version of summativism which provides only a necessary condition,
but not itself sufficient, for group knowledge. This minimal version holds that a group 𝑔 has
knowledge 𝐾 only if some members of 𝑔 have that knowledge 𝐾. So, the minimal summativist
view implies the following characterization of group knowledge:
Summativism =df Necessarily, a group 𝑔 has knowledge 𝐾 only if at least one individual 𝑖 is both
a member of 𝑔 and has 𝐾.

□(𝐾𝑔 → ∃𝑖(𝑖 ∈ 𝑔 ∧ 𝐾𝑖))


By contrast, the non-summativist view of group knowledge rejects this thesis, holding that group
knowledge might diverge from individual members’ knowledge. So, a group 𝑔 can have
knowledge 𝐾 even when no member of 𝑔 has 𝐾. There are also several versions of non-
summativism, such as Gilbert (1989, 2014), Bird (2010, 2014), Carter (2015), and Kallestrup
(2019). But all of these approaches accept this characterization of group knowledge:
Non-summativism, =df Possibly, a group 𝑔 has knowledge 𝐾 even when no individual member of
𝑔 has 𝐾.

(𝐾𝑔 ∧ ¬∃𝑖(𝑖 ∈ 𝑔 ∧ 𝐾𝑖))


If Williamson’s approach to knowledge-first is correct, how should group knowledge be
understood? Should it be understood in a summative way? Or, instead, in a non-summative way?
When Williamson discusses the nature of the evidence, he appears to be inclined to accept non-
summativism. In this regard Williamson (2000, 185) argues that “the communal case is needed:
science depends on public evidence, which is neither the union nor the intersection of the
evidence of each scientist. We can ascribe such knowledge by saying that 𝑝 is known in
community 𝑆, or that we know 𝑝, which is not equivalent to saying that some, many, most, or all
of us know 𝑝”. Although Williamson (2000) does not develop his argument beyond this quote, he
seems to accept non-summativism and reject summativism. Therefore, according to Williamson,
group knowledge cannot be reducible to individual knowledge and to individual factive mental
states. Instead, one has to resort to collective factive mental states in order to accommodate
group knowledge.
Thus, following Williamson (2000), a consequence of knowledge-first approach for
understanding group knowledge is to account for factive mental states at collective level (in ways
that are not reducible at individual level). So it would be necessary to provide and develop a
plausible understanding of collective minds and collective mental states in a non-reductionist
way, for example, based on the work of Tollefsen (2006) and Huebner (2014).
References
Bird, Alexander. 2010. “Social Knowing: The Social Sense of ’Scientific Knowledge’.”
Philosophical Perspectives 24 (1): 23–56. https://doi.org/10.1111/j.1520-8583.2010.00184.x.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 56



———. 2014. “When Is There a Group That Knows?” In Essays in Collective Epistemology, edited
by Jennifer Lackey, 42–63. Oxford University Press.
https://doi.org/10.1093/acprof:oso/9780199665792.003.0003.
Carter, J. Adam. 2015. “Group Knowledge and Epistemic Defeat.” Ergo, an Open Access Journal
of Philosophy 2 (20190926). https://doi.org/10.3998/ergo.12405314.0002.028.
Corlett, J. Angelo. 2007. “Analyzing Social Knowledge.” Social Epistemology 21 (3): 231–47.
https://doi.org/10.1080/02691720701674049.
Gilbert, Margaret. 1989. On Social Facts. Routledge.
———. 2014. Joint Commitment: How We Make the Social World. Oxford University Press.
https://doi.org/10.1093/acprof:oso/9780199970148.001.0001.
Huebner, Bryce. 2014. Macrocognition: A Theory of Distributed Minds and Collective
Intentionality. Oxford University Press.
https://doi.org/10.1093/acprof:oso/9780199926275.001.0001.
Kallestrup, Jesper. 2019. “Groups, Trust, and Testimony.” In Trust in Epistemology, 136–58.
Routledge. https://doi.org/10.4324/9781351264884-6.
Lackey, Jennifer. 2020. The Epistemology of Groups. Oxford University Press.
Quinton, Anthony. 1976. “Social Objects.” Proceedings of the Aristotelian Society 76 (1): 1–28.
https://doi.org/10.1093/aristotelian/76.1.1.
Tollefsen, Deborah Perron. 2006. “From Extended Mind to Collective Mind.” Cognitive Systems
Research 7 (2-3): 140–50. https://doi.org/10.1016/j.cogsys.2006.01.001.
Tuomela, Raimo. 2004. “Group Knowledge Analyzed.” Episteme 1 (2): 109–27.
https://doi.org/10.3366/epi.2004.1.2.109.
Williamson, Timothy. 2000. Knowledge and Its Limits. Oxford University Press.
https://doi.org/10.1093/019925656x.001.0001.

22. PRIVACIDADE E AUTONOMIA NA ERA DE BIG DATA


Dr.ª Edna Alves de Souza
Pós-doutoranda/UNESP - Marília
souzaednaalves@gmail.com

Neste trabalho, temos por objetivo analisar alguns dos desafios atuais colocados pelas
Tecnologias da Informação e Comunicação, (TICs), quanto às questões de privacidade e
autonomia no que concerne ao controle de dados pessoais. Em seu tratado Sobre a liberdade,
John Stuart Mill já se preocupava com a questão da limitação do poder que a sociedade exerce
sobre o indivíduo. Não basta a proteção contra o poder do governo, mas importa ainda o amparo
contra a “tirania da opinião e do sentimento dominantes”. Inspiradas em Mill, argumentamos
que há que se proteger a independência individual em face das ideias e práticas, impositiva e por
vezes irracionais, da opinião coletiva. A dificuldade estaria em se identificar na prática o limite
entre a autonomia da pessoa e o controle social. Tal dificuldade não só persiste como se mostra
premente na Sociedade da Informação vigente. Nesse contexto, dados pessoais referem-se àquilo
que identifica ou que pode identificar uma pessoa, como dados de consumo, dados médicos,
dados de crédito, dados de navegação, dados de geolocalização e assim por diante. Nessa

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 57



Sociedade, as TICs, como Big Data, Internet das Coisas e Computação Ubíqua, são instrumentos
indispensáveis não apenas para fins de lazer e bem-estar, mas também para trabalho, educação
e pesquisa, de modo que o avanço da sociedade depende de seu desenvolvimento e acessibilidade
generalizada. Admitimos que as possibilidades apresentadas pela internet são, em muitos casos,
consolidadoras de direitos básicos como o de acesso à informação. Não obstante o aspecto
positivo apresentado, a vigilância e o controle governamental e empresarial, vistos como uma
realidade facilitada pelo desenvolvimento das TICs, por sua vez, nos conduz à indagação sobre
possíveis consequências negativas desse novo modelo de organização social. Considerando-se os
três Vs característicos dos Big Data: volume, velocidade, em tempo real, e variedade, teme-se que
os Big Data possam ser mal utilizados ao dar, especialmente, aos governos e às grandes
corporações, novas habilidades para manipular pessoas/consumidores ou competir injustamente
no mercado e na política. A questão chave da presente reflexão pode ser assim enunciada: que
contribuições filosóficas podem auxiliar na compreensão dos modos de organização da sociedade
em rede, em especial para que suas consequências não saiam de controle ético, ao mesmo tempo
em que se preservem a autonomia individual/coletiva e a liberdade de expressão e de elaboração
de conhecimentos?
Palavras-chave: autonomia, controle, liberdade de expressão, computação ubíqua, Sociedade
da Informação, ética.

23. ALGUMAS NOTAS SOBRE A ESTRATÉGIA ‘CONHECIMENTO APESAR DA


FALSIDADE’
Eduardo Alves
Mestrando/PPGFil - PUCRS
eduardoalves.eas@gmail.com

A tese ‘clássica’ de que conhecimento é condição necessária para a aquisição de conhecimento


inferencial tem sido objeto de discussão nos últimos anos. Devido a alguns possíveis
contraexemplos oferecidos por Ted Warfield (2005), Peter Klein (2008), Claudio de Almeida
(2017) e Federico Luzzi (2019), parece haver razões para crer que é possível que crenças falsas
com qualificações específicas produzam conhecimento inferencial. Se isso é verdadeiro, então não
é o caso que conhecimento é condição necessária para obter conhecimento inferencial. Por outro
lado, autores como Martin Montminy (2014), Ian Schnee (2015) e Rodrigo Borges (2017) têm
oferecido argumentos para crer que crenças falsas não produzem conhecimento inferencial; em
linhas gerais, seria possível identificar alguma crença verdadeira (com outras propriedades
específicas) capaz de epistemizar a crença na conclusão. Esta posição é caracterizada como
conhecimento apesar da falsidade (knowledge despiste falsehood); aquela, como conhecimento
via falsidade (knowledge from falsehood). No contexto deste debate, meu objetivo é analisar
alguns dos argumentos da estratégia ‘conhecimento apesar da falsidade’ e identificar as vantagens
teóricas dessa posição em relação a sua competidora. Para tanto, (i) analisarei a ideia de que a
crença falsa não é essencial para a cognição da crença na conclusão nos possíveis contraexemplos
e (ii) as consequências de se assumir que a crença falsa confere status epistêmico à conclusão.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 58



24. O NOMEAR E A ORDEM
Dr. Fabien Shang
PPGFil - UFG
schangfabien@gmail.com

Inspirada pela distinção feita por Kripke entre os conceitos de analiticidade e a aprioricidade
através do conceito auxiliar de necessidade [10], a tese central desse trabalho é que tem mais tipos
de atitudes políticas do que esperado; a falta de algumas delas no espectro político vem de uma
confusão profunda entre os conceitos de direita e de conservadorismo. Além disso, a separação
entre dois tipos de ordem –econômico e moral, justificará as atitudes mais originais de
‘conservadorismo de esquerda’ [7] e de ‘progressismo de direita’ [3] enquanto explicará as noções
ambíguas de centros e extremos políticos. Em conclusão, uma comparação entre valores políticos
e valores lógicos –verdade e falsidade, permitirá uma explicação das atitudes ambivalentes
‘esquerda e direita’ e ‘nem esquerda nem direita’ ora como casos de confusões conceituais ora
como um colapso do discurso político no ‘extremo-centro’ [5].
A palestra consistirá em cinco seções. A Introdução lança a questão com uma análise conceitual
de dizer e fazer, antecipando o método central e colocando algumas questões gerais sobre a atual
crise da representação política. A Seção 1 trata da oposição política entre esquerda e direita e sua
relevância contestada [2,11]. A Seção 2 inclui o método central que levará à conclusão final, ou
seja, a suposição de uma analogia estrutural entre três famílias conceituais diferentes: os juízos
de Kant [9], os desejos de Epicuro, e as atitudes políticas. A Seção 3 descreve o conteúdo de
atitudes políticas como uma combinação de dois conceitos principais: direita (ou esquerda), e
conservadorismo (ou progressismo); depois questiona sua relevância na maneira de Quine [12],
tanto no que diz respeito à oposição idealizada entre esquerda e direita quanto ao significado
confuso do progressivismo. A Seção 4 propõe uma comparação adicional entre dois tipos de
oposição: os valores políticos esquerda-direita e os valores lógicos verdade-falsidade [13],
alegando que as dificuldades relacionadas a estes últimos se aplicam igualmente aos primeiros.
A Seção 5 conclui a análise da oposição entre esquerda e direita, tratando-a como uma hipótese
conveniente: assim como os conceitos das cores [6], esses conceitos duais são necessários e os
entendemos como diretrizes, apesar da falta de definição clara destes [1]. A Conclusão proporá
um relato reducionista das supostas duas atitudes alternativas na política, a saber: nem-
esquerda-nem~direita e esquerda-e-direita [1]. O primeiro é reduzido a uma forma disfarçada de
centro-direita e centro-esquerda, enquanto o segundo resulta de uma confusão conceitual entre
direito e conservadorismo. Finalmente, uma posição alternativa é enfatizada e considerada como
o verdadeiro culpado da crise da representação política: o ‘centro extremo’, que é uma contraparte
política da modalidade iterada de ‘contingência necessária’ e leva ao niilismo semântico.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 59



Referências
[1] N. Bobbio. Direita e esquerda. Razões e significados de uma distinção política. Ed. UNESP,
1994.
[2] A. De Benoist. Droite-gauche c’est fini! Le moment populiste, Ed. Broché, 2017.
[3] M. Clouscard. Néo-fascisme et idéologie du désir: Mai 1968, la contre-révolution libérale. Ed.
Broché, 2008.
[4] F. Engels & K. Marx: A ideologia alemã (1845-1846).
[5] A. Giddens. A Terceira Via e seus críticos. Rio de Janeiro, Record, 2001.
[6] N. Goodman. Fact, Fiction and Forecast. Cambridge, MA: Harvard UP, 1955.
[7] T. Isabel. Pierre-Joseph Proudhon. L’anarchie sans le désordre. Ed. Autrement, 2017.
[8] J. Julliard. Les gauches françaises (1762-2012). Histoire, politique et imaginaire, Ed. Broché
2012.
[9] I. Kant. Crítica da razão pura. Ed. Vozes, 2015.
[10] S. Kripke. O nomear e a necessidade. Ed. Gradiva, 2012.
[11] C. Mouffe. Pour un populisme de gauche. Ed. Broché, 2018.
[12] W.V.O. Quine. “Os dois dogmas do empirismo”. In: Ryle et al. Coleção Os Pensadores: Vol.
LII. São Paulo: Abril S.A. Cultural e Industrial, 1975, pp. 237-254.
[13] W.V.O. Quine. Philosophy of Logic. Harvard Univ. Press (2a ed.), 1986.
[14] R. Rémond. Les droites en France. Ed. Aubier-Montaigne, Paris, 1954.
[15] P. Vranas, “Logic of Imperatives”. In The International Encyclopedia of Ethics. Hugh
LaFollette (ed.), 2015, pp. 1-10.

25. INTERACTION OF ITERATED MODALITY WITH A PRIORI AND


ANALYTICITY
Fernando Fabrício Rodrigues Furtado
PhD Candidate (Capes) - LanCog, Centre of Philosophy, University of Lisbon
fernandofurtado@campus.ul.pt

At least since the seminal The Critique of Pure Reason by Immanuel Kant (1787), the idea that
the two triads a priori, analyticity and necessity, on the one hand, and a posteriori, synthetic and
contingent, on the other hand, always go together has seriously been put in check. More recently,
Kripke's Naming and Necessity (1980), arguing in a completely different direction, has also been
decisive on this regard. Based on Kripke's work, it seems relatively safe to say that since the
publication of the idea of the necessary a posteriori and many philosophers have been persuaded
by the idea that, despite eventual “pre-theoretical intuitions” may suggest, the triad mentioned
above works somewhat independently. This talk partially challenges this \new" way of looking at
things. More precisely, it is argued that while the notion of metaphysical modality related to

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 60



Kripke's necessary a posteriori is an exception breaking the triad, another kind of necessity, such
as logical necessity, may be able to keep the triad in place.
The argumentative strategy shows that if one is willing to give up on the notion of metaphysical
necessity (iterated metaphysical necessity), the triads might be kept in place. It is argued that
iterated modality displays some interesting formal properties that other kind of alethic necessities
does not, and these formal proprieties seem to be what ends up breaking the triad. So, once again,
if one is willing to give up on iterated (metaphysical) modality, some of the difficulties of keeping
the triad together might be eliminated.
The general strategy of the argument is the following: on the one hand, it is argued that the
semantic behaviour of metaphysical modality in the context of iteration of modal operators (e.g.
possibly necessary, etc.) does not validate the requirements of the modal logic system S5.
Meaning, the accessibility relation among possible worlds (adequate to model metaphysical
modality) is weaker than an equivalence relation. On the other hand, when another kind of notion
of modality is taken into consideration (such as those involving either logical necessity or
conceptual necessity), the appropriate logic to model the iteration of modal operators seems
effectively to be S5, which means that from a semantic standpoint the accessibility relation
among possible worlds is, in fact, an equivalence relation. What is really interesting is that, when
properly understood, those kinds of necessities which validates S5 can be easier to conciliate with
the notion of a priori and analyticity, which, at the end of the day, is what is needed to keep in the
triad in place.
It is worth mentioning that the main concern of this talk is not to argue against the notion of
metaphysical modality, in fact, the main aim of this talk is to throw light on the conceptual
relationship among the concepts mentioned in the triad and argue that the literature might be
failing to notice something interesting that may be helpful to properly understand these concepts.
Keywords: analyticity, a priori, iterated modality, necessity, modal logic.

26. METAPHILOSOPHY AND THE ENCAPSULATED DEBATE ABOUT


PERCEPTUAL EXPERIENCE
Dr. Filipe Herkenhoff Carijó
Prof. UFRJ
Doutorando/PPGLM - UFRJ
fhcarijo@gmail.com

I present a metaphilosophical discussion of the recent debate between the two major views of
perceptual phenomenology – disjunctivist naïve realism and the common factor view –, which is
the contemporary heir to the older philosophical debate about whether perception is direct. The
present investigation is sparked by the fact that the debate has been characterized by little to no
progress towards consensus, where this is not to be explained in terms of any shortage of open
and subtle argumentation. I propose we ask ourselves why argumentation has been failing in this
way. Indeed, we should address the question: could one of the two major views of perception be
shown to be better supported than its rival by the rest of what we know about the world? I defend
a negative answer: no known phenomenon, and no phenomenon we can justifiably expect to come
to know, represents evidence, empirical or a priori, for either of the major views of perceptual
phenomenology. That conclusion is not based on anything like a pessimistic induction, but rather
on the identification of a feature of the debate which ensures that such arguments won’t work.
That feature is what I call its encapsulation: the major theories disagree exclusively about the

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 61



nature of perceptual phenomenology, that is, in disagreeing about the nature of perceptual
phenomenology, parties to the debate aren’t committed to disagreeing about anything else.
Encapsulation guarantees that the opposing views share their explanatory resources to such an
extent that they’re able to accommodate the relevant phenomena equally well, so that no attempt
at showing either of them to better accommodate known facts – including facts about illusion,
knowledge of the external world, attention, correlations between brain states and experiences,
demonstrative reference, etc. – can possibly succeed. I suggest that digging deeper into the
metaphilosophy of perception, such as by investigating what we might call the metaproblems of
perception, is the way to go. The more general metaphilosophical moral that we should beware of
encapsulated speculations and the encapsulated disputes they generate is drawn, and the need
for determining which of the other traditional philosophical disputes are similarly encapsulated
is stressed.
Keywords: metaphilosophy; naïve realism; common factor view of experience; perceptual
phenomenology;


27. FEARFUL OBJECT SEEING AND THE AFFECTIVE PENETRATION OF
PERCEPTION
Dr. Felipe Nogueira de Carvalho
PPGFil – UFMG
felipencarvalho@gmail.com

What is it like to perceive a feared object? According to a popular neo-Gibsonian theory in


psychology, fear biases our perceptions of objects so as to encourage particular kinds of actions:
when we are afraid, a hill may be perceived as steeper than it actually is [1], a spider may be
perceived as closer than it actually is [2], and the ground as seen from a balcony may be perceived
as further away than it actually is [3]. The proposed explanation for these effects is that perception
provides us not only with opportunities for action, but also with the costs and risks associated
with these actions. These are supposed to be incorporated directly into perceptual experience in
the form of perceptual biases.
Firestone has mounted severe criticisms against this view [4], arguing that the empirical data can
be fully explained as cognitive biases that operate on accurate perceptions of the external
environment.
My purpose in this presentation is to argue in favor of perceptual biases, but with a different
strategy in between these two positions. Although I will concur with Firestone that fearful object
perception is not "paternalistic" in the way neo-Gibsonians propose, I will argue that perceptual
and cognitive biases are not mutually exclusive, and that there is independent evidence that both
might occur in fearful object seeing. To argue for this point I will introduce a notion of fearful
affective state based on Ledoux’s work on defense circuits [5]. In this picture, whenever a threat
is detected, defense circuits release neuromodulators that cause a heightened state of arousal in
the brain and body. One effect of these neuromodulators is the modulation of perceptual
processing, leading to perceptual biases.
However, I agree with Firestone that cognitive biases are most likely present in these
experimental tasks as well, which may augment perceptual biases. But as long as there are good
reasons to suppose that perceptual biases occur, visual perception will turn out to be affectively
penetrable. This conclusion will be considered in the context of a larger debate concerning the
cognitive penetrability of perception, where I will argue that affective penetration is a distinct

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 62



phenomenon from cognitive penetration, and that the former can be unproblematically embraced
on pragmatic grounds even by those who tend to resist the latter on epistemological grounds.
Bibliographical references:
[1] Teachman, B., et al. 2011. “A New mode of fear expression: perceptual bias in height fear.”
Emotion 8(2): 296-301.
[2] Stefanucci, J., et al. 2008. “Skating down a steeper slope: fear influences the perception of
geographical slant.” Perception 37(2): 321-323.
[3] Cole, S., et al. 2013. “Affective signals of threat increase perceived proximity.” Psychological
Science 24(1): 34-40.
[4] Firestone, C. 2013. “How paternalistic is spatial perception? Why wearing a heavy backpack
doesn’t - and couldn’t - make hills look steeper”. Perspectives on Psychological Science 8(4): 455-
473.
[5] Ledoux, J. 2012. “Rethinking the emotional brain”. Neuron 73(4): 653-676.

28. FORMAL ISSUES OF ONLY-TROPE THEORIES


Francesco Maria Ferrari, Ph.D.
Research Associate/CLE - Unicamp
ferrarifram@gmail.com

The purpose of this communication is to discuss to what extent it is possible to provide an


extensional semantics, based on systems of objects (particulars) in isolation, for only-tropes
metaphysics [1, 2, 3]. According to only-trope metaphysics tropes are the ultimate basic entities
over which all everything else is built, from particles to the manifest world, to the whole Universe.
Tropes are abstract particulars, namely, neither individuals nor universals. This is because it is a
nominalist theory in a peculiar way: it does not accept the existence of universals and at the same
time rejects the classical notion of (logical) identity between individual entities. My work will
show the formal difficulties, which will prove insurmountable, in order to the construction of a
proper semantic apparatus for this theory: the absence of the (logical) identity relation will force
us to assume either a realist (second- order) interpretation of the relationship of resemblance
between tropes, or a collection of potentially infinite (countable) several distinct predicates of
resemblance. In both cases the consequences are in formal contradiction with the original only-
trope metaphysics’ assumptions.

The talk will proceed as follows: a. What is a only-trope metaphysics? b. Nominalist semantics is
presented; c. Only-trope nominalist semantics: formal conditions and problems; d.
Inconsistencies of Only-trope theory are presented.
References

[1] Campbell K. Abstract Particulars (Phil. Th.), Cambridge: Blackwell, 1990.

[2] Williams D. C. Principles of empirical realism, Springer, 1966.


[3] Williams D. C. On the elements of being. Properties, Mellor D. H. & Oliver A. (eds), Oxford:
Oxford UP, 1997.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 63



29. DISTINGUINDO ABDUÇÃO PEIRCEANA E INFERÊNCIA DA MELHOR
EXPLICAÇÃO LIPTONIANA
Gabriel Chiarotti Sardi
Mestrando/PPGFil - UEL
gabrielchi@hotmail.com

A presente comunicação tem como objetivo apresentar primariamente um projeto de pesquisa a


ser desenvolvido no âmbito do debate acerca da Inferência da Melhor Explicação (Inference to
the Best Explanation – IBE) e sua relação com a Abdução de Charles Sanders Peirce.
Pretendemos mostrar que há uma errônea confusão entre IBE e abdução peirceana, pois são
tomadas como sinônimas de um mesmo argumento, embora descrevam etapas distintas da
dinâmica científica. Indicaremos que IBE trata da justificação de escolhas de teorias previamente
disponíveis para explicar um fenômeno, enquanto abdução trata especificamente da geração de
teorias. Isso acarreta um sério problema exegético, pois muitos autores não distinguiram
adequadamente os argumentos e passaram a utilizá-los indistintamente para finalidades opostas
às originais. Um caso que merece atenção é o relato de IBE apresentado por Peter Lipton em sua
importante obra Inference to the Best Explanation, o qual busca explicitar tanto o processo de
geração quanto de seleção de teorias, partindo da premissa de que as considerações explicativas
estão presentes em ambos os estágios. Avaliaremos a hipótese de que mesmo que Lipton tenha
feito uma importante contribuição para a forma de compreendermos a geração de teorias, pode-
se argumentar que seu argumento não se refere ao processo seletivo de hipóteses, sendo então
uma forma de abdução e não de IBE.
Palavras-chave: Inferência da Melhor Explicação; Abdução; Peter Lipton.

30. UMA ABORDAGEM PROBABILÍSTICA AO PROBLEMA DO OVERFLOW


Gabriel Jung do Amaral
Mestrando/PPGFil – Unisinos
jungdoamaral@outlook.com

Em seu artigo “On a confusion about a function of consciousness”, Ned Block propõe que o termo
consciência conflita ideias que deveriam ser separadas. Ele então cunha dois conceitos: a
consciência fenomenológica (P-consciousness) e a consciência de acesso (A-consciousness). A
primeira diz respeito à experiência de primeira pessoa, o “what is it like” de Thomas Nagel,
enquanto a segunda abrange o aspecto funcional da consciência, isto é, o papel que ela tem dentro
da cognição. A partir desta distinção, Block recorre ao experimento realizado por George Sperling
em 1961 para argumentar de que a consciência fenomenológica transborda as capacidades da
consciência de acesso, isto é, que a consciência de acesso é menos rica e tem menor capacidade
de lidar com os inputs da cena distal. Esta posição ficou conhecida como Phenomenological
Overflow e seus críticos como No-Overflow. O ponto central do debate gira em torno da maneira
como o input é processado pelos módulos de memória. O experimento de Sperling propõe que
antes da memória de trabalho existe um módulo de alta capacidade de armazenamento, mas
baixa capacidade temporal, o qual ele nomeou de memória icônica. Os resultados do experimento
indicam que os voluntários eram capazes de armazenar todas as letras que compunham uma
grade, mas somente reportar em média quatro delas. Block defende então que já na memória
icônica havia consciência fenomenológica, sendo a consciência de acesso relacionada com a
memória de trabalho. Entretanto, essa conclusão de Block foi sujeita à muitas críticas. Primeiro,
os resultados não parecem indicar necessariamente que as representações na memória icônica

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 64



são realmente fenomenalmente conscientes. Segundo, há interpretações do experimento que
acomodam os resultados dentro da posição do No-Overflow. Esse debate, todavia, chega em um
impasse, como apontado por Ian Phillips. Todos os experimentos que vieram a ser desenvolvidos
podiam ser acomodados por ambos os lados do debate. Eu proponho que uma abordagem
probabilística a respeito da cognição pode ajudar a dar continuidade à questão, mudando a
perspectiva a respeito de certos conceitos. Primeiramente, defendendo que não existem módulos
de memória sucessivos com menor capacidade, segundo, de que as representações não são
discretas e sim distribuições probabilísticas, e terceiro, de que há diversas maneiras pelas quais
um input pode ser modificado, quer seja por crenças prévias, quer seja pela alteração do peso que
o sistema atribuí as possiblidades contidas dentro das representações.

31. A PROPOSAL OF CLASSIFICATION OF BIOLOGICAL COMPLEXITY CHANGES


IN EVOLUTIONARY PHENOMENA
Giorgio Airoldi, Ph.D.
UNED Madrid-Spain
cristian.saborido@fsof.uned.es

Biological complexity is hard to formalise. Is the E. coli metabolism less complex than the
structure of an eye? In what degree, and why?
The question around biological complexity includes three different issues: (1) its definition, (2)
its measurement and (3) its sources. These issues are independent but interrelated. Many
definitions and measurements of complexity often imply an answer also to the question of its
source. Adaptationist accounts, for example, identifies complexity with phenotypic fitness, whose
increase is caused by selection (Grafen 2007). This classical adaptationist answer has been
increasingly challenged by proposal such as Evo-Devo, the Extended Evolutionary Synthesis and
studies of self-organising systems, to name a few. This last approach, for example, identifies
complexity as a non-selective, emergent trait linked to laws governing open, non-hierarchical and
far-from-equilibrium systems (Kauffman 2000). Other formal attempts to define and measure
complexity (based on thermodynamics, logic, statistics and even fractals, Mitchell 2009) are
inapplicable even to the simplest biological entities.
To overcome these problems of the classical approaches to biological complexity, we propose a
bi-dimensional form function space model that shifts the focus from complexity tout court to
complexity changes, and measures such changes in terms of form and function,
This model interprets many evolutionary phenomena as a change in morphology and/or in the
functions of an organism (e.g. Mayr 1960, Erwin 2015). As to morphology, evolutionary
phenomena can (Müller 2008) (a) leave an existing trait unaffected; (b) entail a new trait; (c)
create a new module, an arrangement of traits forming a standard building unit; (d) require a
new body plan, a new arrangement of modules. As to function, evolutionary phenomena can: (a)
leave an existing function unaffected (e.g. mimicry in the B. betularia). It’s a ‘do the same in the
same way’ situation; (b) incrementally improve some ability already owned by the organism. We
can refer to this situation as ‘do the same in a new way’ (e.g. new metabolic routes); (c) entail a
completely new function: the motto is here: ‘do something new’ (e.g., the thermoregulation
provided by feathers).
Any evolutionary change can thus be mapped and analysed in our bi-dimensional form-function
space. For example, when neither form nor function change (e.g. B. betularia), complexity has
hardly changed at all. When form is maintained but function changes, we have an exaptation.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 65



Redundancy attained through the duplication of an organ (e.g. two kidneys) represents a change
in morphology, without functional innovation.
This proposal abandons the vacuous quest for an absolute definition of biological complexity;
supplies a way to measure complexity change separating evolution of form and of function, which
is the only way to understand the link between complexity and any kind of functionality (McShea
& Brandon 2010); and remains agnostic with regards to what causes the change, thus being able
to take into account any source of biological variation (selection, other forces, or a mix of them).
It thus allows to classify evolutionary phenomena without committing a-priori to any
evolutionary explanation.
Keywords: complexity, morphology, function,
Erwin, D. H. (2015). Novelties and Innovations in the History of Life. Current Biology 25, R930–
R940
Kauffman, S., (2000). Investigations. Oxford University Press.
Grafen, A. (2007) The Formal Darwinism project: a mid-term report, J. Evol. Biol., 1243-1254
Mayr, E. (1960). The emergence of Novelty. In Tax, S. (ed.), The Evolution of Life, , Univ. of
Chicago Press: 349–380
McShea, D.W., Brandon, R. (2010). Biology’s First Law: the tendency for diversity and complexity
to increase in evolutionary systems. The University of Chicago Press.
Mitchell, M. (2009). Complexity. A Guided Tour. Oxford University Press.
Müller, G. B. (2008). Evo-Devo as a discipline. In Minelli A., Fusco G. (eds.), Evolving Pathways:
Key Themes in Evolutionary Developmental Biology. Cambridge University Press:5-30

32. TRAÇOS DE MEMÓRIA, PARADIGMA DA MEMÓRIA CONSTRUTIVA E O


PROBLEMA DAS MEMÓRIAS FALSAS
Glaupy Fontana Ribas
Doutoranda/PPGFil - UFSM
fontanaribas@outlook.com

Irei defender aqui a tese de que, do ponto vista neural, é impossível distinguirmos memórias
falsas de memórias verdadeiras. Mas, para atingirmos esse objetivo, teremos antes que nos
desfazer de alguns pressupostos amplamente disseminados em filosofia da memória. É
atualmente aceito que somos capazes de evocar memórias, no presente, porque há um traço de
memória que foi gerado pela experiência, no passado. Filósofos defendem que (1) para cada
memória há um traço, cujo armazenamento no cérebro se dá de forma individual e isolada, traço
esse que fica disponível até a evocação. Além disso, aceita-se o pressuposto de que (2) a memória
serve para preservar informações, e que, salvo casos de esquecimento, iremos evocar essas
informações do modo como elas foram inicialmente consolidadas. Outro pressuposto comum em
filosofia da memória diz que (3) memórias falsas são o resultado da ausência de traços, pois elas
não correspondem a nenhum evento que o sujeito vivenciou, logo, ela não pode ser o resultado
da experiência. Entretanto, o atual paradigma das ciências cognitivas compreende a memória
como um processo construtivo, ao invés de reprodutivo, pois foi descoberto que os traços são
codificados enquanto um padrão de ativação neural no grupo de neurônios que foi modificado
durante a experiência. Isso nos leva à negação de (1), pois as populações neuronais que estavam

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 66



ativas durante a experiência em t1 não ficam inertes até o momento da evocação em t2, pelo
contrário, elas participam de diversos outros processos de consolidação. Isso, por sua vez, leva à
negação de (2), pois, dado esse caráter dinâmico dos traços de memória, o que acontece no
momento da evocação não é a ativação de um traço que preservou a memória de forma individual
e imutável, mas sim a reconstrução de um padrão de conexões neuronais que foi modificado
diversas vezes desde o momento da experiência. Esse caráter reconstrutivo da memória fornecia
respaldo para (3), pois pensava-se que, devido à ausência de traços gerados pela experiência em
questão, o sistema reconstruía um padrão de ativação utilizando neurônios correspondentes à
outros eventos parecidos. Porém descobriu-se que esse não é o caso. Pesquisas demonstraram
que há um traço que, quanto ativado, dá origem à memória falsa. Esse traço correspondia
originalmente a uma experiência verdadeira, mas ele foi alterado de modo a se misturar com o
traço de outra experiência vivida no passado, resultando em uma memória de um evento que não
aconteceu. Disso tudo segue-se que: (1’) há traços que, quando ativados, resultam em memórias
verdadeiras, mas também há traços que, quanto ativados resultam em memórias falsas; (2’) tanto
os traços que correspondem à memórias verdadeiras, quanto aqueles que correspondem à
memórias falsas, foram alterados através do tempo. De (1’) e (2’) segue-se: (3’) qualquer projeto
que pretende verificar a veracidade de memórias através da história causal do traço irá se deparar
com um traço que foi modificado desde que foi criado. Podemos, então, concluir a tese principal
desse resumo, a saber, que do ponto vista neural, é impossível distinguirmos memórias falsas de
memórias verdadeiras.

33. O PAPEL DAS EVIDÊNCIAS EMPÍRICAS PARA O RACIONALISMO


MODERADO
Gregory Gaboardi
Doutorando/PPGFil – PUCRS
gregtaco@hotmail.com

Pust (2014) definiu o racionalismo moderado como a tese de que ter uma intuição racional a favor
de certa proposição seria ter justificação prima facie para crer nessa proposição. Partindo dessa
definição, argumentou contra as defesas de duas teses: a) a de que evidências empíricas são
necessárias para justificar a aceitação do racionalismo moderado e b) a de que evidências
empíricas seriam suficientes para persuadir um oponente empirista a aceitar o racionalismo
moderado. Tais defesas consistem em alegar que evidências empíricas são necessárias para
sabermos que a ocorrência de alguma crença de fato se baseia em intuição racional; em alegar
que evidências empíricas são necessárias para justificar a tese de que uma fonte de evidência
putativa é confiável e, por fim, em alegar que evidências empíricas seriam dialeticamente
suficientes para fazer racionalistas vencerem a disputa tradicional com empiristas. Pust
argumentou contra essas três defesas. Neste trabalho, objetaremos aos argumentos de Pust e
concluiremos que as teses a e b, bem como algumas de suas defesas, permanecem plausíveis.

34. DANIEL DENNETT E A DESCONSTRUÇÃO DA EXPERIÊNCIA


Dr. Gustavo Leal Toledo
PPGFil - UFSJ
lealtoledo@ufsj.edu.br

A experiência consciente é rotineiramente tomada como um dado bruto da realidade. Embora


possa estar errado sobre a que se refere minha experiência ou até mesmo sobre qual experiência

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 67



estou tendo, não posso estar errado sobre o fato de que estou tendo uma experiência. No caso da
consciência, há um colapso entre “parecer” e “ser”, de modo que negar sua existência é visto como
algo desprovido de sentido ou justificativa. As alternativas a esta visão normalmente ou são
eliminativistas, que muitas vezes não tentam propriamente eliminar a consciência, mas tratá-la
em outros termos; ou behavioristas, que muitas vezes são descartadas pela própria tradição da
área; ou, soluções que tentam explicar a consciência como uma “ilusão”, ou uma “ficção útil”, ou
um “julgamento”, como feito por Daniel Dennett.
Dentre aqueles que são vistos como negadores da consciência, Dennett se destaca talvez por
atacar este problema diretamente em muitos de seus livros e artigos. Embora sua explicação sobre
o que é a consciência esteja fundamentada em uma série de analogias filosoficamente delicadas
(memes, conexionismo, máquina virtual), sua crítica ao conceito tradicional de experiência
consciente atinge seu próprio cerne ao argumentar, de certo modo, que há uma divisão entre “ser”
e “parecer” até na nossa mais íntima fenomenologia. Tal tese radical abre a possibilidade de que
argumentos e experimentos empíricos sejam vistos como capazes de questionar a visão
tradicional de que não podemos estar errados sobre o fato de que temos experiências conscientes.
Ou seja, dizer que a experiência consciente, acessível por um ponto de vista de primeira pessoa,
é um dado irrefutável e que não pode ter a existência questionada passa a ser visto apenas como
um dentre vários outros argumentos sobre nossos julgamentos fenomenológicos. Como tal, este
argumento pode estar errado.
Tendo isso em vista, é possível defender que apenas atentar para a pretensa obviedade da
experiência consciente não deve ser visto como argumento definitivo sobre a existência da
mesma. Tal questionamento pode ser fortalecido pela longa história de indiscutíveis obviedades
que foram depois consideradas amplamente falsas (formato plano da Terra, posição estática no
espaço da mesma, separação ontológica entre seres vivos e matéria inerte, separação ontológica
entre os humanos e demais animais, existência de Deus e tantos outros). Se estiver correto o
argumento de que sua existência não deve ser pressuposta, mas sim defendida, então abre-se
espaço para o questionamento de se teorias fisicalistas da mente e do comportamento humano
precisam, de fato, dar conta de explicá-la ou se podem apenas esquecê-la, ou seja, eliminá-la.
Cabe discutir, então, se a experiência consciente, neste sentido ontologicamente forte que é dado
a ela, pode ser em última instância vista como algo pertencente ao mundo físico: seja uma
entidade física, seja uma propriedade física, emergente ou não, ou seja um processo físico
qualquer. Se a resposta for negativa, deve-se então questionar qual uso efetivo este conceito tem
para nossas teorias fisicalistas e se devemos mantê-lo ou não.

35. O ARGUMENTO DO DESEMPATE RECONSIDERADO


Gustavo Oliva de Oliveira
Mestrando/PPGFil-PUCRS
gustavoolivaoliveira8@gmail.com

Uma das características centrais e mais atrativas do contratualismo moral é o fato de que a teoria
é anti-agregativa, isto é, não faz apelo às reivindicações de grupos de indivíduos, mas examina
como ações afetam cada indivíduo. Isso permite que contratualistas evitem vindicar casos nos
quais uma minoria é altamente prejudicada para trazer uma quantidade pouco significativa (do
ponto de vista individual) de bem para uma maioria — o que não é o caso para teorias
consequencialistas comprometidas com a agregação. No entanto, existe um problema em uma
teoria sem agregação. Teorias anti-agregativas têm dificuldade em lidar com casos que envolvem

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 68



a escolha entre salvar uma vida ou muitas vidas. É difícil defender o princípio intuitivo, de que
devemos salvar mais vidas, do ponto de vista individual. Para resolver esse problema, T.M.
Scanlon apresentou, em What we owe to each other o argumento do desempate, propondo que
se não adotarmos o princípio de salvar mais vidas, pelo menos um dos membros do grupo com
maior quantidade de pessoas poderia reclamar que o fato de que sua vida deve ser salva não está
sendo levado em consideração, já que o princípio adotado tem o mesmo resultado que teria se o
membro em questão não estivesse presente. Pretendo examinar as principais vantagens e
desvantagens do argumento do desempate, especialmente defendendo-o da objeção de que ele
envolve um apelo implícito à agregação.

36. ASSERTION, FICTION-MAKING, AND FICTIONAL INFORMATION


Iago Mello Batistela
Doutorando/IFICH - Unicamp
iagobatistella@gmail.com

Speech act theories of fiction propose that in writing a fictional work the author is performing a
sui generis speech act dubbed fiction-making. Fictionmaking is often characterized by reflexive
intentions similar to Grice’s take on assertions, modulo a substitution of belief for make-belief.
Recently, it has been widely accepted that fictions are composed by a patchwork of at least two
speech acts: besides acts of fiction-making, the author of a work of fiction performs regular acts
of assertion. I will argue against patchwork approaches. First, I will present a speech act theory
of fiction. Patchwork approaches are usually motivated by two observations: some utterances in
fictional works check all the requisites to be considered assertions, so they should be considered
as such; and fictional works convey, in addition to information about the fictional world,
information about the actual world, and in conveying information about the real world the author
asserts his beliefs. I will argue that while it is plausible to accept the view that there are sincere
assertions in fictional works, accepting insincere assertions – i.e. lies – in such environments
clashes with widely accepted intuitions about fictionality. The lack of a secure access to the
author’s beliefs, including what the author takes to be true information about the actual world,
along with the conclusion that there are no insincere assertions in fiction, results in an
inconsistent attribution of overt intentions to the author’s utterances – an important attribute to
the recognition of a speech act. In most cases, the reader cannot be sure if the author is, in fact,
asserting – that is, prescribing belief –, or fiction-making – i.e. prescribing make-belief. In place,
I will propose an uniform speech act theory of fiction, where all utterances are taken to be acts of
fiction-making.
Keywords: fiction; assertion; lying; belief; make-belief.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 69



37. CAUSALIDADE E FLUXO DE INFORMAÇÃO: A TEORIA INFORMACIONAL
DRETSKEANA
Isabele Vieira Salsman
Graduanda/FFC - UNESP
salsmanisabele@outlook.com

Dr. Marcos Antônio Alves


FFC - UNESP
marcos.a.alves@unesp.br

Com influências da Teoria Matemática da Comunicação – de Shannon e Weaver (1949) - o


contemporâneo Fred Dretske desenvolve uma teoria semântica da informação; a fim de tratar de
questões epistemológicas e de assuntos discutidos na ciência cognitiva. Na TMC compreendemos
que, para uma comunicação ser eficaz, é necessário que a mensagem emitida na fonte chegue ao
destino com o menor ruído possível. Dretske (1999) critica a TMC, apesar de utilizá-la em sua
abordagem. Ele argumenta que tal perspectiva supervaloriza a relação de causa e efeito,
transmissão-recepção, deixando a desejar na formulação do conceito de informação. O fluxo de
informação não depende de uma ligação física e direta entre fonte e destino; pode acontecer do
canal conter ruído e transmitir informações, como por exemplo, um sistema de campainha com
um fio solto: em certos momentos um fio pode entrar em contato com o outro e a campainha
tocar, ilustra Dretske. Para ele, a informação, por ser matéria prima de processos cognitivos,
significado e linguagem - com características externas e metafísicas - pode ser anterior aos
processos causais. Neste sentido, é necessário diferenciar uma relação causal de uma relação
informacional para o estudo do fluxo de informação. A primeira se relaciona com causa e efeito,
o que acontece em algum destino deve ser compatível com o que é transmitido pela fonte, porém
- a causalidade por si só - pode não compreender uma comunicação e a informação de forma
eficaz. A segunda (relação informacional) diz respeito a uma informação já assimilada e
incorporada pelo receptor, o que é essencial para o fluxo de informações. Essa interpretação
diverge de concepções clássicas e modernas, no tocante ao lugar que a causalidade ocupa. A
codificação das dependências mútuas de um sistema físico, proporcionada pela TMC, tem sua
utilidade e é complementada. O objetivo do presente trabalho é expor as concepções de Dretske
sobre as relações causais e informacionais e o fluxo de informação. Para atingir tal objetivo,
primeiro serão apresentados alguns pontos principais da TMC que convergem com a teoria
dretskeana. Posteriormente, serão expostas as críticas de Dretske à TMC, ressaltando as
diferenças entre relações causais e informacionais e as respectivas relevâncias para a teoria
semântica da informação de Dretske.
Palavras-Chave: Causalidade; Informação; Canal.

38. TALKING ABOUT CONCEPTS


Jan Claas, M.A.
Hamburg University
jan.claas@uni-hamburg.de

Appositive concept designators such as “the concept horse” crucially differ from other expressions
of the form “the ø a”. Most expressions of this form function in the following way (see Schnieder
2006): As part of “the property wisdom”, “wisdom”
a) refers to the same thing as the complex expression, namely the property wisdom,

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 70



b) expresses the concept wisdom.
This analysis does not work for “the concept wisdom” because a) and b) cannot be correct
simultaneously. “The concept wisdom” refers to the concept wisdom. According to a), “wisdom”,
as part of this expression, would also refer to the concept wisdom. But if “wisdom” refers to the
concept wisdom, then it cannot also express the concept wisdom. It is a well-known phenomenon
that sometimes words express something that they do not express ordinarily; the salient option
is to retain a) and give up b): “wisdom” in “the concept wisdom” refers to the concept wisdom and
it does so by expressing the concept the concept wisdom. However, the problem, akin to the
selection problem Dummett has pointed out (Dummett 1973, p. 267), is to determine what the
concept the concept wisdom is. The salient candidate can be traced back to Frege 1892, p. 28. It
is unproblematic to assume that the concept wisdom just is the concept expressed by “wisdom”.
Now we take this analysis a step further: (1) “the concept wisdom” means the same as (2) “the
concept expressed by ‘wisdom’ ”. Providing (2) as semantical analysis of (1) would solve the
selection problem if (1) and (2) were synonyms. They are not. One can understand (2) but not (1)
without posessing the concept wisdom (Kripke 2008, p. 185). The best candidate to solve the
selection problem fails. I suggest that we retain b) and give up a) instead.
The inspiration for my proposal is the demonstrative theory of quotation (Davidson 1979). With
an utterance of “the concept wisdom” I convey that I want to talk about a concept and I express
this concept in order to demonstratively refer to it. When I utter
The concept dog is easy to grasp.
then what I do is the same as with:
Dog. The concept which I just expressed is easy to grasp.
In “the concept wisdom”, “wisdom” must express what it ordinarily expresses, as this is the
concept I want to refer to demonstratively. This analysis of concept designators has a variety of
advantages:
1. It avoids Kripke’s objection because no higher-order concepts are involved.
2. It is language-neutral and in an important sense language-independent as we do not talk about
the sense of “wisdom” (rather than “sapiência”).
3. “Wisdom” does not express something else than normally. So we need not worry about
systematic ambiguities.
References
Davidson, Donald (1979). “Quotation”. In: Theory and Decision 11.1, pp. 27–40.
Dummett, Michael (1973). Frege: Philosophy of Language. London: Duckworth.
Frege, Gottlob (1892). “Über Sinn und Bedeutung”. In: Funktion, Begriff, Bedeutung. Ed. By
Günther Patzig (2008). Göttingen: Vandenhoeck & Ruprecht, pp. 23–46.
Kripke, Saul (2008). “Frege’s Theory of Sense and Reference: Some Exegetical Notes”. In:
Theoria 74.3, pp. 181–218.
Schnieder, Benjamin (2006). “Canonical Property Designators”. In: American Philosophical
Quarterly 43.2, pp. 119–132.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 71



39. CONNECTING PERCEPTION AND ITS PROPOSITIONAL ATTITUDES
THROUGH AN ENACTIVE FRAMEWORK
Jeferson Diello Huffermann
Doutorando/PPGFil – UFRGS
jeferson.diello@gmail.com

This is an attempt to expand the dialog between Philosophy of Cognitive Sciences and
Epistemology. Our proposal, being inspire by the enactive-ecological perspective and
Wittgenstein, is that we can see how all knowledge (including the propositional variety) hinges
on abilities. We start from Philosophy of Cognitive Science, with a certain understanding of
cognition. From that and epistemological considerations about normativity we look at the
discussion found in readings and appropriations of Wittgenstein thought, the discussion about
the nature of the so-called hinge commitments. I argue that a certain reading of the hinge
commitments can answer what I call the enactive challenge to the characterization of
propositional perceptual knowledge. First, I explain in more detail the enactive perspective, our
starting point. Second, we present the challenge as some difficulties (not exclusive to the enactive
perspective) of explaining the normativity and rationality of perception. Summarizing, the
enactive challenge is how to define the relation between perception and proposition perceptual
knowledge. The characterization of the relation is made difficult once one must keep the
assumption that perception provide reasons for the propositional attitudes in question and at the
same time assume a discontinuity between perceiving and its know-that. The discontinuity is that
the epistemic and doxastic mental states are representational and the perception is not (as the
enactive perspective claims). That brings the issue of explaining how this non-representational
state is normative of or give legitimacy to representational states of knowledge and belief that p.
It seems problematic to any theory of cognition the claim that questions of normativity of
epistemic and doxastic states cannot be answer in naturalistic framework, even in a non-reductive
one. That would amount to say that a very important part of cognition, our knowledgeable
engagement with the word, could not be explain with the tools of Cognitive Science and
Philosophy of Cognitive Science. We think that this is not the case. We try to show how
considerations about the structure of rational evaluation made first by Wittgenstein in On
Certainty can be of assistance with our conceptual puzzlement about the relation between
perception and perceptual knowledge. Connections between the challenge from the enactive
perspective and hinge epistemology will become clearer when I applied Moyal-Sharrock
interpretation of hinges to a characterization of the “arational” or animal basis that explain the
normativity of perception in relation to perceptual knowledge. After exploring the enactive view
of perception that understands perception in terms of skills and a reading of hinge commitments
as the one Moyal-Sharrock attribute to Wittgenstein, we argue in favor of the following:
perceptual skills hinge on the acquisition of perceptual language, in in doing so perceptual
thought, belief and propositional knowledge. They are the unreflective ways of acting that allows
for the specification of invariant information.
Keywords: enactivism; perceptual knowledge and skills; propositional attitudes; hinges
commitments.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 72



40. EPISTEMIC TWO-DIMENSIONALISM AND THE CASES OF NECESSARY A
POSTERIORI AND CONTINGENT A PRIORI TRUTHS
Jeferson José dos Santos
Doutorando/PPGFil – UNICAMP
jefersonj.santos@outlook.com

Saul Kripke in his Naming and Necessity proposed convincing cases of necessary truths that can
only be knowable a posteriori, as well as cases of contingent truths that can be knowable a priori.
However, the plausibility of this cases has been contested by some philosophers who used a two-
dimensional framework to represent the meaning and reference of a several linguistic expressions
e.g., proper names and natural kind terms. The most influential two-dimensional approach is the
Epistemic Two-Dimensionalism (E2-D) developed by David Chalmers (2006) and Frank Jackson
(2004). Accordingly to this approach, propositions have truth-values evaluated in two different
ways: the first one is relative to consider a possible world “as actual”, and corresponds to what
Chalmers calls “primary intension” and Jackson calls “A-intension”; the second one, is relative to
consider a possible world “as counterfactual”, and correspond what Chalmers calls “secondary
intension” and Jackson calls “C-intension”. This analysis shows that there are no necessary a
posteriori or contingent a priori truths: in Chalmers vocabulary, necessary a posteriori
propositions are propositions that have a necessary secondary intension but contingent primary
intension; similarly, contingent a priori propositions are propositions that have a necessary
primary intension but contingent secondary intension. My goal in this talk is to show with more
details the strategy and philosophical motivations assumed by E2-D against the kripkean cases
as well as the state of the art regarding the main arguments for and against E2-D.
Keywords: Epistemic Two-Dimensionalism. Necessary A Posteriori. Contingent A Priori.
References:
CHALMERS, D. “The Foundations of Two-Dimensional Semantics”. In: GARCIA CARPINTERO,
M. and MACIÀ, J. (eds.). Two-Dimensional Semantics: Foundations and Applications. Oxford
University Press. pp. 55-140, 2006.
JACKSON, F. “Why We Need A-Intensions”. Philosophical Studies 118, 1/2 (2004), 257-277.

41. A COMPATIBILIDADE ENTRE MECANISMOS SINTÁTICOS E LEIS


INTENCIONAIS NA TEORIA REPRESENTACIONAL DA MENTE
Jonathas Kilque Villanova
Mestrando/PPGFil - UFSM
jonathaskv@gmail.com

Fodor (1987) sustenta que a Teoria Representacional da Mente (TRM) endossa o realismo
intencional do senso comum e, simultaneamente, endossa uma tese sobre os “mecanismos
sintáticos” que garantem eficiência causal às atitudes proposicionais. Assim, a TRM pode
conservar a perspectiva do senso comum sobre a mente e propor uma solução materialista ao
problema da causação mental. Stich (1983) nega que a TRM possa endossar o realismo
intencional simultaneamente ao endosso de uma tese sobre a eficiência causal dos estados
mentais exclusivamente em termos de mecanismos sintáticos de estados mentais. Neste artigo,
apresento as principais características da TRM que suscitam esta objeção e sugiro um diagnóstico
sobre onde Stich se equivoca. Enfim, argumento que uma vez retificado tal equívoco, não é

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 73



problemático sustentar que a TRM é capaz de endossar o realismo intencional e uma solução para
a causação mental em termos sintáticos.
Endossar o realismo intencional consiste em postular estados mentais (i) com conteúdo
semântico; (ii) causalmente eficientes e (iii) cujas generalizações explicativas são verdadeiras do
ponto de vista do senso comum. (Fodor, 1987). Já a tese da TRM sobre causação mental envolve
assumir que estados e processos cognitivos são computacionalmente implementados. Processos
computacionais são definidos sobre a manipulação (de acordo com regras) de objetos
sintaticamente estruturados, os símbolos. Símbolos são as entidades adequadas para a
“naturalização” da causalidade das representações mentais porque “computadores nos mostram
como conectar propriedades semânticas com propriedades causais para símbolos”. (Fodor, 1987,
p.18)
Para os propósitos da discussão aqui elaborada, a seguinte condição introduzida pela adoção da
metáfora computacional ganha destaque:
Solipsismo Metodológico: se processos mentais são computacionais, (portanto, sintáticos,) então
eles têm acesso apenas as propriedades formais das representações. I.e, processos mentais são
insensíveis aos aspectos semânticos das representações.
Stich (1983) aponta para incongruências em sustentar o solipsismo metodológico e endossar o
realismo intencional. O problema reside na impossibilidade de a TRM formular generalizações
explicativas que são verdadeiras do ponto de vista do senso comum, caso o solipsismo seja
assumido. Pois, generalizações explicativas adotadas pelo senso comum são formuladas em
termos do conteúdo de estados mentais. Mas, segundo a interpretação de Stich, o solipsismo
impede a referência ao conteúdo de estados mentais nas explicações oferecidas pela TRM – mais
exatamente, impede o apelo a taxonomias psicológicas formuladas em termos de conteúdo
semântico de tais estados. Logo, a TRM não satisfaz (iii e, portanto, não endossa o realismo
intencional.
Contudo, o solipsismo metodológico não impõe restrições às formulações de explicações
psicológicas da TRM. (Fodor, 1992). O solipsismo exige que os mecanismos responsáveis pelas
generalizações explicativas sejam sintáticos. Mas, não que as generalizações sejam formuladas
“em termos sintáticos”. Com efeito, a TRM pode utilizar generalizações em termos semânticos
desde que as propriedades semânticas “supervenham” da base sintática dos mecanismos. Assim,
a objeção de Stich confunde seu verdadeiro alvo, não sendo o caso de que a adoção do solipsismo
metodológico impeça a formulação de generalizações explicativas verdadeira da perspectiva do
senso comum.

42. TEORIA DA LÓGICA MENTAL E RACIOCÍNIOS COTIDIANOS


Dr. Juliano do Carmo
PPGFil – UFPel
juliano.ufpel@gmail.com

Meu objetivo neste trabalho é avaliar se raciocínios cotidianos são ou não permeados por
processos lógicos. A Teoria da Lógica Mental (TLM) sustenta que "raciocinar" é meramente uma
questão de aplicação de regras de inferência. Contudo, a TLM vem sendo constantemente
desafiada por programas teóricos alternativos, em especial pela Teoria dos Modelos Mentais de
Johnson-Laird. Uma vez que a lógica é tradicionalmente reconhecida como a "ciência" dos
argumentos válidos, enquanto as teorias de prova são modos distintos de abordar a validade, o

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 74



ponto de partida para avaliar se raciocínios cotidianos são permeados por processos lógicos é a
avaliação do conceito de validade. Os teóricos da lógica mental concordam que em primeiro lugar
é necessário estabelecer se as pessoas usam ou não regras de inferência da lógica. Esta é uma
questão importante, mas pretendo mostrar que ela não é a questão principal. É imperativo saber
se as pessoas têm alguma noção de validade lógica e se elas a usam em seus raciocínios cotidianos.
Em outros termos, minha proposta é a de que, antes de perguntar se as pessoas usam regras de
inferência, primeiro precisamos saber se, e em que medida, elas empregam a noção de validade
lógica. A principal razão para estruturar essa questão, portanto, é que ela se concentra no que
geralmente é considerado como a essência da lógica e que, também, possui o potencial de evitar
a visão teórica excessivamente estreita da TLM (da lógica como mera aplicação de regras de
inferência). Além disso, pretendo discutir o problema da aquisição das competências para a
realização de raciocínios dedutivos, a respeito do qual a TLM não consegue resolver de modo
satisfatório.
Palavras-chave: Teoria da Lógica Mental; Raciocínios Cotidianos; Regras de Inferência.

43. FICÇÃO E NORMATIVIDADE: COMO SEGUIR REGRAS QUE NÃO EXISTEM?


Dr.ª Juliele Maria Sievers
PPGFil – UFAL
juliele.sievers@gmail.com

Minha proposta visa explorar o conceito de ficção enquanto um elemento presente não apenas
nos âmbitos teóricos da ciência e da Filosofia (através das narrativas que compõem os chamados
experimentos mentais “impossíveis”), mas também no campo da normatividade. Partindo das
concepções de Thomasson (1999), irei avaliar dois tipos de ficção presentes no âmbito normativo
jurídico, a saber, (1) as ficções normativas “ordinárias” – ou fictio legis, deliberadamente criadas
para lidar com situações onde não há jurisdição – e (2) as ficções normativas científicas do
Direito, que lidam com questões teóricas envolvendo a fundamentação do ordenamento.
Na filosofia, a presença do elemento ficcional é notada através, dentre outros casos, dos
experimentos mentais, onde somos convidados a “fazer como se” um estado de coisas – muitas
vezes, impossível – fosse o caso, para então derivar as consequências relevantes. Nas ciências
naturais, Hans Vaihinger (1924) defendeu as ficções como elementos fundamentais que
pautariam nosso conhecimento, na medida em que teríamos de “fazer como se” a realidade
empírica fosse correspondente a nossos modelos de conhecimento. No âmbito da lógica, filósofos
contemporâneos como David Lewis (1978) propõem o uso de operadores como o “according to
the fiction” na semântica do tratamento lógico dos objetos não-existentes.
Partindo deste contexto, meu propósito é o de avaliar o uso da ficção em um âmbito específico: o
da normatividade. No Direito, já na tradição do Direito Romano, observa-se a existência das fictio
legis como a que determina que, em estado de guerra, um soldado morto em cativeiro deve ser
considerado juridicamente “como se” tivesse sido morto dentro do território romano e enquanto
cidadão livre, para a garantia de direitos de sucessão. Já no âmbito científico do estudo do Direito
e de suas normas, temos a noção de norma fundamental, que serve de fundamento aos sistemas
jurídicos, dando-lhes a unidade que garante a própria possibilidade de seu estudo. Tal norma não
existe de fato dentro do sistema, e a ideia da necessidade de sua pressuposição enquanto ficção
foi introduzida pelo teórico do Direito Hans Kelsen (1979). Amplamente inspirada pela
“Philosophie des Als Ob” de Vaihinger, a abordagem kelseniana continua sendo amplamente
controversa até a atualidade.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 75



Pretendo demonstrar como as ficções normativas dos dois tipos citados poderiam ser analisadas
de acordo com a proposta de Amie Thomasson (1999), que encara as ficções como artefatos, ou
seja, objetos essencialmente criados por alguém. Esta abordagem vai ao encontro, até certo
ponto, da concepção das fictio legis, mas contrasta com a ideia kelseniana da norma fundamental
como sendo uma ficção justamente por não ser criada como todas as demais normas positivas.
Sendo apenas pressuposta, ela é simplesmente pensada “como se” fosse uma norma ordinária,
mas sem passar pelo processo de criação normativa. Minha proposta mostrará que a perspectiva
de Thomasson é insuficiente para captar as funções prescritivas que cada tipo de norma fictícia
se destina a desempenhar, e portanto não dá conta de aspectos normativos jurídicos decisivos
que parecem estar envolvidos na noção de ficção.

44. NECESSITY-MAKERS AND THE GROUNDS OF NECESSITY


Dr. Júlio de Rizzo
Pós-doutorando/PPGFil - USP
julioderizzo@gmail.com

In a series of recent publications, Kit Fine has developed a new approach to semantics based on
the idea of states, or truthmakers, exactly verifying statements. Distinctive of this relation, among
others, is the feature that a state is supposed to be wholly relevant to the proposition it exactly
verifies. Thus, while the state of Socrates being Greek exactly verifies the proposition that
Socrates is Greek, the fusion of the state of Socrates being Greek and it being raining now fails to
do so, since it has a part which plays no role in rendering the proposition in question true. While
truthmaker semantics has already been applied to a variety of topics its application to modalities
is still an open issue. In this talk, I first present a truthmaker semantics for propositional modal
logic S5 which is provably sound and complete. Central to the clauses for ‘□’ and ‘♢’ is the relation
of a state being an alternative to another state. As with exact verification (and exact falsification),
alternatives are subject to constraints of relevance. Having presented the clauses, I proceed to a
brief discussion of their consequences to the neighbor issue of what the grounds for necessities
are, that is, given a necessary proposition, why is it necessarily the case? Several of these
consequences turn out to match intuitively plausible stances on this question, and keep up with
the main tenets of the logic of grounds, which provides further support for the semantics
proposed.

45. O LUGAR DA IGNORÂNCIA NA SUSPENSÃO DO JUÍZO


Lucas Jairo Cervantes Bispo
Mestrando/PPGFil - UFBA
ljcbispo@outlook.com

O presente texto tem como objeto a suspensão do juízo e a ignorância. Sua pretensão é de
apresentar e discutir qual o lugar da ignorância na suspensão do juízo, especificamente enquanto
uma condição necessária para que a suspensão do juízo seja racional e justificada. Para tanto,
primeiro partir-se-á de uma perspectiva geral e neutra de suspensão do juízo, de maneira que
concepções específicas poderão compartilhar as conclusões do texto adaptando-as à suas
singularidades. Em segundo lugar, serão apresentadas e discutidas três diferentes interpretações
do conceito de ignorância proposicional, uma considerada padrão, entendida como ausência de
conhecimento, e duas interpretações alternativas, a primeira entendida como ausência de crença
verdadeira e a segunda como ausência de justificação para crer, considerando suas

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 76



especificidades. Por fim, apresentarei como hipótese a ser aprofundada uma abordagem
normativa quanto aos possíveis significados de ignorância que devem ou não estar em jogo
enquanto condições necessárias na racionalidade e na justificação da suspensão do juízo.
Palavras-chave: Suspensão do Juízo; Ignorância; Racionalidade; Justificação.

46. KNOW-HOW E PLANOS DE AÇÃO


Dr. Luiz Paulo Da Cas Cichoski
PPGFil - UFMG
luizpcichoski@gmail.com

Proponho contribuir com os recentes debates em epistemologia do know-how a partir de


reflexões que a Filosofia da Ação pode proporcionar. Know-how é um tipo de conhecimento
relativamente negligenciado na Epistemologia. Até muito recentemente, a posição consolidada
defendia uma tese de distinção e independência entre know-how e conhecimento proposicional
(know-that).
Entretanto, nos últimos vinte anos vimos um intenso debate a respeito da relação entre know-
how e conhecimento proposicional. A proposta atual mais discutida que tenta apresentar uma
alternativa à tradição é o Intelectualismo, a corrente que defende uma certa prioridade para o
conhecimento proposicional em sua relação com o know-how. Para essa proposta, know-how é
uma espécie de conhecimento proposicional.
Um dos principais argumentos apresentados pelos Intelectualistas tem origem em teorias
linguísticas. Particularmente, é um argumento por analogia entre as estruturas da língua inglesa
chamadas de embedded questions (“perguntas embutidas”) que pretendo explorar. Nesse tipo de
estrutura, uma questão é inserida dentro de uma outra sentença. Por exemplo: “Qual a sua
idade?” Poderia ser incorporada em outras sentença da forma: “Você se importaria de me dizer
qual é a sua idade?”. Os Intelectualistas enfatizam que o tratamento adequado dessa estrutura
sempre revela uma proposição e que know-how (saber como) é uma estrutura sintaticamente
definida como embedded question: “Como andar de bicicleta?” seria incorporado em: “Você sabe
como andar de bicicleta?”
Resistindo a essa proposta Intelectualista, gostaria de sugerir uma forma de enriquecer o debate
epistêmico sobre know-how a partir de propostas de Filosofia da Ação sobre nossa elaboração de
planos para. Em meio ao processo reflexivo pelo qual passamos para executar uma ação, um
estágio fundamental é a elaboração de um plano de ação que estabelece um caminho adequado
para o alcance do nosso objetivo. O plano prevê uma série de meios a serem adotados para a
obtenção do fim desejado. Esse estágio da formação do plano exige o conhecimento, por parte do
agente, de um conjunto de crenças instrumentais. Esse tipo de crença relaciona meios eficientes
para o alcance de determinados fins, relacionando duas descrições de ações, como no exemplo:
“Eu posso ligar a luz da sala ao acionar o interruptor” (e a cadeia de ações pode se estender: “Eu
posso acionar o interruptor ao pressioná-lo com meu dedo”; “Eu posso pressionar o interruptor
com meu dedo ao mexer meu braço” etc.).
A posse de conhecimento instrumental é muito semelhante ao tipo de proposição que o
Intelectualista afirma estar envolvida na instanciação de know-how. Explorando o caso acima, o
Intelectualista afirmaria que a proposição conhecida por um agente que tem know-how de ligar
a luz da sala é: “X é uma maneira para eu ligar a luz da sala”.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 77



Minha proposta é mostrar que esse tipo de proposição simplesmente contempla uma “dimensão
teórica” do know-how; o saber como fazer algo que diz respeito ao conhecimento de formas,
maneiras, métodos, procedimentos de se obter o resultado final desejado. Entretanto, ela é
carente da “dimensão prática” que deveria estar presente em uma concepção adequada de know-
how.

47. ALCANCE E LIMITES EPISTEMOLÓGICOS DAS TÉCNICAS DE ANÁLISE DE


BIG DATA NO CONTEXTO DA PESQUISA CIENTÍFICA
Dr.ª Mariana Vitti Rodrigues
UNESP/Marília
mvittirodrigues@gmail.com

O objetivo do presente trabalho é investigar o alcance e limites das novas tecnologias de Big Data
na detecção de relações causais no contexto da pesquisa científica. A questão que direcionará
nossa apresentação pode ser assim formulada: Que critérios estão envolvidos na escolha de
relações (causais e/ou correlacionais) presentes em massiva quantidade de dados disponíveis
para análise científica? Para investigar tal questão, apresentamos conceitos básicos da Estatística
discutindo em que medida esse quadro conceitual é transposto para análise de massiva
quantidade de dados. Em seguida, discutimos duas abordagens contemporâneas, propostas por
Piestch (2013, 2014) e Pearl (2013, 2015, 2018), acerca de métodos para detecção de relações
causais no contexto das técnicas de Big Data. Pietsch (2013) reivindica que as técnicas de análise
de Big Data, aliadas ao raciocínio por indução eliminativa, constituem um critério para o
desvelamento de relações causais. O autor entende que o método por indução eliminativa permite
desvendar quais propriedades são relevantes em um determinado contexto, de acordo com os
parâmetros estabelecidos, a partir de intervenções realizadas no objeto de estudo. Segundo Pearl
(2013), além do estabelecimento de relevância/irrelevância entre variáveis, a detecção de relações
causais exige o desvelamento da direcionalidade entre eventos. O autor entende que o raciocínio
diagramático possibilita a visualização da direcionalidade das variáveis analisadas, por exemplo,
pelo método de intervenção proposto por Pietsch. Assim, Pearl (2013) propõe que a detecção de
relações causais é possível a partir da elaboração e manipulação de diagramas por raciocínio
contrafactual. Entendemos que as duas propostas se complementam, possibilitando nossa
investigação sobre o alcance e limites das novas tecnologias de Big Data na detecção de relações
causais na pesquisa científica. Por fim, faremos um balanço geral das propostas apresentadas,
trazendo exemplos ilustrativos sobre o alcance e limites da aplicação de técnicas de Big Data na
prática científica.
Palavras-chave: Big Data, Estatística, causalidade, correlação.

48. RELAÇÃO ENTRE LÍNGUA E PERCEPÇÃO DE CORES


Matheus Dal’Puppo
Mestrando/PPGFil - Unisinos
mate_dp@hotmail.com

O objetivo deste trabalho é apresentar como nossa percepção de cores ocorre, isto é, como que
percebemos determinados estímulos luminosos como cor e como categorizamos esses diferentes
estímulos como distintos um do outro (e.g. amarelo é distinto de rosa etc). Os olhos humanos não
filtram todos os comprimentos de onda possíveis, ocasionando uma restrição da percepção de

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 78



estímulos que não estejam entre ~400 nn e ~800 nn (~400THz-800THz), sendo comprimentos
de onda abaixo de 400 nn são ultravioletas e acima de 800 nn são infravermelho (HEWITT,
2002). Dessa forma, o espectro visível humano está entre o ultravioleta e o infravermelho.
Quando um estímulo luminoso (comprimento de onda visível) incide no olho humano, esse sinal
é transcrito pelos cones e bastonetes localizados na retina e é mandado para o córtex visual pelo
nervo óptico. Esse processo é como uma filtragem, comprimentos acima de 800 nn ou abaixo de
400 nn não serão filtrados, sendo dissipados na retina. Já os sinais transcritos pelos cones e
bastonetes vão do nervo óptico para o córtex visual para serem processados (KOLB, 2003). O
processo que ocorre na retina é chamado de processo perceptual enquanto o que ocorre no córtex
visual é chamado de processo cognitivo. Porém, não é nem na retina, nem no córtex visual, que
as cores são categorizadas, sendo um estágio de processamento cognitivo elevado, localizado no
córtex pré-frontal dorsolateral (CPFD) (BIRD; BERENS; HORNER; FRANKLIN; 2013), ou seja,
até o estímulo ser processado no CPFD não há processamento de categorização de cores. Embora
todos os seres humanos compartilhem o sistema perceptual e cognitivo semelhantes, o que
ocasionaria uma semelhante percepção e uma semelhante cognição, a forma de categorizar cores
não segue o mesmo este padrão. Um exemplo disso é a língua berinmo, que categoriza o espectro
visível em cinco cores (DAVIDOFF, 1999). Isso ocasionaria uma diferente percepção de estímulos
luminosos que chamamos de cores? Um estudo feito por Roberson, et al, mostra que falantes de
berinmo não conseguem distinguir a transição entre o azul e o verde, pois ambos se encontram
na mesma categoria de cor (ROBERSON; DAVIDOFF; BRAINSBY, 1999). Portanto, o problema
acerca da percepção de cores se torna mais robusto ao analisarmos o exemplo de categorização
de cores da língua berinmo, pois a pergunta que devemos nos fazer é: como organismos com
sistemas perceptuais e cognitivos semelhantes categorizam cores de maneira distinta?
Apresentarei a tese do Cérebro Bayesiano (FRISTON, 2010; HOHWY, 2013) a fim de responder
a pergunta acima, em favor à tese do Relativismo linguístico: a percepção de cores é alterada pela
língua do falante.
Palavras chave: Cores; Percepção; Cognição; Relativismo Linguístico; Cérebro Bayesiano.

49. METACOGNITIVE FEELINGS AND CONCEPTS


Matheus Diesel Werberich
Graduando - UFSM
matheusdiesel01@gmail.com

Metacognitive feelings (m-feelings) are mental phenomena that have started many discussions
on both philosophy and the cognitive sciences. They are primarily understood as subjective
experiences that somehow inform their subject about her mental states. For example, the feeling
of knowing (FOK) happens when the metacognitive system detects that something can be
retrieved in memory and represents that affordance through a specific sensation. Thus, m-
feelings have a dual nature: they have both phenomenal properties, as well as are capable of
indicating something about the subject’s cognitive processes.
While trying to account for these characteristics, philosophers offer different perspectives on the
structure of m-feelings: conceptual theories treat them as phenomenal experiences with an
attached concept of the relevant mental state, while expressive accounts argue that m-feelings
directly point, through their valence and intensity, to a cognitive affordance. Intuitively,
conceptual theories seem more acceptable since they are capable of more clearly distinguishing
between the phenomenal and representational properties of m-feelings: while the former is
understood in terms of bodily sensations and their valence, the latter should be characterized by

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 79



its use of concepts that refer to the target mental state. However, the conceptual account has some
difficulties with the underlying cues and heuristics monitoring processes that generate m-
feelings.
According to most of the empirical literature on m-feelings, they are generated by the monitoring
of general cues and heuristics of cognitive processes. The FOK, for example, originates when the
retrieval process achieved a level of fluency (i.e., easiness of formation) higher than the expected
threshold. If the cues used by the monitoring system are present in any cognitive mechanism,
then this would mean that the metacognitive system doesn’t have direct access to the content or
mechanisms of certain mental states, but only to general aspects of them. If this is true, then how
could m-feelings be able to represent mental states through concepts? To do so, the metacognitive
system would have to be able to have direct access to the processes being monitored to apply the
correct concept. Since direct access isn’t how metacognition seems to work, then the conceptual
theory of m-feelings seems to be inadequate.
One possible counter-argument for the conceptual theory is that certain heuristics are more
closely associated with certain kinds of mental state, therefore allowing the metacognitive system
to employ their concepts in a given m-feeling. However, even if this is true, it doesn’t necessarily
follow that concepts are constituents of m-feelings. It could be the case that the subject is more
prompted to describe her m-feeling using the concept associated with a certain heuristic, but that
doesn’t make the concept part of the feeling, but only of an introspective interpretation of the
latter.
Therefore, metacognitive processes are not able to have direct access to the mechanisms being
monitored, but only to general aspects. If direct access is required for the system to employ the
correct concepts in an m-feeling, then the conceptual theory is at odds with what empirical
research says on the matter.

50. A NOÇÃO DE RESPONSABILIDADE DERIVADA NO CONTEXTO DE AGENTES


ARTIFICIAIS
Dr.ª Mariana C. Broens
PPGFil – UNESP/CNPq/FAPESP
m.broens@unesp.br

O objetivo deste trabalho é analisar criticamente, no contexto das técnicas de análise de Big Data,
o problema levantado por Andreas Mathias (2004) sobre o hiato de responsabilidade
(responsibility gap). O problema pode ser assim formulado: uma vez que sistemas autônomos
artificiais (como os de aprendizagem de máquina utilizados na análise de grandes dados) são
capazes de tomar decisões autonomamente, sem controle humano, mas que geram efeitos sobre
seres humanos, surge um hiato na atribuição de responsabilidade pelas consequências dessas
decisões. Procuraremos mostrar que a noção de agência compartilhada pode auxiliar a superar
tal problema, permitindo atribuir a sistemas artificiais responsabilidade derivada pelas
implicações das decisões tomadas sem controle humano. Tal atribuição parece ser eticamente
legítima uma vez que, como procuraremos mostrar, os sistemas artificiais autônomos fazem parte
de uma rede de agentes naturais e artificiais que, entendemos, devem ser considerados
corresponsáveis pelas consequências dessas decisões.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 80



Referência
Mathias, Andreas. The responsibility gap: Ascribing responsibility for the actions of learning
automata. Ethics and Information Technology. Volume 6, pages 175–183 (2004). Disponível em:
https://www.academia.edu/243900/The_Responsibility_Gap._Ascribing_Responsibility_for_
the_Actions_of_Learning_Automata

51. AN EVALUATION OF WALTON’S DISTINCTION BETWEEN CORRECT AND


INCORRECT APPEALS TO IGNORANCE
Dr. Matías Gariazzo
Facultad de Humanidades y Ciencias de la Comunicación - UDeLaR
mgariazzo1@gmail.com

Walton (1992, 1996, 1999, 2008) showed that many fallacies are incorrect applications of
argument strategies that can also be correctly applied. For him, the appeal to ignorance is among
these strategies. Walton presents two argument schemes as a characterization of the appeal to
ignorance:
(I) It has not been proved that P is true. P is false.
(II) It has not been proved that P is false. P is true.
This paper has two purposes. The first one is to show that some of the arguments Walton
identifies as correct appeals to ignorance are fallacious, whereas the rest are correct but can only
be considered as appeals to ignorance if we adopt a non-traditional understanding of this
category. The second purpose is to show that there are arguments not considered by Walton that
could be correct appeals to ignorance as traditionally conceived.
Concerning the first purpose, I identify two types of argument that, according to Walton, contain
correct arguments from ignorance. I call the first type “pragmatic arguments”, insofar as certain
practical consideration present in the context where such an argument is presented would explain
its correctness. I argue that these arguments are incorrect, insofar as the support the premises
give to the conclusion in a correct argument is understood as implying the evidential support of
the former to the latter (in the sense that, for a rational being that understands the premises, the
conclusion and the inferential relation between them, the premises count as evidence for the
conclusion), and pragmatic arguments give no evidential support for their conclusions.
The second type consist of arguments that are based both on lack of knowledge and on evidence.
As Copi and Cohen (2014:132) notice, such arguments are not appeals to ignorance as
traditionally conceived, since they appeal both to ignorance and knowledge. Walton claims (1999:
370-371) that it is reasonable to class them as appeals to ignorance, insofar as they appeal to
ignorance after all. I argue that this is a bad answer, since it renders all non- deductive arguments
appeals to ignorance. Any non-deductive argument has a - usually implicit- premise that states
that its conclusion is not known to be false, and usually others that count as evidence for the
conclusion.
In the end, Walton conceives the appeal to ignorance not in terms of the support the premises
give to the conclusion, but as a pragmatic category that singles out instances of schemas (I) and
(II) by taking only into account what is explicitly said because of not being salient in context.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 81



Concerning the second purpose, I present a class of arguments that appeal to an economy
principle to infer their conclusion, and could be considered appeals to ignorance as traditionally
conceived. Since this principle would be a rule of inference rather than an implicit premise, these
arguments would not appeal to knowledge but only to ignorance. Be that as it may, I contend that
it is controversial whether this principle governs our rationality, and so whether these arguments
are correct.
References
Copi, I. and Cohen, C. (2014). Introduction to Logic. Harlow: Pearson Education Limited.
Walton, D. N. (1999a). “The Appeal to Ignorance, or Argumentum ad Ignorantiam.”
Argumentation, 367-377.
Walton, D. N. (2008). Informal Logic. Cambridge: Cambridge University Press.
Walton, D.N. (1992). “Nonfallacious arguments from ignorancie”. American Philosophical
Quarterly 29/4, 381-387.
Walton, D.N. (1996). Arguments from Ignorance. Pennsylvania: The Pennsylvania State
University Press.

52. LINGUISTIC ENACTIVISM: THE THEORY AND ITS SCOPE


Dr.ª Nara Figueiredo
Pós-doutoranda/PPGFil – UNICAMP
naramfigueiredo@gmail.com

In order to provide a new enactive-based approach to cognition that deals with the categorical
gap between lower-order and higher-order cognitive processes, Di Paolo, Cuffaro and De Jaegher
(2018) recently proposed a rich and intricate theory of cognition that conceives bodies as
linguistic beings and rejects the need of mental representation to explain cognition; I call it
linguistic enactivism. This theory provides a framework for the understanding of bodies, social
practices, and language that frames cognition as a three-level domain, namely, the organic
viability, the sensorimotor grasp, and the social interaction, and presents a model of cognition
that starts from participatory sense-making and builds up through seven other dialectic steps
leading to the notion of linguistic agency, which is a key notion for considering reference,
grammar, symbols and other features of language under its perspective. In this talk, I will present
the main points of linguistic enactivism and question how the theory can influence new
developments in research about language. For doing that, I’ll resort, first, to some reflection on
what an understanding of language needs in order to provide a full account of embodied language,
and second, to some examples of contemporary embodied empirical research in neurolinguistics
and social interaction. The empirical research in neurolinguistics is strongly influenced by
embodied cognition, but it relies on the notion of mental representation, while research on social
interaction is considered as an alternative for shifting the paradigm of mental processes as based
on mental representation to the notion of participatory sense-making. In pursuing this line of
investigation, I am at identifying (1) what aspects of current empirical research are influenced by
embodied theses of cognition, and (2) what needs to be considered in empirical research, in order
to avoid the postulation of mental representations. In this talk, I am going to present a work in
progress which has as its the overarching aim to evaluate whether and how linguistic enactivism
can influence empirical research about language.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 82



53. O HOLISMO EM QUINE E AS ENTIDADES INOBSERVÁVEIS DAS TEORIAS
CIENTÍFICAS
Natália Amaral de Azevedo
Mestranda/PPGFil - UEL
natalia.a.filo@gmail.com

Dentro do debate sobre as ciências naturais, apesar dos filósofos divergirem em suas análises a
respeito de inúmeros aspectos, parece ser um consenso a concepção geral de que as teorias
científicas (em especial as que são bem-sucedidas) possuem o empirismo como uma de suas
principais características. Porém, um fato que também é bem conhecido e aceito é o de que para
dar conta dos fenômenos muitas vezes os cientistas precisam postular entidades que não são
diretamente acessíveis à observação, o que suscita inúmeras discussões com relação a esse
empirismo. Uma explicação para o modo como os cientistas empregam essas entidades
inobserváveis pode ser encontrada na filosofia da ciência de Willard Quine. Então, buscando
compreender como os cientistas postulam entidades inobserváveis, o presente trabalho irá
apresentar o modo como Quine constrói sua alternativa. Para isso, será feito por meio da análise
de textos do filósofo, a apresentação da discussão que ele faz sobre ontologia e linguagem,
mostrando a dimensão epistemológica que tais questões tratadas por Quine possuem. Em seguida
será apresentado a posição holista adotada por Quine e será explicado como ela, acrescida de um
outro referencial muito importante em sua filosofia: o pragmatismo, é usada para falar a respeito
de teorias científicas e de suas entidades. Por fim, será apresentado como exemplo o episódio da
história da ciência onde, para resolver um grande problema que acometia a teoria mais bem-
sucedida da física, cientistas passaram a se comprometer com a existência de uma entidade
inobservável conhecida como “bóson de Higgs”, isso para que, analisando tal episódio à luz da
alternativa quineana já apresentada anteriormente, possamos compreender melhor como os
cientistas postulam e utilizam entidades inobserváveis em suas teorias.
Palavras-chave: Ciências naturais; Entidades inobserváveis; Holismo.

54. SOBRE O PROBLEMA DA TRANSITIVIDADE DA RELAÇÃO “MELHOR QUE”


EM PARFIT E TEMKIN
Natália Amorim do Carmo
Doutoranda/PPGFil - UFU
nataliaamorimdocarmo@gmail.com

Esta apresentação terá como objeto de investigação a problemática da transitividade na relação


“melhor que”. Tomarei como ponto de partida do tratamento da questão o exposto em Reasons
and Persons, por Derek Parfit, o qual propõe o The Mere Addition Paradox. Segundo este
paradoxo, há três alternativas, A, B e A +, e parece que, tudo considerado, A é melhor que B, e B
é melhor que A +, contudo, A não é melhor que A +. Observando que “melhor que" é uma relação
transitiva, Parfit afirmou que os três julgamentos eram inconsistentes e que um deles deveria ser
recusado. O paradoxo estava no fato de que cada um dos três julgamentos inconsistentes parecia
extremamente plausível, de modo que, embora estivesse claro que pelo menos um deles tinha que
ser rejeitado, era difícil ver como algum deles poderia ser abandonado. Para analisar este
paradoxo proposto por Parfit, a hipótese central desta apresentação será que a suposição de que
“um resultado é melhor que outro” pode ser uma relação não-transitiva. Ou seja, A pode ser
melhor que B, B pode ser melhor que C, e pode não ser verdade que A é melhor que C. Ou ainda,

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 83



C pode ser melhor que A, de modo que a relação “é melhor que” não seria transitiva. Esta
perspectiva é colocada por Larry Temkin, em seu livro Rethinking the Good, de modo que o
objetivo principal aqui será entender as consequências ao problematizar a transitividade da
relação em questão a partir deste novo viés, pois nada é acrescentado ao debate ao apenas insistir
que é uma mera verdade analítica que a relação “é melhor que” é transitiva.

55. DOMÍNIOS VARIADOS E FAZEDORES-DE-VERDADE


Paulo Vitor Domingues
Graduando - UFJF
paulovitormvd@gmail.com

Intuitivamente, parece plausível afirmar que dada uma proposição (ou sentença) verdadeira,
existe algo que a torna verdadeira. A essa coisa que torna proposições (ou sentenças) verdadeiras,
dá-se o nome de fazedor-de-verdade (truthmaker). David Armstrong, em seu World of State of
Affairs (1997), define a tese do princípio dos fazedores-de-verdade (truthmaker principle) em
sua versão modalizada assim:
In the useful if theoretically misleading terminology of possible worlds, if a certain truthmaker
makes a certain truth true, then there is no alternative world where that truthmaker exists but
the truth is a false proposition.
Timothy Williamson, em seu artigo Truthmakers and the Converse Barcan Formula (1999),
formaliza a afirmação de que necessariamente toda verdade é necessitada pela existência de
algo (TM) como um esquema da linguagem da lógica modal quantificada:
(TM) • (A → ∃x • (x = y → A))

Será importante avaliar alguns aspectos semânticos de (TM), dado que o princípio afirma que
para todo mundo w em que A é verdadeiro, existe um elemento p∈ dom(w) tal que para todo
mundo w*, se p∈ dom(w*), então A é verdadeiro em w*. E de forma semelhante, se A é falso
em w*, então p ∉ dom(w*), e, portanto, dom(w*) ≠ dom(w). Dado isso, podemos afirmar que
a aceitação de (TM) implica a aceitação de domínios variados de quantificação. O objetivo
principal da comunicação será avaliar (TM), sua relação com os domínios variados, e algumas de
suas vantagens e dificuldades.

56. CIÊNCIA LIVRE DE VALORES? DIFICULDADES NO CONSENSO EM TORNO


DO ARGUMENTO DO RISCO INDUTIVO
Pedro Bravo de Souza
Doutorando/PPGFil – PUCSP
pedrobravodesouza@hotmail.com

O argumento do risco indutivo é um dos principais argumentos contrários ao ideal da ciência livre
de valores. Enquanto este defende que não deve haver papel para valores não-epistêmicos na
avaliação de hipóteses científicas, aquele conclui que, ao decidir quão suficiente é determinada
evidência para uma hipótese específica, valores não-epistêmicos devem ser considerados. Dois
consensos se formaram na literatura contemporânea da área de ciência e valores sobre esse
argumento: o (i) consenso de que ele derroga o ideal da ciência livre de valores e (ii) consenso de
que a formulação do argumento dada por Heather Douglas é mais ampla que aquela de Richard

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 84



Rudner. Esta comunicação visa problematizar ambos consensos. Em relação a (ii), mostrarei
como a formulação de Douglas tanto restringe uma premissa de Rudner quanto aumenta o escopo
de outra, além de que Douglas tem preocupações claramente normativas e Rudner, não. No que
concerne (ii), tentarei mostrar que esse consenso é injustificado, pois autores que subscrevem o
argumento condicionam sua aplicação a casos em que não há evidências suficientes. Uma vez que
haja evidências suficientes para determinadas hipóteses, conforme eles, apenas valores
epistêmicos deveriam ser considerados. Penso que restringir o argumento a essa condição não
derroga o ideal da ciência livre de valores, senão, no melhor dos casos, limita seu escopo. Nessas
condições, então, o ideal teria sido apenas restringido, mas não derrogado. Há dificuldades,
portanto, em ambos os consensos.
Palavras-chave: Filosofia da Ciência; Ciência e valores; Argumento do risco indutivo.

57. CAN RELATIVISM UN-GIBBARD EDGINGTON?


Dr. Pedro Mendes de Lemos
Pós-doutorando/PPGFil – UFG
pedromendeslemos@gmail.com

1 The problem
This paper examines whether MacFarlane’s relativist framework (2003, 2005, 2014), originally
built to handle a host of expressions (such as temporal index- icals and epistemic modals, among
other), could be extended to a semantic theory that is both: (1) able to make sense of Gibbardian-
like standoffs (Gibbard, 1981), while (2) still retaining a truth-conditional view of indica- tive
conditionals (thus taking them as expressing propositions), which both Gibbard and Edgington
(1995, 1997) would themselves reject on the face of indicatives being involved on such standoffs.
From a formal standpoint, the technique we employ simply exploits minor tweakings on key
aspects of An- gelika Kratzer’s restrictor view of conditionals (1986), and then fit it back into
MacFarlane’s general picture. We argue in favor of such a view, while still assessing merits and
downfalls it could face, since it largely deviates from standard approaches to conditionals and
natural language semantics in general.
2 Outlining the argument
Nearly all central debates involving the meanings of conditional sentences (in both indicative and
subjunctive moods) are rooted in two simple stands about such expressions. The first one opposes
(1) those theorists who take indicatives and subjunctives to share any region (at various degrees)
of a common semantic core (on one side), from those theorists who don’t take them to be unified
in such a way. The second stand, in its turn, divides (2) those who take that conditional sentences
can be assigned truth-conditional contents and express propositions, and on the other side, those
who don’t take assertions of conditionals to involve truth-conditional contents at all (but rather
involves something else).
Thus for instance, Stalnaker (1975) and Edgington (1995, 1997) will agree on how they stand
about (1); that is, they will both take indicatives and sub- junctives to be semantically unified in
some way. On the other hand, both will largely deviate with respect to question (2) – Stalnaker,
for instance, will claim that conditional sentences can be assigned truth-conditional contents, and
that in fact they go by his similarity based framework, while Edgington (on the opposite side) will
claim that truth-conditions are too strong a con- dition to be holding on plausible everyday uses

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 85



of conditionals. Nevertheless, if we take Lewis (1973, 1976) and Gibbard (1981) for example, they
will both hold that indicatives and subjunctives cannot be sharing any common semantic core.
For instance, Lewis (1976) will claim that his closest-worlds framework is adequate when
counterfactual conditionals are at stake, but he thinks that an analysis for indicatives should go
some other way; he en- dorsed Grice’s material conditional analysis. Similarly, Gibbard held that
while “a nearness of possible worlds account is true of subjunctive condition- als” (1981, p.211),
an analysis of indicative conditionals would better go by Ernest Adams’ (1975) probabilistic
account. Cross-cutting all of Edgington’s, Lewis’ and Gibbard’s distinct accounts, is then the view
that indicatives can- not express propositions. But especially when it comes to Edgington’s and
Gibbard’s accounts, the paramount defense they will take in support of their non-truth-
conditional view goes by resorting to a standoff first shown by Gibbard in his (1981). In fact,
Edgington (1997) takes a step further, and argues that the very same kind of standoff, which
provided “a hard to re- sist case for denying truth values to many indicative conditionals”
(Morton, 1997), could in effect be extended to counterfactual conditionals. This posi- tion was
chiefly defended in her oft-cited Conditionals paper from 1997, and stressed her twofold project
of refusing any views to the effect that indicative conditional could express propositions (and be
assigned truth-conditional contents) and then extend such an outcome to counterfactuals; a
position which among others, was critically assessed by A. Morton’s Can edgington gibbard
counterfactuals? (1997) paper – hence our title.
Thereby, our work examines options on the other direction; viz. if we could make sense of
Gibbard-like standoffs, while still retaining a truth- conditional view of indicative conditionals.
For instance, one way of re- sponding to Gibbard-like cases was Kratzer’s (1986) “restrictor view”
of If - clauses, with a covert modal silently operating on the consequent. A second and distinct
kind of response can be found in Tamina Stephenson’s relativist approach, in (2007). Our paper
additionally examines a third option of inter- pretation, by outlining a framework that fits into
the patterns of Macfarlane’s (2014) relativist approach, endowed with contexts of assessments.
In essence, it is built upon a standard “restrictor view” analysis of indicatives, but with the modal
base coordinate initialized by contexts of assessments, at the rel- evant definition of truth at
contexts. By blending this semantic framework with a pragmatic theory relating to norms
governing speech acts, and dis- tinct kinds of attitudes towards them (such as rejecting one’s
claim), we may then factor out (and split) the disagreement and joint justifiability data of
Gibbard-like situations from the attitudes directly targeting speech acts, and not the contents
expressed by them.
References
E. W. Adams. The Logic of Conditionals. Synthese Library. D. Reidel Pub- lishing Company, 1975.

D. Edgington. On conditionals. Mind, 104(414):235–329, 1995. D. Edgington. Truth, objectivity,


counterfactuals and gibbard. Mind, 106

(421):107–116, 1997. A. Gibbard. Two recent theories of conditionals. In W. L. (et al.) Harper,
editor, Ifs. Conditionals, Belief, Decision, Chance, and Time, pages 211– 247. D. Reidel Publishing
Company, 1981.
A. Kratzer. Conditionals. Chicago Linguistics Society, 22:1–15, 1986.
D. Lewis. Counterfactuals. Blackwell, 1973.
D. Lewis. Probabilities of conditionals and conditional probabilities. The Philosophical Review,
85(3):297–315, 1976.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 86



J. MacFarlane. Assessment Sensitivity: Relative Truth and its Applications. Clarendon Press,
2014.
A. Morton. Can edgington gibbard counterfactuals? Mind, 106(421):101– 105, 1997.
R. C. Stalnaker. Indicative conditionals. Philosophia, 5, 1975.
T. Stephenson. Towards a Theory of Subjective Meaning. PhD thesis, De- partment of Linguistics
and Philosophy - Massachussets Institute of Tech- nology, Cambridge, Mass, 2007.

58. A INTERPRETAÇÃO SINTÁTICA DE TEORIAS CIENTÍFICAS (RECEIVED


VIEW) DE RUDOLF CARNAP: RECONSIDERAÇÃO PARA UMA POSSÍVEL
DEFESA
Pedro Henrique Nogueira Pizzutti
Doutorando - UEL
pedropizzutti@gmail.com

O presente trabalho tem por objetivo investigar a chamada abordagem sintática de teorias
científicas do Empirismo Lógico e, de modo específico, analisar a Received View (RV) de Rudolf
Carnap. Historicamente, a Received View de Carnap e do Empirismo Lógico dominou o cenário
da Filosofia da Ciência até meados de 1960 quando, de sua queda, cedeu lugar ao que ficou
conhecido por abordagem semântica de teorias científicas. Enquanto a primeira concebia teorias
como sistemas axiomáticos, os autores proponentes da abordagem semântica consideravam
teorias científicas enquanto famílias de modelos. Não obstante, esses mesmos autores, como, por
exemplo, Suppe (2000) e van Fraassen (2007), contribuíram para a enorme rejeição que o
Empirismo Lógico sofreu ao sustentarem que a abordagem sintática do movimento era
simplesmente a maneira incorreta de se proceder em Filosofia da Ciência. Por conta de tal
rejeição, abordagens sintáticas vinham sendo ignoradas e negligenciadas até poucos anos e, além
disso, foi somente nas últimas décadas que trabalhos passaram a ser dedicados aos autores do
Empirismo Lógico. Tais retomadas, contudo, têm mostrado que a rejeição do movimento
produziu uma série de caricaturas que retratavam erroneamente as construções teóricas e as
motivações de seus membros. Ademais, ficou evidente que, apesar de uma história de acalorado
debate entre abordagens sintáticas e semânticas, não houve, de fato, um embate por parte de seus
proponentes centrais. Assim, a rejeição acabou por produzir e “enterrar” um “espantalho” do
Empirismo Lógico, junto com construções que poderiam ser consideradas atualmente. Desta
forma, propomos analisar, neste trabalho, a abordagem sintática de teorias científicas, isto é, a
Received View, de Rudolf Carnap, em contraste com caracterizações clássicas, como a de Suppe
em The Structure of Scientific Theories (1977). Tal análise é feita apresentando uma concepção
consistente textualmente da RV de Carnap e avaliando até que ponto as críticas, como, por
exemplo, acerca do uso exclusivo da lógica de primeira ordem, procedem. Com esse objetivo em
vistas, começamos com a caracterização feita por Suppe (1977) e passamos à apresentação de
Feigl em “a visão ‘ortodoxa’ de teorias” (2004), que faz um esquema geral da Received View. Com
as linhas gerais estabelecidas, buscamos qualificar e especificar esse esquema com as
considerações de Carnap em diversos textos, valendo-nos, também, da pesquisa de Lutz em
Criteria of Empirical Significance (2012). Assim, com a concepção de Carnap construída, a
contrapomos com a caracterização de Suppe e avaliamos algumas das críticas centrais que a
Received View recebeu, analisando se elas se aplicam somente à caracterização estereotipada ou,
também, a nossa interpretação.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 87



Palavras-chave: Teorias Científicas; Received View; Abordagem Sintática; Rudolf Carnap.

59. ACTING IN LIGHT OF A FACT AND ACTING IN LIGHT OF A BELIEF


Rafael Graebin Vogelmann
Doutorando/PPGFIL – UFRGS
rafael.vog@gmail.com

We conceive of ourselves as beings capable of acting in response to normative reasons. Given that
our normative reasons are usually facts about the circumstances of action, this self-conception
entails that we are capable of acting in response to such facts. A common response to this claim
is to try to deflate it. This response is manifested in the view of those who hold that we always
decide to act in light of our beliefs and that talk of acting or deciding to act in light of facts should
be understood as an elliptical way of talking about deciding to act in light of true beliefs. The main
support for this view comes from the argument from error cases, i.e., cases in which the agent
decides to perform action A in light of the consideration that M but her belief that M turns out to
be false. In one such case the agent cannot be said to have decided to act in light of the fact that
M, since M is not the case. The right thing to say in this case is that the agent decided to act in
light of her belief that M. But the activities of deciding in light of a fact and deciding in light of a
belief in an error case can be indistinguishable from the standpoint of the agent engaged in
practical thinking. So, the argument goes, we should conclude that the agent is mobilizing exactly
the same capacities for practical thinking in both cases. Given that in the error case she is
mobilizing her capacity to decide how to act in light of her beliefs, the same must be true in the
case in which she acts in response to a perceived fact. What should follow is that acting in light of
a fact is simply a way in which to act in light a belief, namely, it is to act in light of a true belief.
The goal of this paper is to argue against this deflationary view. I start by offering a
counterexample to the view that to act in light of fact is to act in light of a true belief. One can act
in light of a true belief but fail to act in light of a fact when one decides to act in light of a
consideration that is true but which one does not know to be true. This shows that the argument
from error cases is unsound. The question is then where the argument goes wrong. I show that
Dancy’s claim that reason explanations are not factive fails to address the argument as I
reconstructed it. I then argue that the argument can be rejected if we adopt a disjunctive view of
acting in light of a consideration (according to which acting in light of a fact and acting in light
of a belief are two subjectively indistinguishable but distinct ways of acting in light of a
consideration) and proceed to motivate this view.

60. CONSCIOUS THOUGHT AND APHANTASIA


Dr.ª Raquel Albieri Krempel
Pós-doutoranda/PPGFil - UNIFESP
raquelak@gmail.com

Many philosophers have highlighted the importance of mental images in our mental lives, and it
is widely accepted that most of us frequently experience mental images of all sensory modalities.
Aristotle, for instance, claimed that thought requires images (De anima). Peter Carruthers (2015)
has argued for a similarly strong view, according to which conscious thinking is always sensory
based, so mental images of all sensory modalities are the vehicles of conscious thinking. He does
accept that we have amodal attitudes, like goals, decision, and some forms of judgment. But
precisely because they are amodal, they cannot, in his view, be conscious. I will argue that some

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 88



empirical findings create a problem for such views. It has been known at least since the 19th
century that some people report being unable to form mental images (Galton, 1880). This
condition has been recently called aphantasia (Zeman et al., 2015). In its extreme form,
individuals who are otherwise normal report being unable to form any kind of mental images (be
they visual, auditory, or of other sense modalities). In addition, some people sometimes report
having amodal thoughts (what Hurlburt & Akhter (2008) call unsymbolized thoughts), which are
not sensory based. If phenomena such as aphantasia and unsymbolized thoughts in people who
are not aphantasic are taken seriously (and I will argue that they should be), then they suggest
that mental images are not necessary for conscious thought. For if they were, we would have to
say that aphantasics are incapable of conscious thoughts, and that unsymbolized thoughts,
despite being reported, are never conscious. My suggestion is that the vehicle of unsymbolized
thoughts and of the thoughts of aphantasics is a language of thought which can still be conscious
even if not embedded in mental images.

61. LAWS OF NATURE, DISPOSITIONS AND PRAGMATICS


Renato César Cani
Prof. IFMT
Doutorando/PPGFil -UFSC
renatocani@gmail.com

Dispositional realists hold that the laws of nature are somehow related to the existence of
dispositional properties. According to this account, the explanatory power of scientific laws is
grounded on the existence of irreducible dispositions. However, dispositional realism faces some
drawbacks, especially because of its robust metaphysical commitments. In this talk, my aim is to
approach the debate on laws and dispositions by the point of view of voluntarist epistemology, as
conceived mainly by Chakravartty (2017). According to him, voluntarist epistemology is
understood as the statement that certain beliefs and actions that play a relevant role in the
evaluation of arguments are chosen by the subject, from the moment that she adopts a certain
stance. A stance can be conceived of as a set of epistemic values that guide the assessment of the
degree of epistemic risk that one is willing to assume in defense of a certain ontological theory.
In the case of discussions about the existence of laws of nature, the arguments found in the
literature tend to fit in one of the following three stances: (i) deflationary stance; (ii) empiricist
stance; (iii) metaphysical stance. According to Chakravartty's classification, while the
deflationary posture does not take discussions in ontology seriously, empiricist and metaphysical
postures are distinguished based on the role given to the demands for explanation. On the one
hand, the empiricist stance rejects all demands for explanations of phenomena in terms of
realities underlying the observable. Thus, the empiricist remains agnostic about the existence of
entities and processes that can provide answers to this type of problem. Hence, realistic
interpretations of laws and dispositions will not be endorsed, since these are based on the alleged
explanatory power of such entities. On the other hand, the metaphysical stance undertakes the
theorization about the unobservable entities and, thus, defends the ontological commitment to
certain entities and processes based on their explanatory power. The distinction between
metaphysical and empiricist stances has great explanatory advantages, such as the clarification
of the epistemic assumptions of certain theories in scientific ontology. Still, this distinction
reveals the difficulty of making sense of the debates between empiricist and metaphysical stances,
so that much of the discussion on laws and dispositions becomes preaching to the converted. In
order to solve this problem, my aim is to outline the general bases of what we could call a
pragmatic stance, not reducible to the three stances formulated by Chakravartty. The pragmatic

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 89



stance has as its central elements (i) the constraining of demands for explanation in terms of
unobservable to the research contexts in which such demands occur; (ii) the assessment of the
epistemic risk involved in positing entities based on the methodological aspects entailed by the
ontological commitment to such entities. I will argue that the formulation of the pragmatic stance
brings as its main advantages the expansion of the scope of the dispositionalist arguments and
the possibility of setting up a common ground for the debate between empiricists and
metaphysicians.

62. CRENÇAS E EXPECTATIVAS


Dr. Rodrigo Gouvea
PPGFil - UFF
rasgouvea@gmail.com

Crenças são estados mentais que representam o modo como as coisas são. Na medida em que se
adequam ao modo de ser das coisas, crenças são verdadeiras. De outra forma, são falsas. Tal
adequação diz respeito às proposições que figuram como conteúdo representacional de crenças,
seu conteúdo proposicional. Dito de outro modo, o conteúdo proposicional de uma crença deve
corresponder a um fato para que a crença seja verdadeira. Além de se distinguirem de outros
estados mentais por sua natureza representacional, crenças têm grande relevância prática.
Figuram como elementos de determinação do curso de nossas ações, apresentando seus meios de
execução, i.e., indicando as possíveis formas de satisfação de nossos desejos.
Uma concepção adequada do que sejam crenças deve reconhecer tanto a natureza
representacional quanto a relevância prática de crenças. Tendo em vista ambos os aspectos,
abordarei em minha comunicação concepções que se revelam tanto como pragmatistas quanto
como representacionalistas. Partirei, inicialmente, das concepções de crenças oferecidas por
Charles Peirce (1986 [1877] & 1986 [1878]), Frank Ramsey (1990 [1926], 1990 [1927], & 1990
[1929]) e Robert Stalnaker (1984), as quais reconhecem a natureza representacional de crenças e
destacam sua relevância prática. Investigarei, em seguida, a hipótese, aventada por Cheryl Misak
em suas interpretações de Peirce (Misak 2004 [1991]) e Ramsey (Misak 2017), de que crenças
sejam constituídas por conjuntos de expectativas.
Expectativas dizem respeito a experiências futuras, e se revelam, sobretudo, na surpresa que cada
um de nós vivencia diante de experiências recalcitrantes. Não está claro se Misak (2004 [1991])
& 2017) propõe relações de identidade entre crenças e expectativas, ou se as considera como
distintas, apesar da alegada relação constitutiva. Defende explicitamente, no entanto, a tese de
que crenças guiariam nossas ações por meio de “hábitos de expectativas”, que são confirmados
ou frustrados por nossas experiências. É importante ressaltar que experiências possam frustrar
expectativas mesmo que nós não estejamos conscientes da presença dessas expectativas ou
crenças, caso elas difiram.
Pretendo distinguir as consequências de compreender crenças como idênticas a expectativas ou
como sendo determinadas por expectativas. Ambas as posições serão avaliadas de forma crítica a
partir de objeções que aludem a possíveis contraexemplos, como crenças a respeito de verdades
analíticas e crenças acerca de eventos passados.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 90



63. AXIOMATIC SET THEORY AND RUSSELL'S VIEWS ON THE FOUNDATIONS
OF MATHEMATICS
Rodrigo Sabadin Ferreira
Doutorando/PPGFil - UFRGS
rodrigo.sabadin@ufrgs.br

The present work is concerned with the following question: why Bertrand Russell never adopted
– and apparently never even seriously considered adopting – an axiomatic account of the
principles of Set Theory?
Russell is indisputably one of the main figures in the whole history of Mathematical Logic and Set
Theory. Of all his contributions, perhaps the most well known are the formulation of the paradox
that bears his name (which showed that something was amiss with the so-called 'naive'
conception of set) and his solution to the difficulty, the theory of logical types. In the same year
in which Russell published his most famous attempt of solving his paradox - the article
Mathematical Logic as Based in the Theory of Types from 1908 - Ernst Zermelo published a
somewhat 'rival' solution to the very same difficulty: an axiomatic approach to the theory of sets.
Zermelo's Axiomatization – later improved, modified, discussed and rivaled by the approaches of
proeminent figures like Fraenkel, Skolem, von Neumann, Bernays, Gödel, Quine and many others
– quickly became the standard framework for investigations in the Foundations of Mathematics.
Surprisingly, however, Russell never published – and, as far as we know, never wrote – any
systematic or even lengthy discussion of axiomatic Set Theory. There are only tangential remarks
scattered throughout his works (for instance in My Philosophical Development) and some of his
personal correspondence (see, for instance Grattan-Guinness's Dear Russell, Dear Jourdain).
Our goal is to reconstruct a critique of Axiomatic Set Theory in the tradition started by Zermelo's
work (such as ZF, NBG, NF, ML, etc.) from some of Russell's writings on the Foundations of
Mathematics. Our conjecture is that Russell never endorsed or seriously adressed any axiomatic
approach to Set Theory because from a very early point in the development of his views (i.e., after
his discovery of his theory of incomplete symbols) he was convinced that sets and/or classes must
be treated as logical constructions. Russell's claim that classes are logical constructions resulted
from his the realization that the alternatives to this view were – or, so he thought – either logically
or philosophically unsound. On the one, for Russell, the admission of classes as entities on par
with individuals (entities that are values of first-order variables) led to paradox if adequate
primitive propositions were not assumed; on the other, the axiomatic alternative exemplified
what Russell called the method of postulation rather than of construction of mathematical
entities. Russell's reluctance to adopt such a route was not technical, but philosophical: for him
there is an ad hoc aspect to any such axiomatic approach, namely that they postulate entities
that satisfy some conception of set in order to provide Mathematics with the necessary (and,
generally, more than sufficient) amount of existential theorems.

64. FUNÇÃO BIOLÓGICA E CONTEÚDO DISTANTE


Dr. Sérgio Farias de Souza Filho
Pós-doutorando/PPGLM - UFRJ
sergiofariasfilho@gmail.com

O objetivo desta apresentação é defender a teleosemântica de um problema fundamental que


ameaça sua viabilidade – o problema distal. A teleosemântica propõe a redução da noção de

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 91



representação mental a noção de função biológica (Millikan 1984; Papineau 1984; Dretske, 1988).
Aqui assumirei a concepção etiológica de função biológica: a função de um traço biológico é o
efeito para o qual tal traço foi selecionado. Ou seja, a história da seleção de traços deste tipo é o
que determina sua função biológica. A tese central da teleosemântica é a identificação das
condições de verdade da representação mental com as condições sob as quais tal representação
executa sua função. Contudo, a viabilidade da teleosemântica é ameaçada pelo problema do
conteúdo distante (Dretske 1986) que especifica um caso de indeterminação funcional no que
concerne à função biológica da representação mental. Dado que a teleosemântica identifica as
condições de verdade da representação com as condições sob as quais tal representação executa
sua função, se a função da representação é indeterminada, suas condições de verdade também o
serão. Considere a cadeia causal que leva à ocorrência da representação mental R no sistema
representacional de um sapo: mosca → imagem na retina → ocorrência de R. A teleosemântica
assume que o que está sendo representado é a condição distante (a mosca), não a condição
próxima (a imagem na retina). Mas em virtude de que o sistema representacional foi selecionado
para discriminar a condição distante, mas não a condição próxima? Note que tal sistema
discrimina a condição distante através da discriminação da condição próxima. Por que então sua
função é discriminar apenas a condição distante e não a condição próxima? Há uma
indeterminação funcional quanto a qual seria a função do sistema representacional e assim o
conteúdo especificado pela teleosemântica estaria igualmente indeterminado. Nesta
apresentação, irei propor uma solução para o problema do conteúdo distante e assim assegurar a
viabilidade da teleosemântica. Primeiramente, irei propor o critério da assimetria – o sistema
representacional tem a função de discriminar a condição distante mas não a condição próxima
porque a discriminação da condição próxima é apenas um meio para discriminar a condição
distante (modificado de Neander 2017). Posteriormente, desenvolverei uma extensão da
concepção etiológica a fim de determinar a função biológica não apenas a partir da história atual
de seleção de traços deste tipo, mas também da história contrafactual. Argumentarei que o
critério da assimetria conjuntamente à concepção etiológica estendida soluciona o problema do
conteúdo distante ao especificar de maneira não arbitrária que a função do sistema
representacional é discriminar a condição distante.

DRETSKE, F. 1986. Misrepresentation. In “Mental Representation” (STICH & WARFIELD, eds.),


Basil Blackwell, Oxford & Cambridge, MA.
DRETSKE, F. 1988. Explaining behavior. MIT Press. Cambridge, MA.
MILLIKAN, R. G. 1984. Language, thought and other biological categories. MIT Press.
Cambridge, MA.
NEANDER, K. 2017. A Mark of the mental – in defense of informational teleosemantics. MIT
Press. Cambridge, MA.
PAPINEAU, D. 1984. Representation and explanation. Philosophy of Science, 51, pp. 550- 72.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 92



65. LÓGICAS DO CONSENSO HISTÓRICO
Vitor Medeiros Costa
Doutorando/PPGFil - UFSC
vitor.m.costa@outlook.com

Esta comunicação tratará de uma maneira de capturar logicamente a operação de “consenso


sobre determinado fato passado” na comunidade científica a respeito de fenômenos históricos
(naturais ou sociais) como “não há um consenso sobre o que ocorreu no período da extinção dos
dinossauros” ou “há um consenso de que Napoleão foi derrotado na batalha de Waterloo”. Nossa
abordagem faz uso de lógica temporal ramificada-para-trás de modelo kripkiano 𝑀 = 〈𝑇, ≺, 𝑉〉
com estrutura 𝑇 = 〈𝑇, ≺〉, possuindo ontologia de instantes, relação no mínimo com fim,
transitiva e irreflexiva e valoração clássica.

Primeiramente, modificar-se-á 𝐾𝑏 de modo a permitir nesse sistema, ao contrário do usual,


exclusivamente ramificação-para-trás (para o passado) e tornando-o ainda uma lógica sem
futuro: o instante final na linha do tempo é tratado interpretativamente como “instante-presente”
dado por ∃𝑡: ¬∃𝑡; (𝑡: ≺ 𝑡; ) (na contraparte sintática: 𝐺 ⊥∨ 𝐹𝐺 ⊥). Ainda nessa abordagem,
apresentar-se-á extensões interessantes para capturar melhor a ideia de um “consenso histórico”
a respeito do passado, como o axioma de conectividade histórica, que tornará o instante-presente
a raiz da estrutura temporal.
A estratégia para definir um operador de consenso histórico em um sistema minimal (e
extensões) passa por defini-lo analogamente (mas voltado-para-trás) ao 𝐹 em lógica temporal
ramificada peirciana (𝑃𝐵𝑇𝐿) originalmente formalizada por Arthur Prior. Assim, um consenso
sobre 𝜑 é verdadeiro em 𝑀, 𝑡 ∈ 𝑇 se “para toda história ℎ ∈ 𝐻(𝑡), existe algum instante 𝑡1 ∈ ℎ tal
que 𝑡1 ≺ 𝑡 e 𝑀, 𝑡H ⊨ 𝜑”. Note-se que o operador de consenso histórico □ℎ , assim como o 𝐹
peirciano, não obedecerá o princípio de terceiro-excluído modalizado: □ℎ 𝜑 ∨ □ℎ ¬𝜑.
Alguns resultados meta-lógicos desse sistema (e extensões), como sobre completude e correção,
serão comentados. As extensões serão contrastadas em vantagens e desvantagens, concluindo
qual parece mais adequado para uma visão estática de consensos e dissensos em uma
comunidade científica de ciências históricas. Tal operador, se utilizado em lógica dinâmica,
permite que instantes de tempo ou ainda ramos sejam eliminados de uma estrutura temporal,
podendo-se modelar, de modo semelhante à Lógica de Anúncio Público, um certo “progresso
consensual” na comunidade científica considerando certo falibilismo das interpretações possíveis
acerca do passado, isso porque o sistema passa a permitir que novos consensos sejam formados
progressivamente ao se eliminar histórias/ramos (enquanto cadeias maximais de instantes), cada
qual representando uma diferente interpretação-factual acerca do curso do passado, e até restar,
idealmente, uma única história.

66. DA NATUREZA SEMIÓTICA DOS DIAGRAMAS EUCLIDIANOS: FIGURAS


COMO AMOSTRAS
Dr.ª Tamires Dal Magro
Pós-doutoranda/PPGFil - UFSC
tamiresdma@gmail.com

Este trabalho reexamina três questões clássicas acerca do papel da visualização na matemática,
tendo como caso de estudo os diagramas geométricos euclidianos apresentados nos Elementos,

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 93



além de obras de autores posteriores que seguiram empregando o método euclidiano, tal como
Euclides ab omni naevo vindicatus, de Giarolomo Saccheri. São elas: (1) diagramas geométricos
são instâncias de conceitos geométricos? (2) Como explicar a possibilidade do uso de figuras em
provas por reductio ad absurd va III.10 dos Elementos, onde a hipótese textual a ser representada
no diagrama parece ser de um arranjo impossível composto por dois círculos que se cruzam em
mais de dois pontos)? (3) Como explicar a possibilidade de que um mesmo diagrama possa ser
utilizado para provar proposições sobre figuras incompatíveis (assim como ocorre na famosa
prova que utiliza o diagrama conhecido como quadrilátero de Saccheri)?
Essas questões são motivadas pelas seguintes críticas presentes na literatura sobre o uso de
diagramas em provas geométricas: (a) diagramas desenhados são imperfeitos (por exemplo,
nenhuma linha desenhada é perfeitamente reta) e julgamentos humanos sobre retidão e
igualdade de segmentos de linha são imprecisos; (b) uso de diagramas em provas por reductio:
muitos críticos veem nas provas por reductio – método pervasivo nos livros I a IV dos Elementos–
um indício de que os diagramas não poderiam ser utilizados. Alega-se, dessa perspectiva, que a
construção no diagrama deveria envolver algo como uma figura absurda, uma instância de
conceitos contraditórios. (c) Além disso, existem casos em que um mesmo diagrama pode ser
utilizado em demonstrações sobre conceitos geométricos distintos.
Esse autor, procedendo por meio da metodologia euclidiana standard, faz uso de um mesmo
diagrama, um quadrilátero isósceles birretangular, para provar teoremas sobre três figuras
radicalmente distintas. Sherry (2005), concebeu este caso como um puzzle para visões platonistas
sobre o uso de diagramas (e, em geral, um puzzle para autores que os vejam como representações
aproximadas das figuras geométricas da qual as provas tratam). O problema pode ser formulado
nos seguintes termos: como um mesmo diagrama poderia ser uma representação (mesmo que
aproximada) de três figuras incompatíveis?
A hipótese explorada neste trabalho é a de que o papel semiótico dos diagramas euclidianos pode
ser adequadamente explicado através do conceito de exemplificação, um dos tipos fundamentais
de representação presentes na teoria geral dos símbolos de Nelson Goodman (1968). Mais
especificamente, minha tese é a de que diagramas euclidianos são amostras daquilo que
representam, diferentemente de compreendê-los como instâncias. Aprofundo a discussão da
concepção sugerida brevemente em Lassalle Casanave (2013) – e não mais discutida na literatura
– de acordo com a qual diagramas geométricos são amostras de propriedades topológicas e
mereológicas e avalio se essa concepção permite explicar os aspectos sobre o uso de recursos
diagramáticos na geometria que enumeramos.

67. ROTEIRO DE POSIÇÕES ACERCA DA EPISTEMOLOGIA DA MEMÓRIA1


Vitor Rodrigues de Almeida
Mestrando/PPGFil - UFSM
vitorreportagem@gmail.com

Recentemente foi retomado um debate sobre o papel epistêmico da memória (Lackey: 2005,
Senor: 2007, Lackey: 2007, Bernecker: 2011): a memória pode fornecer conhecimento ou
justificação? Neste trabalho apresento as principais posições filosóficas acerca da filosofia da
memória, o plano teórico de fundo de tais teorias, tendo em vista o esclarecimento dos fatores
que as fazem divergir, além de fazer algumas observações positivas em favor do geracionismo. A
posição filosófica que responde a essa questão de maneira negativa é chamada de
preservacionismo. Segundo essa posição, de acordo com Senor, uma crença memorial verdadeira

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 94



não pode ter uma justificação maior em t2 do que no momento em que foi adquirida, em t1. Isto
é, a memória não gera justificação, apenas conserva a justificação dada por outra fonte não
memorial, como por exemplo, a percepção. Por outro lado, a posição filosófica que responde
positivamente à questão é o chamado gerativismo. Lackey, uma das proponentes dessa teoria,
argumenta, a partir de contraexemplos, que o preservacionismo, ou a visão preservacionista da
memória, é falso uma vez que a memória age como fonte de justificação para crenças, na ausência
de anuladores. Ocorre que, o preservacionismo tem como plano teórico a Teoria Epistemológica
da Memória (TEM), que diz que toda memória implica conhecimento. Robert Audi, um dos
principais defensores dessa teoria preservacionista em relação ao conhecimento, afirma que não
podemos lembrar proposicionalmente sem ter previamente sabido ou acreditado
perceptualmente, daí a crença é adequadamente preservada. Portanto, reter crença e
conhecimento é a principal ação da memória. Nesse sentido, ambas as teorias são incompatíveis
porque uma se caracteriza em oposição a outra, mesmo partindo de um mesmo plano teórico.
Diferentemente, o gerativismo proposto por Sven Bernecker, responderia a questão dizendo que
há casos em que sim. Já que tal teoria não se caracteriza unicamente em oposição ao
preservacionismo, mas em oposição à TEM, mais especificamente ao seu postulado de que toda
memória implica conhecimento. Tal crítica sugere que lembrar não necessariamente implica
conhecer, em t1. Dessa maneira, tal gerativismo se configura como uma posição compatibilista,
pois tem como base uma crítica ao que torna as teorias anteriores incompatíveis. Sendo assim,
parece que uma teoria compatibilista representa a faculdade memorial, em conjunção com o
conhecimento, de um modo mais acurado com o que de fato ocorre. Pois ela assegura intuições
importantes acerca da memória, que teorias incompatibilistas deixam de assegurar, como a
evidente capacidade de reter e preservar conhecimento advindo de outras fontes em alguns casos,
assim como de gerá-lo, em outros.

1 Tomei como modelo o modo como Elliott Sober analisa as posições canônicas acerca do livre
arbítrio e determinismo: caracterização das teorias em argumentos básicos (modus ponens e
modus tollens). Uma vez que as noções de segunda ordem sobre as teorias (compatibilismo e
incompatibilismo) permitem perceber nuances do debate mais cristalinamente, otimizando
investigações posteriores. Disponível em: https://criticanarede.com/eti_livrearbitrio2.html.

Caderno de Resumos do VI CONGRESSO DA SBFA - Filosofia Analítica no século XXI – 2020 – p. 95

Você também pode gostar