Você está na página 1de 6

“How to do things with words”, John Austin

Em ‘How to do things with words’ Austin apresenta suas duas Teorias dos Atos de Fala,
analisando sobretudo como o diálogo funciona e como podemos analisar este tipo de interação.
Sua primeira teoria se baseia na ideia de que, ao nos comunicarmos, produzimos mais do que
falas declarativas que podem ser entendidas como ‘verdadeiras’ ou ‘falsas’, afinal, como poderíamos
atribuir um destes valores a uma saudação como “bom dia”, ou a uma pergunta como “tudo bem?”.
Partindo disto, Austin passa a separar os enunciados em dois tipos, performativos e constativos.

Os performativos seriam então os enunciados que fazem parte da performance (execução) de


uma ação, ao contrário dos constatativos, que somente descrevem um estado de coisas no mundo. O
foco de Austin passa a ser então a exploração destes enunciados performativos.

Uma vez proferido, um performativo cumpria uma ação no mundo:

(a) Eu aceito - quando proferido no curso de uma cerimônia de casamento


(b) Eu deixo esse relógio a meu irmão – num ato de última vontade
(c) Eu aposto 10 reais como vai chover amanhã.

Ademais, adiciona que, mesmo não sendo descritos em ‘verdadeiros’ ou ‘falsos’, os


enunciados performativos têm condições de sucesso ou falha, que Austin chama de felicidade e
infelicidade. Em um caso onde a elocução de determinada fala, como no exemplo (c), for realizada
pelo falante com a intenção de realmente realizar a aposta tendo o dinheiro proposto e mantendo sua
palavra de que o dinheiro será dado caso a perca, a aposta seria realizada com sucesso, da mesma
forma que, se qualquer um destes passos fossem quebrados, encontramos uma situação de infelicidade
onde a aposta não tem validez.
Mais tarde em uma de suas palestras, Austin declara que até mesmo os enunciados
constativos são, na verdade, performativos implícitos, pois podem conter dentro de si verbos que
indicam ação, como pode ser exemplificado em:

(a) (Eu afirmo que) hoje está frio.


(b) (Eu testemunho que) a parte traseira da Lua não existe.
(c) (Eu admito que) o quadro é branco.
(d) (Eu proponho que) a sala está disposta em 5 fileiras de 20 cadeiras.
(e) (Eu certifico que) os biocombustíveis podem funcionar com gasolina ou álcool.

A segunda teoria dos atos de fala de Austin explora com um pouco mais de detalhe o que
acontece dentro de nossa fala quando realizamos qualquer tipo de elocução. Separa o momento do ato
de fala em três:

(1) O ato locucional: Compreende o ato fonético no sentido do dizer, sem realizar uma distinção
exata entre fonética e fonologia. Também tem um conteúdo fático (léxico-gramatical) e, por fim, um
ato rético que é o seu conteúdo semântico.

(2) O ato ilocucional: Trata-se de uma classificação do ato locucional, representa a intenção da fala
realizada. Uma simples declaração terá conteúdo ilocucional declarativo, uma pergunta terá um
conteúdo ilocucional interrogativo e assim por diante. Vale dizer que também existe uma ordem de
forças ilocucionais (ordem>pedido>súplica).
(3) O ato perlocucional: É a interpretação da intenção tida no ato locucional original, ou seja, a
resposta do ouvinte à elocução do falante dentro do diálogo, podendo cumprir, ou não, as condições
de felicidade apresentadas dentro do diálogo.

“Logic and conversation”, H. P. Grice

Neste texto Grice procura explicar as questões relacionadas às implicaturas e como estas são
formadas dentro de um diálogo convencional. Para isto ele determina algumas máximas
conversacionais que partem de um princípio de cooperação, que nada mais é do que um conjunto de
regras de cunho linguístico-social entendidos por todos falantes que devem normalmente ser seguidas
para que uma conversa faça sentido e seja satisfatória para todos os envolvidos em sua formulação. As
máximas de Grice então poderiam se resumir em “Faça sua contribuição à conversação conforme seja
exigido, no estado em que ocorre, pelo propósito ou direção aceitos da conversa em que você está
envolvido.” Estas máximas são:

(1) Quantidade: Se relaciona à quantidade de informação oferecida dentro do diálogo, devendo ser
tão informativa quanto necessário e não mais do que isso.

(2) Qualidade: Se relaciona à veracidade da informação colocada, o falante deve então contribuir
apenas com informações verdadeiras, não dizendo coisas que acredita serem falsas ou coisas para qual
não tem evidências que adequadas que as suportem.

(3) Relevância: O que é dito deve ser relevante à conversa, não pode fugir do assunto proposto, ou
seja, a fala deve ser adequada ao contexto conversacional em que o falante está inserido.

(4) Modo: Não se relaciona exatamente às coisas sendo ditas, mas sim como são ditas. Devem evitar
ambiguidade, obscuridade e prolixidade, a passo que possam ser consideradas breves e metódicas.

Com as máximas impostas, Grice explora então o rompimento dessas regras e as


consequências que podem ter. É possível que uma conversa ocorra sem que uma ou mais das máximas
conversacionais estejam presentes, e quando isso acontece surgem as implicaturas. Em um exemplo
como o seguinte:

(a) A: Onde Luís vive?


B: Em algum lugar no sul da França.

A resposta de B à pergunta de A é certamente menos informativa do que a exigida. No


entanto, esta 'violação da primeira máxima da Quantidade pode ser explicada pela suposição de que B
está ciente de que ser mais informativo seria dizer algo que infringiu a máxima da Qualidade,' não
diga aquilo para o que você não tem evidência adequada. Assim, B implica em sua resposta que ele
realmente não sabe exatamente onde Luís vive.
“Speech Act Models of Dialogue”, Stephen Levinson

O texto busca explicitar algumas questões que Levinson traz a respeito do diálogo e situações
conversacionais concretas. De início, apresenta um modelo que segue uma lógica formal e
padronizada de conversação, onde P¹ realiza uma elocução U¹ que, por sua vez, determina um ato de
fala A¹, processo esse que teria como resposta padrão um ato de fala A² formado por uma elocução U²
vinda de P², e assim sucessivamente. Mas logo, Levinson nota que este tipo de estrutura é formal
demais para um diálogo convencional, explicitamente dizendo que “o diálogo não possui sintaxe”, no
sentido de que não se prende a uma determinada estrutura formal para que tenha sentido. Prova isto
com alguns exemplos:

(1) “Você gostaria de uma bebida?” - Possui mais de um valor ilocucional atrelado a si, é tanto uma
pergunta quanto uma oferta, podendo ter diversas possíveis respostas, que não necessariamente se
encaixam na estrutura apresentada, uma delas sendo uma pergunta “Quais vocês têm?”.

Ou até mesmo uma situação mais complexa, onde uma fala não necessariamente busca
demonstrar o que explicitamente diz. Aqui Levinson se imagina em uma festa com sua esposa
Mildred, e após algum tempo, ao perceber que não está conseguindo gostar do evento diz:

(2) “Está ficando tarde Mildred” que pode ter como resposta

(2.a) “Mas são só 11h45, meu bem” que responde concretamente sua pergunta.
(2.b) “Mas estou me divertindo tanto” que entende o desejo que ambos deveriam ir embora.
(2.c) “Você quer ir embora?” que entende o desejo de apenas Levinson de ir embora
(2.d) “Você não está gostando da festa, querido?” que entende o motivo da pergunta.

Cada resposta se baseia na mesma frase inicial, mas cada uma apresenta uma diferente e
possível interpretação, sendo a primeira a mais direta, e ao mesmo tempo, a que menos faria sentido
em ser dita dado o contexto da elocução. Isso prova a infinidade de respostas perlocucionais possíveis
após um ato locucional, todas estas contendo algum tipo de valor ilocucional, incluindo o silêncio ou
até mesmo ações físicas. Sendo assim, um modelo formal de estrutura conversacional seria apenas
possível diante de limitações explícitas.

"Mind, a quarterly review of psychology and philosophy", Alan Turing.

O texto gira em torno do questionamento "as máquinas podem pensar?", e partindo disso Turing
procura provar essa suposição.

Jogo da Imitação: São colocados em uma sala duas pessoas, (A) um homem e (B) uma mulher, e em
outro ambiente uma pessoa (C) que interrogará as outras duas. O interrogador faz perguntas que são
respondidas escritas em papel com o objetivo de fazer com que (C) tenha dificuldade em identificar o
gênero de (A), que sempre será desonesto, e de (B), que sempre será honesto.

Caso (A) fosse substituído por uma máquina, ela seria capaz de enganar o interrogador e se passar
suficientemente bem por um ser humano?
Turing passa a explicar o funcionamento de computadores digitais, separando seus aspectos em três
principais, o armazenamento (responsável pela capacidade de memória e armazenamento de
informações), a unidade executiva (responsável por realizar as operações programadas) e o controle
(responsável por manter as regras e instruções que a máquina deve seguir para realizar suas
operações).

O computador digital deve ser capaz de imitar o comportamento de qualquer máquina discreta, o que
seria possível se considerarmos os computadores digitais como máquinas universais, no sentido de
que podem ser reprogramadas para realizar qualquer tipo de função que o programador queira. Logo,
a pergunta "as máquinas podem pensar?" passa a ser "poderia uma máquina ser bem programada para
cumprir de forma satisfatória o papel de (A) no jogo da Imitação, sendo (B) um ser humano?"

Turing mantém essa suposição e passa então a explorar as objeções feitas a sua teoria:

(1) A Objeção teológica consiste apenas na ideia de que Deus deu apenas ao homem a função de
pensar. Turing não se prolonga em contrapor essa posição.
(2) As consequências de máquinas pensantes indicariam uma evolução na inteligência e
capacidade das máquinas com consequências potencialmente assustadoras. Turing também
não se prolonga em contrapor essa posição por ser unicamente uma noção sem embasamento
científico.
(3) A Objeção matemática consiste na ideia de que muitos cálculos matemáticos lógicos
indicam a limitação nas capacidades das máquinas discretas. Se conclui que todas as
máquinas têm suas limitações, e que estas não se aplicam à mente humana. Turing contrapõe
esta objeção a partir da ideia que, parafraseando, "Quando uma máquina dá uma resposta
objetiva a uma questão subjetiva, está errada, e nos sentimos superiores com esse resultado,
mas constantemente damos respostas erradas a perguntas objetivas".
(4) O Argumento da consciência "Não até que uma máquina seja capaz de escrever um soneto
por emoções, ideias e pensamentos, poderá se igualar à mente humana"
(5) Argumento para vários problemas, similar ao argumento da consciência, parte do
pensamento de que, por mais que as máquinas sejam programadas para realizar qualquer uma
das atividades antes descritivas, nenhuma será capaz de, por exemplo, apreciar o calor do sol,
sentir o sabor do sorvete, etc. Tanto (4) quanto (5) podem ser respondidos com a ideia de que
"por que seria produtivo que uma máquina fizesse qualquer uma dessas coisas?".
(6) A Objeção de Lady Lovelace implica que as máquinas são capazes de fazer qualquer coisa
que são programadas para fazer, sendo incapaz de fazer nada novo, advinda de si mesma, não
podendo então pensar. Turing se opõe partindo da ideia de que, sendo a máquina capaz de ser
programada para tudo, não seria possível então ela ser programada bem o suficiente para
pensar?
(7) Continuidade do sistema nervoso, sendo computadores máquinas de estado discreto, ela
seria incapaz de imitar o cérebro humano, que certamente não é uma máquina de estado
discreto.
(8) O argumento da informalidade do comportamento, consiste na ideia de que não é possível
escrever uma série de regras que informe todas as possibilidades de ação de uma pessoa em
cada circunstância- homens não agem desta forma, pois não são máquinas. Turing argumenta
que não podemos nos privar da crença de que existam certas leis de comportamento humano
observações que seguimos em nossa vida em sociedade.
"Minds, Brains and Programs", Sarle

Inteligência artificial no sentido fraco: o computador apenas como um instrumento capaz de


processar dados e seguir a programação proposta.

Inteligência artificial no sentido forte: deve possuir inteligência cognitiva suficientemente


apropriada para realizar ações comparativas à de seres humanos.

Searle concorda com a proposição simples da utilização da IA em sentido fraco, mas discorda do seu
uso em sentido forte, a passo que busca 'desprovar' a teoria de Schank a respeito da máquina capaz de
compreender histórias e responder perguntas sobre a história "lida", a partir de um experimento
mental que consiste em:

Um indivíduo X se encontra em uma sala sozinho, de uma fonte desconhecida a ele são entregues três
conjuntos de papéis (documentos, arquivos, livros, o que seja), o primeiro (roteiro) em Mandarim
(língua essa que X não tem conhecimento algum), o segundo em inglês (história) (língua nativa de X)
e um terceiro (questões) que faz uma relação entre o texto em mandarim e o texto em inglês. A fonte
desconhecida passa a fazer perguntas sobre a história, e através das instruções em inglês, o indivíduo
interpreta superficialmente o mandarim e oferece respostas às perguntas, também em mandarim.

A pessoa nessa situação age como um computador, não compreende a primeira língua, apenas usa um
programa para das respostas satisfatórias às perguntas feitas baseando-se apenas naquilo que já tem
conhecimento. Da mesma forma, o computador de Schank não entende nada sobre histórias, e dentro
do mesmo mérito, por mais que o computador tenha todos os princípios formais e estruturas de
"entendimento" de uma língua ou história, isso não se traduz em compreensão, pois o mesmo
aconteceria para o ser humano.

Sarle passa a explorar então a ideia de compreensão e seus diferentes níveis, explicando que, enquanto
humanos, temos a tendência de atribuir certos aspectos do nosso pensamento à objetos não pensantes,
como se tivessem intenção por trás de suas ações (por exemplo, dizemos que a calculadora "sabe"
contar, ou somar, a porta automática "sabe" quando abrir, etc). Searle afirma que as máquinas não
compreendem nada, e passa a rebater uma série de objeções ao seu pensamento:

(1) A Objeção dos sistemas: dá o poder de compreensão à totalidade do sistema exemplificado


pelo experimento de Sarle, não ao indivíduo X. Sarle discorda partindo do pensamento de
que, tendo tempo suficiente o indivíduo será capaz de incorporar todos os elementos do
sistema e realizar a ação de compreensão sem auxílio, "o sistema é somente uma parte dele",
não o contrário. O homem nesse contexto apresenta dois tipos de compreensão, que ele chama
de subsistemas, um profundo (responsável por entender o inglês) e um raso (que interpreta de
maneira superficial o mandarim, sem o entender). Este segundo subsistemas é
o mais semelhante às máquinas.

(2) A Objeção do robô: consiste na ideia de pegar a máquina de Schank e colocá-la dentro de
um corpo robótico capaz de andar, ver, interagir com outros objetos, tudo a partir de seu
"cérebro computador", o que supostamente daria a ele "compreensão genuína e outros estados
mentais", o que Sarle desaprova da mesma maneira pois em nada estes outros elementos
adicionais alteram o sistema original no que se diz respeito à sua intencionalidade da
realização das ações.

(3) A Objeção do simulador cerebral: surge do suposto de que uma máquina teria as
capacidades cognitivas de compreensão se simulasse a forma com que o cérebro humano
pensa, através de sinapses, neurônios, etc. Sarle a opõe ao dizer que este simulador projeta
apenas a forma estrutural da sequência de atividades realizadas pelo cérebro para receber uma
informação e devolver uma resposta, não simula a intencionalidade do pensamento.

(4) Objeção das combinações: junta todos as propostas apresentadas anteriormente, montando
um robô com uma máquina cerebral que simula as sinapses e o funcionamento geral do
cérebro, criando um sistema unificado onde seria possível atribuir intencionalidade ao
sistema, mas essas atribuições seriam baseadas apenas em pressuposições feitas acerca do
comportamento da máquina em comparação as ações de um ser humano, porém sabemos que
seu comportamento parte de um programa.

Às objeções (5) e (6), Sarle dá respostas não muito complexas. A primeira questiona se somos
realmente capazes de perceber a intencionalidade e a compreensão em outros seres, e a segunda
propõe que a falta de intencionalidade das máquinas se atribui unicamente pelas limitações
tecnológicas da época (aspecto esse defendido por Turing).

Sarle, em suma, conclui que um modelo puramente formal jamais será capaz de produzir
intencionalidade em sua máquina, sendo assim impossível a criação de IA's de sentido forte. A
máquina é capaz de produzir sintaxe, mas é incapaz de produzir Semântica, não realiza locuções, logo
não produz ato de fala algum, o que traduz na falta de intenção da ação.

Você também pode gostar