Você está na página 1de 72

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

Repositório e Arquivo Aberto de


Zurique
Universidade de Zurique
Biblioteca Universitária
Strickhofstraße 39
CH-8057 Zurique
www.zora.uzh.ch

Ano: 2019

Como o chunking ajuda a memória de trabalho?

Thalmann, Mirko; Souza, Alessandra S.; Oberauer, Klaus

Resumo: Chunking é a recodificação de unidades menores de informação em unidades maiores e familiares. Freqüentemente, presume-
se que o chunking ajuda a contornar a capacidade limitada da memória de trabalho (WM). Investigamos como os chunks são usados em
tarefas WM, abordando três questões: (a) O chunking reduz a carga no WM? Em quatro experimentos, foram encontrados benefícios de
chunking não apenas para a recuperação das informações fragmentadas, mas também de outras informações não fragmentadas
mantidas simultaneamente no WM, apoiando a suposição de que o chunking reduz a carga. (b) O benefício do chunking é independente
do tamanho do chunk? O benefício do chunking era independente do tamanho do chunk apenas se os chunks fossem compostos de
elementos únicos, de modo que cada chunk pudesse ser substituído por seu primeiro elemento (Experimento 1), mas não quando vários
chunks consistissem em conjuntos de elementos sobrepostos, desabilitando esta estratégia de substituição (Experiências 2 e 3). O efeito
do tamanho do pedaço não se deve a diferenças na duração do ensaio, pois persistiu quando os participantes foram obrigados a realizar
supressão articulatória (Experimento 3). Conseqüentemente, a capacidade do WM não está limitada a um número fixo de blocos,
independentemente do seu tamanho. (c) O benefício do chunking depende da posição serial do chunk? Os pedaços nas primeiras
posições da lista melhoraram a lembrança de outro material não fragmentado, mas os pedaços no final da lista não. Concluímos que um
pedaço reduz a carga no WM por meio da recuperação de uma representação de pedaço compacto da memória de longo prazo que
substitui as representações de elementos individuais do pedaço. Isso libera capacidade para material codificado posteriormente.

DOI: https://doi.org/10.1037/xlm0000578

Postado no Repositório e Arquivo Aberto de Zurique, Universidade de Zurique


URL ZORA: https://doi.org/10.5167/uzh-151291
Artigo de jornal
Versão aceita

Publicado originalmente em:


Thalmann, Mirko; Souza, Alessandra S; Oberauer, Klaus (2019). Como o chunking ajuda a memória de trabalho? Jornal de
Psicologia Experimental: Aprendizagem, Memória e Cognição, 45(1):37-55.
DOI: https://doi.org/10.1037/xlm0000578
1

Artigo de Pesquisa

Como o Chunking ajuda a memória de trabalho?

Mirko Thalmann, Alessandra S. Souza e Klaus Oberauer

Universidade de Zurique, Suíça

Thalmann, M., Souza, AS, & Oberauer, K. (2019). Como o chunking ajuda a memória de trabalho?
Journal of Experimental Psychology: Aprendizagem, Memória e Cognição, 45, 37-55.
doi:10.1037/xlm0000578

Nota do autor

Mirko Thalmann, Alessandra S. Souza e Klaus Oberauer, Departamento de

Psicologia, Universidade de Zurique, Suíça. Esta pesquisa foi apoiada por uma bolsa da

a Fundação Nacional Suíça para a Ciência para K. Oberauer (projeto 149193). Correspondência

deve ser endereçado a Mirko Thalmann, Departamento de Psicologia, Psicologia Cognitiva

Unidade, Universidade de Zurique, Binzmühlestrasse 14/22, 8050 Zurique, Suíça. E-mail:

mirkothalmann@hotmail.com
2

Abstrato

Chunking é a recodificação de unidades menores de informação em unidades maiores e familiares. Pedaço

é frequentemente assumido que ajuda a contornar a capacidade limitada da memória de trabalho (WM). Nós

investigamos como os chunks são usados em tarefas WM, abordando três questões: (1) O chunking

reduzir a carga no WM? Em quatro experimentos, foram encontrados benefícios de chunking não apenas para

recordação da informação fragmentada, mas também de outras informações não fragmentadas mantidas simultaneamente em WM,

apoiando a suposição de que a fragmentação reduz a carga. (2) O benefício da fragmentação

independente do tamanho do pedaço? O benefício do chunking era independente do tamanho do chunk apenas se o

pedaços eram compostos de elementos únicos, de modo que cada pedaço pudesse ser substituído pelo seu primeiro

elemento (Experimento 1), mas não quando vários pedaços consistiam em conjuntos sobrepostos de

elementos, desabilitando esta estratégia de substituição (Experiências 2 e 3). O efeito do tamanho do pedaço é

não devido a diferenças na duração do ensaio, pois persistiu quando os participantes eram necessários

realizar supressão articulatória (Experimento 3). Portanto, a capacidade de WM não está limitada a um

número fixo de pedaços, independentemente do seu tamanho. (3) O benefício do chunking depende do

posição serial do pedaço? Pedaços nas primeiras posições da lista melhoraram a lembrança de outros, não-

material fragmentado, mas os fragmentos no final da lista não. Concluímos que um pedaço

reduz a carga no WM por meio da recuperação de uma representação de pedaço compacto de longo prazo

memória que substitui as representações de elementos individuais do pedaço. Isso libera

capacidade para material posteriormente codificado.

Os roteiros de todos os procedimentos experimentais e os dados brutos do presente artigo são

disponível na seguinte página do Open-Science Framework:

https://osf.io/jjfbh/?view_only=3ebcbef89c3545019f6fde0fe28729f3.

Palavras-chave:Memória de curto prazo, memória de trabalho, memória de longo prazo, pedaço


3

Quando as pessoas são obrigadas a lembrar de vários itens durante uma breve retenção

intervalo, eles geralmente não conseguem lembrar mais do que alguns deles (Brener, 1940). Por exemplo,

quando apresentados a uma sequência aleatória de figuras geométricas, os participantes só conseguem se lembrar

cerca de cinco ou seis deles na ordem correta. Essa limitação em lembrar informações ao longo

o curto prazo se deve a um armazenamento de capacidade limitada denominado memória de trabalho (WM). Embora

A WM é severamente limitada na sua capacidade, algumas pessoas são capazes de lembrar listas que excedem em muito

esta capacidade. Por exemplo, quando jogadores de xadrez de nível iniciante são brevemente apresentados a

posições intermediárias em um jogo de xadrez, eles conseguem lembrar cerca de quatro peças na posição correta

localização (Chase & Simon, 1973). Em contraste, jogadores de nível avançado ou de nível mestre podem

lembre-se de cerca de oito ou 16 peças corretamente, respectivamente. Se o WM tem capacidade limitada, como pode

há uma diferença tão grande na memória para posições de xadrez em função do xadrez

perícia? Chase e Simon presumiram que jogadores de xadrez experientes codificavam as posições como

pedaços perceptivos maiores, “cada um consistindo em uma subconfiguração familiar de peças” (p. 80).

Esta interpretação é apoiada pelo fato de que, quando apresentados a constelações aleatórias

de peças de xadrez (ou seja, embaralhando as peças dos jogos intermediários), o número de peças

lembrado por jogadores mestres que caíram ao nível de iniciantes. Segue-se que pré-existente

o conhecimento em termos de pedaços pode aumentar a memória imediata. O presente estudo centra-se em

esse aumento na memória imediata e pergunta com mais detalhes quais processos contribuem para isso.

O processo de chunking foi descrito pela primeira vez por Miller (1956) como a recodificação de

vários estímulos apresentados em uma única unidade ou bloco familiar. Miller propôs que a fragmentação

é conseguido agrupando ou organizando uma sequência de entradas e recodificando-a com um formato conciso.

nome. Portanto, lembrar apenas o nome reduz essencialmente a carga de armazenamento no WM,

sem dúvida liberando capacidade para armazenamento de informações adicionais. A referência a “familiar”

unidades podem ser entendidas aqui como se referindo à dependência da memória de longo prazo (LTM)
4

representações. Na mesma linha, Cowan (2001) define pedaços como grupos de itens que possuem

associações fortes e pré-existentes entre si, mas associações fracas com outros itens. Para

Resumindo, ambos os autores destacam a importância do LTM na definição de um pedaço. O

presente trabalho procurou dar um passo em direção a uma compreensão mais profunda de como as pessoas fazem

uso de chunks em tarefas WM. Em particular, estávamos interessados na questão de como os pedaços podem

reduzir a carga no WM.

Seguindo Miller, vários teóricos assumiram que a capacidade de WM é limitada em termos

do número de pedaços. Mais proeminentemente, Cowan (2001) propôs que cerca de quatro pedaços

estão disponíveis em um determinado momento no foco de atenção. Outros pesquisadores também

abraçaram a ideia do chunking, embora tenham opiniões diferentes sobre o número exato de

pedaços que podem ser mantidos em WM (Chase & Simon, 1973; Gobet & Clarkson, 2004).

A evidência para a hipótese do pedaço fixo vem de experimentos que variaram

tamanho e observou um número aproximadamente igual de pedaços recuperados em diferentes pedaços

tamanhos (Chen & Cowan, 2005, 2009; Cowan, Chen, & Rouder, 2004). Em Chen e Cowan

(2005), por exemplo, os participantes foram primeiro treinados para lembrar os pares em um conjunto de palavras

pares. O treinamento também envolveu um conjunto de palavras únicas das quais os participantes tinham que lembrar

que eles não estavam emparelhados com outra palavra. O treinamento prosseguiu até que a recuperação fosse de 100%

preciso. Neste ponto, cada palavra treinada individual (doravante singleton) e cada um dos

pares de palavras foram considerados um pedaço. Em seguida, os participantes tentaram recordar imediatamente em série

listas de palavras que variam de 4 a 12 palavras. As listas consistiam em pares de palavras aprendidas,

aprendeu singletons ou novas palavras. Quando a recordação de palavras foi pontuada independentemente da ordem,

os participantes lembraram aproximadamente 3 pedaços em todas as condições (ou seja, o dobro de palavras

de listas de pares de palavras do que de listas de singletons ou palavras novas), consistente com o

suposição de que a capacidade WM é limitada a um número fixo de blocos. Chen e Cowan


5

(2009) mostraram que o número constante de pedaços recuperados pode ser melhor observado quando

os participantes tiveram que se envolver em articulação simultânea ("supressão articulatória", AS) durante

codificação. Os autores concluíram que o limite de capacidade fixa em pedaços é mais diretamente

refletido no desempenho quando o ensaio articulatório de representações fonológicas é

impedido.

Esses experimentos deixam em aberto duas possibilidades de como os pedaços ajudam na recuperação imediata.

Primeiro, os pedaços exigem menos capacidade e, portanto, liberam capacidade no WM. Este seria o

caso, por exemplo, se lembrar de uma única palavra exigisse a mesma capacidade que lembrar

um par aprendido, porque todos eram lembrados como um só pedaço (Cowan, 2001). Esta conta

postula que um pedaço é representado em WM independentemente de seus elementos compostos, por

exemplo por um nome conciso como sugerido por Miller. Em contrapartida, uma segunda possibilidade é que

informações do LTM auxiliam na reconstrução do pedaço completo a partir de parciais

informações em WM (Hulme, Maughan, & Brown, 1991; Hulme & Roodenrys, 1995). Esse

conta assume que os pares aprendidos (pedaços) são mantidos em WM da mesma maneira que

pares aleatórios. No entanto, na recordação, há mais conhecimento LTM disponível para um conhecimento anteriormente

par aprendido em comparação com um par aleatório para ajudar na reconstrução do conjunto original de

elementos. Para distinguir estas duas possibilidades, é necessário testar a memória para outros itens em

a presença de um chunk: Se o chunking reduzir a carga na capacidade do WM, a presença de um chunk

pedaço em uma lista de memória deve melhorar a memória para outros itens mantidos simultaneamente. Em

Em contraste, se os pedaços se beneficiarem apenas por serem reconstruídos com mais sucesso na recuperação,

outras informações em WM não devem herdar esse benefício.

Até onde sabemos, apenas o estudo de (Portrat, Guida, Phénix, & Lemaire,

2016) apresentou listas mistas compostas por itens fragmentados e não agrupados. No entanto, eles fizeram
6

não avaliar se os pedaços melhoraram a retenção de itens não divididos. Portanto, ainda é

uma questão em aberto se os pedaços realmente reduzem a carga no WM.

Os experimentos que mostram evidências de que a capacidade de MO é limitada por um número fixo de

pedaços (Chen & Cowan, 2005, 2009; Cowan et al., 2004) tinham um recurso adicional, que

dificulta sua interpretação: cada par a ser lembrado consistia em

elementos. Ou seja, cada palavra só poderia ocorrer como uma única palavra ou como membro de um par.

Geralmente, esse não é o caso com pedaços. Considere os exemplos frequentemente citados do FBI e da CIA, ou

qualquer outra sigla – consistem em letras que também ocorrem em muitas outras siglas, e

quando siglas conhecidas são incluídas em listas de cartas apresentadas para retenção de curto prazo,

cada letra que figura como elemento de um acrônimo também pode ocorrer como um singleton na lista

(Portrat et al., 2016).

O uso de pedaços com elementos únicos nos experimentos de Chen e Cowan tem

duas consequências importantes. Primeiro, os pedaços podem ser detectados instantaneamente após

apresentação da primeira palavra. Isso torna desnecessária a codificação da segunda palavra,

porque os participantes já conhecem a segunda palavra. Em segundo lugar, os participantes só precisam

lembre-se da primeira palavra de um par para lembrar as duas palavras. Mesmo que isso reduza

a carga no WM para este tipo especial de pedaços, não está claro se isso vale para pedaços em

em geral. Juntas, essas duas consequências dos pedaços de elementos únicos no Chen e

Os estudos de Cowan são suficientes para explicar por que os participantes se lembraram de um número fixo de

pedaços: se para cada par aprendido eles codificaram apenas a primeira palavra em WM, então eles

codificou o mesmo número de palavras em WM em todas as condições experimentais. Este seria

portanto, independentemente de a capacidade do WM estar ou não limitada a um número fixo de blocos. Para

contornar este problema, na presente investigação também investigamos o chunking

benefício com pedaços que consistem em elementos não exclusivos.


7

O presente estudo

Os objetivos do presente estudo foram triplos. Nosso primeiro objetivo foi avaliar se

agrupar informações em WM libera capacidade para armazenar outras informações não fragmentadas. Testar

para esta possibilidade é necessário avaliar o impacto do pedaço na lembrança de outros não-

informações fragmentadas em WM. Esta previsão é melhor explicada por meio de um exemplo.

Suponha que duas listas devam ser lembradas: Lista 1 = FBIDQB e Lista 2 = IFBDQB.

Na Lista 1, os três primeiros itens formam um único bloco (ou seja, FBI). Se codificar essas três letras

como um pedaço reduz a carga no WM de 6 itens para 4 itens, haverá mais itens gratuitos

capacidade de manter a segunda metade da lista (ou seja, DQB) na Lista 1 do que na Lista 2. Consequentemente,

a retenção a curto prazo da segunda metade da lista deve ser melhor na Lista 1 do que na Lista 2.

O segundo objetivo do presente estudo foi fornecer um teste ainda mais forte do princípio da

Cowan (2001) que o benefício do chunking é independente do tamanho do chunk porque os chunks são

consideradas as unidades básicas de armazenamento em WM. Para fazer isso, comparamos o recall de dados não fragmentados

listas, enquanto os participantes também tiveram que ter em mente um pedaço de tamanho variável (por exemplo, 2 itens vs. 4 itens

pedaços). Se a capacidade for independente do tamanho do chunk, então o benefício do chunking para o não-

listas fragmentadas devem ser de magnitude semelhante quando os participantes possuem um número menor ou maior

pedaço em WM.

Terceiro, examinamos pela primeira vez como o benefício do chunking é moderado pelo

requisitos de detectar o pedaço e, ao mesmo tempo, manter outras informações em

WM. Este ponto é particularmente importante em relação ao tipo de material (ou seja, pedaços de

elementos únicos versus não exclusivos). Quando os pedaços consistem em elementos não únicos, os participantes

precisam codificar todos os itens individuais antes que possam detectar um pedaço. Isto implica que pelo menos

temporariamente seu WM é carregado com os elementos individuais do pedaço, antes destes

os elementos podem ser substituídos por uma única representação do pedaço. A codificação temporária
8

de múltiplos elementos já poderia danificar outras informações em WM (ou seja, através

interferência ou competição pelo ensaio) antes que a carga WM seja reduzida através

fragmentação. Além disso, a redução da carga WM requer a remoção dos elementos individuais

do WM, de modo que o benefício do chunking também depende da eficiência desse processo.

Portanto, o benefício da fragmentação para informações não fragmentadas em WM pode ser muito maior.

reduzido, ou mesmo eliminado, quando os pedaços consistem em elementos não exclusivos.

Se os elementos de um pedaço devem inicialmente ser codificados em WM individualmente antes de serem

são substituídos por um pedaço mais compacto, então devemos também observar que o pedaço

O benefício varia em função de quando um pedaço é apresentado dentro de um conjunto apresentado sequencialmente.

conjunto de memória. Quando apresentado no início do conjunto, não há outras informações

WM que poderia sofrer com a presença temporária dos elementos individuais no WM, e

esses elementos podem ser removidos de forma eficiente através de uma limpeza completa do WM antes

codificando o pedaço compacto (Ecker, Oberauer, & Lewandowsky, 2014). Quando o pedaço

aparece mais tarde em um teste, itens individuais começam a interferir nas informações codificadas anteriormente

antes que possam ser substituídos pela representação do pedaço, e essa substituição envolve

remoção direcionada apenas dos itens que pertencem ao pedaço. A remoção seletiva de

elementos individuais de uma memória definida em WM é um processo mais difícil do que o atacado

remoção de todo o conjunto (Ecker et al., 2014). Como consequência, o benefício do chunking para

informações não fragmentadas mantidas simultaneamente devem ser menores quanto mais tarde um fragmento for

apresentado como parte de um conjunto de memória.

Testamos as previsões detalhadas acima com quatro experimentos. No Experimento 1, nós

participantes treinados para lembrar listas fragmentadas compostas por 2 ou 4 palavras. Cada pedaço consistia

de palavras únicas. Em seguida, pedimos aos participantes que segurassem duas listas de 2 ou 4 palavras para um

teste de recall serial imediato. Cada lista era um conjunto de palavras organizadas aleatoriamente (novas listas)
9

ou uma lista fragmentada. Nosso principal interesse foi avaliar se a recuperação de novas listas era melhor em

a presença de listas fragmentadas (doravante referidas como um benefício de fragmentação) e se isso

o benefício era independente do tamanho do pedaço. No Experimento 2, testamos o benefício do chunking em

condições nas quais o status da lista (pedaço ou novo) era desconhecido até que todos os itens da lista

lista foram apresentadas, porque o mesmo item pode ocorrer em um bloco e em uma lista não fragmentada.

Além disso, testamos se a carga no WM de uma lista fragmentada era semelhante àquela de

mantendo uma representação de item único (singleton) em WM. Também testamos essa questão com AS

(Experimento 3) para ver se alguma diferença entre pedaços grandes e pequenos poderia ser

atribuído a diferenças na duração do ensaio articulatório. Finalmente, Experimentos 2-4

investigou se o benefício do chunking depende da posição serial do chunk

dentro de um julgamento.

Experiência 1

No Experimento 1, testamos a previsão de que incluir um pedaço em um conjunto de memória

reduz a carga no WM, melhorando assim a recuperação de outras informações não fragmentadas

mantido simultaneamente com o pedaço. Para testar esta previsão, os participantes foram

apresentado com um conjunto de memória que consiste em duas listas curtas, seguidas por testes de recuperação em série de

cada lista. Cada lista era um pedaço ou uma nova lista composta de palavras únicas. Pedaçado

as listas foram decoradas em uma fase de treinamento. Assim como nos estudos de Chen e Cowan (2005,

2009), cada palavra só poderia ocorrer em uma lista fragmentada ou em uma nova lista. Se o chunking liberar WM

capacidade, então não apenas a recuperação da lista fragmentada, mas também a recuperação da outra lista não fragmentada

naquele julgamento deveria ser melhor, em comparação com a condição em que ambas as listas eram novas.

Além disso, testamos se o benefício do pedaço era independente do tamanho do pedaço. Para isso

no final, variamos o comprimento das duas listas independentemente uma da outra – nova e fragmentada

as listas podem conter 2 ou 4 itens. Se a capacidade do WM for limitada pelo número de blocos, mas
10

não pelo tamanho de cada pedaço, o benefício produzido pelo pedaço deve ser semelhante

magnitude, independentemente do tamanho da lista fragmentada.

Método

Participantes

Vinte estudantes universitários (15 mulheres; M ≈ 25 anos) participaram de duas aulas de 1 hora

sessões. Eles foram remunerados pela participação com 30 francos suíços ou curso parcial

crédito. Todos os participantes dos experimentos relatados no presente artigo eram nativos

falantes de alemão. Eles foram obrigados a ler e assinar um termo de consentimento livre e esclarecido antes

o experimento começou. No final do experimento, eles foram informados detalhadamente sobre

o objetivo do estudo.

Materiais e Procedimento

Todos os experimentos foram programados e executados com o Psychophysics Toolbox 3

(Brainard, 1997; Pelli, 1997) em MATLAB. Os participantes sentaram-se a uma distância de aproximadamente 50

cm da tela do computador (distância de visualização sem restrições). Eles foram testados em

cabines individuais.

Construímos um conjunto de 338 substantivos de uma e duas sílabas. Nenhum dos substantivos começou

com as mesmas três letras na mesma ordem. Para cada participante, 24 substantivos foram

selecionados aleatoriamente deste pool. Metade dos substantivos foram usados como singletons para construir

novas listas de. Os outros 12 substantivos foram usados para construir quatro listas fragmentadas: duas listas fragmentadas

listas com 2 substantivos; e 2 listas fragmentadas com quatro substantivos. Juntos, os solteiros e os

listas fragmentadas foram usadas como 16 conjuntos a serem aprendidos em uma fase de treinamento no início do

experimentar.
11

Fase de treinamento.Em cada ciclo de treino foram apresentados os elementos dos 16 conjuntos

um por um em uma fileira de quadros pretos na parte superior da tela. Definir apresentação

foi individualizado: os participantes iniciaram a apresentação de cada conjunto em um ciclo pressionando o botão

barra de espaço. Palavras em conjuntos de um (singletons), dois ou quatro (listas fragmentadas) foram apresentadas a partir de

da esquerda para a direita, cada um por 1000 ms. A ordem de apresentação dos 16 conjuntos foi randomizada em cada

ciclo. Após a apresentação dos 16 conjuntos, seguiram-se testes de recordação de todos os conjuntos. Em cada teste,

a primeira palavra de um conjunto (selecionada aleatoriamente de todos os conjuntos sem substituição) foi apresentada

como uma sonda por 1000 ms na metade superior da tela, seguida pela apresentação de quatro

caixas de resposta na metade inferior. A apresentação da sonda levou os participantes a digitar

todas as palavras pertencentes a esse conjunto, começando com a primeira palavra (ou seja, a palavra apresentada como

sonda). Os participantes poderiam usar a tecla backspace para corrigir eventuais erros de digitação. Eles

confirmou uma resposta pressionando a tecla Enter. Caso o conjunto testado fosse um singleton ou 2-

lista fragmentada de itens, as possibilidades restantes de recuperação tiveram que ser ignoradas usando a tecla Enter. Um

A resposta foi considerada correta quando as três primeiras letras da palavra correspondiam à palavra em

essa posição no conjunto. Maiúsculas e minúsculas não importavam para que as respostas fossem contadas como

correto.

Os participantes completaram um mínimo de oito ciclos de treinamento. Ciclos de treinamento adicionais

foram adicionados até que a recuperação de todos os conjuntos estivesse 100% correta. Em seguida, os participantes preencheram um

tarefa de distração. Na tarefa de distração, os participantes tiveram que julgar a precisão de 40

equações de multiplicação que consistem em dois fatores no intervalo de 3-9. Cerca de metade do

equações estavam corretas. Os participantes pressionaram a tecla de seta para a esquerda ou para a direita para indicar se

o resultado exibido da multiplicação estava correto ou incorreto, respectivamente. Depois de

tarefa de distração, testamos a memória para os conjuntos novamente por meio de recordação sondada para verificar se o

pedaços foram aprendidos no LTM. Enquanto a recuperação não fosse perfeita, ciclos adicionais
12

consistindo em apresentação definida, recordação sondada, distração e recordação novamente sondada para testar LTM

foi adicionado. Somente quando todos os conjuntos de 16 palavras foram lembrados corretamente no teste LTM, os participantes

passou para a fase experimental principal.

Fase experimental principal.Cada tentativa começou com a apresentação de uma cruz de fixação

no meio da tela por 500 ms. Em seguida, foram apresentadas duas listas sequencialmente, uma em

na parte superior e um na parte inferior da tela. Os substantivos de cada lista foram apresentados

sequencialmente por 1000 ms em uma linha de quadros pretos. Apresentação do último substantivo do

primeira lista foi seguida imediatamente pela apresentação do primeiro substantivo da segunda lista

sem qualquer tempo livre entre eles. As duas listas foram sondadas em ordem aleatória, 500 ms após

apresentação de lista. A recuperação dentro de uma lista procedeu em ordem direta. Os participantes digitaram o

palavras usando o teclado. Foi aplicada a mesma pontuação da fase de Treinamento.

Variamos independentemente o tamanho (2 ou 4 itens) e o tipo (novo ou bloco) da lista 1 e

lista 2, bem como sua ordem de recall, resultando em 32 condições. Nosso objetivo era replicar cada

condição oito vezes e apresentando-as em ordem aleatória entre os testes. Contudo, devido a um

erro de programação, as 32 condições foram replicadas 128 vezes, resultando em 4.096 tentativas que

foram randomizados. As primeiras 256 tentativas deste conjunto foram apresentadas aos participantes, resultando

em um design desequilibrado. Em nossa análise, recolhemos os dados na ordem de apresentação da lista

(lista 1 e lista 2) para aumentar o número médio de pontos de dados por célula de design disponíveis para serem

analisado por participante (M=16,00, DP = 3,76).

Resultados

Análise de dados.Estatísticas freqüentistas que são comumente usadas em psicologia

pesquisa tem várias deficiências. Por exemplo, os valores p expressam a probabilidade dos dados,

dado que a hipótese nula é verdadeira. No entanto, os investigadores estão normalmente interessados na

direção reversa da inferência: Qual a probabilidade de uma hipótese, dados os dados? Para superar isso
13

deficiência e algumas outras deficiências associadas às estatísticas frequentistas

(Wagenmakers, 2007) usamos estatísticas bayesianas para todas as análises relatadas no presente

artigo.

Nas estatísticas Bayesianas, a credibilidade dos valores dos parâmetros do modelo – como o efeito

tamanho de uma manipulação experimental – é expresso como distribuições anteriores (doravante anteriores).

Os anteriores são atualizados com a probabilidade dos dados produzirem distribuições posteriores do

parâmetros. Portanto, a inferência baseada em posteriores combina todas as informações disponíveis

sobre os parâmetros do modelo (Kruschke, 2011). O intervalo de densidade mais alta de 95% (95% IDH) de

a posterior cobre a faixa de valores de parâmetros que são 95% confiáveis após os dados terem sido

sido observado. Assim, o IDH de 95% pode ser usado para informar sobre a incerteza dos parâmetros

em questão. No presente trabalho, não exibimos intervalos de confiança clássicos, mas usamos

Em vez disso, os IDH dos posteriores, porque podem ser interpretados de forma simples, o que é

não é o caso dos intervalos de confiança (Morey, Hoekstra, Rouder, Lee, & Wagenmakers, 2016).

Para fins descritivos, também plotamos o erro padrão da média para mostrar a variabilidade

dos dados sem as suposições de qualquer modelo.

Na estatística Bayesiana, os modelos podem ser comparados usando o Fator Bayesiano (BF). O namorado

quantifica a força da evidência a favor de um modelo em comparação com outro,

modelo concorrente, dados os dados. Por exemplo, podemos comparar um modelo incluindo um efeito

em uma ANOVA (por exemplo, um efeito principal, uma interação bidirecional) para um modelo que omite esse efeito. Um namorado

a favor do primeiro modelo reflecte a evidência a favor do efeito; o inverso do BF

afirma a evidência a favor da hipótese nula de que o efeito está ausente.


14

Como orientação aproximada para interpretar a quantidade de AMs, (Kass & Raftery, 1995) sugerem

que BFs entre 1 e 3,2 não valem mais do que uma simples menção, BFs entre 3,2 e

10 são evidências substanciais, AMs entre 10 e 100 representam evidências fortes e AMs >

100 são vistos como decisivos. No presente artigo, calculamos o BF para testes t com o

Pacote BayesFactor (Morey & Rouder, 2014) usando os anteriores padrão. Todos os outros BFs foram

calculado com modelos JAGS autoconstruídos (Plummer, 2003) usando o Savage-Dickey

razão de densidade, que fornece o BF para modelos aninhados (Lee & Wagenmakers, 2014; Wetzels,

Raaijmakers, Jakab e Wagenmakers, 2009). Ao comparar um modelo em que o

parâmetro de interesse pode variar livremente para um modelo no qual o parâmetro de interesse

é fixado no valor do modelo Nulo (geralmente zero), o BF pode ser obtido dividindo o

altura do anterior pela altura do posterior no valor do parâmetro do modelo Nulo.

Sempre que utilizamos modelos JAGS autoconstruídos, aplicamos um procedimento de duas etapas

para determinar os BFs dos efeitos de juros. Primeiro, selecionamos o modelo mais adequado

de um conjunto de três modelos de acordo com o DIC1, que pode ser usado para seleção de modelo de

modelos bayesianos hierárquicos (Spiegelhalter, Best, Carlin, & Linde, 2002). Os três se equiparam

os modelos variavam em sua estrutura hierárquica. O modelo 1 assumiu uma interceptação aleatória para cada

sujeito, mas apenas efeitos fixos em todos os outros parâmetros. O modelo 2 assumiu efeitos aleatórios sobre

todos os parâmetros do modelo, exceto a interação de ordem mais alta. Modelo 3 assumido

efeitos aleatórios em todos os parâmetros de efeito principais, mas nenhum efeito aleatório nas interações.

Segundo, calculamos os BFs para todos os efeitos de interesse dentro do modelo vencedor com o

Razão de densidade Savage-Dickey. A seguir, relatamos apenas os BFs do modelo vencedor.

1O DIC relaciona-se com outros critérios de informação, pois utiliza uma estimativa clássica de
ajuste e penaliza o número efetivo de parâmetros num modelo.
15

Os leitores interessados devem consultar o material suplementar se quiserem ver

qual modelo ganhou a comparação DIC em cada caso.

Recuperação em série de novas listas.Nosso principal interesse era saber como a precisão do recall de novos

listas é influenciada pela presença de um pedaço e pelo tamanho desse pedaço, em comparação com

ensaios em que ambas as listas eram novas. Se armazenar um pedaço libera capacidade do WM, devemos observar

um efeito principal do tipo de lista, com melhor recuperação de novas listas quando a outra lista é um pedaço do que

quando é outra nova lista. Se os pedaços impõem uma carga constante no WM, independentemente do seu tamanho,

então a recuperação de uma nova lista não deve variar em função do tamanho do pedaço, enquanto a recuperação

diminui quando a outra lista é uma nova lista com tamanho 4 comparado ao tamanho 2, resultando em um

interação entre o tipo de outra lista (nova ou pedaço) e o tamanho da outra lista (2 ou 4 itens). O

dados relevantes são exibidos na Figura 1 e na Figura 2. Observe que a recuperação de novas listas com 2

e 4 itens são apresentados em diferentes subpainéis na Figura 1.

Analisamos a precisão da recuperação serial de novas listas com duas regressões lineares Bayesianas

(ou seja, um para cada tamanho de conjunto testado2). Inserimos os efeitos para o tipo da outra lista (nova lista

ou pedaço), tamanho da outra lista (2 ou 4 itens), tempo de recuperação da nova lista a ser analisada

(primeiro vs. segundo) e todas as interações de ordem superior entre esses preditores.

2A razão para realizar análises separadas é que queríamos obter evidências a favor da interação
desordenada Tamanho Outro x Tipo Outro (painel esquerdo na Figura 1). A evidência de uma
interação desordinal ou cruzada é mais convincente do que de uma interação ordinal porque uma
interação desordinal permanece quando uma transformação não linear é aplicada à variável
dependente (Loftus, 1978).
16

A evidência estatística para os efeitos fixos nos dois modelos de regressão separados é

mostrado na Tabela 1. Houve evidência decisiva a favor do efeito principal do tipo outra lista,

o que significa que uma nova lista era melhor lembrada quando apresentada juntamente com um

pedaço em comparação com outra nova lista. Esta descoberta apoia a hipótese de que pedaços

reduzir a carga no WM. A evidência também foi decisiva a favor da interação entre

tipo de outra lista e tamanho de outra lista. Isso indica que aumentar o tamanho de um pedaço leva a um

carga adicional menor no WM do que aumentar o tamanho de uma nova lista. Se existe algum

O efeito do tamanho do pedaço foi avaliado em uma análise adicional relatada abaixo.

Os outros efeitos principais relatados mostram que as novas listas são pior lembradas no

presença de listas longas em vez de listas curtas (principal efeito do tamanho de outras listas) e que novas listas foram

recordou-se pior quando sondado em segundo lugar em vez de primeiro (principal efeito do tempo de recordação). Pior

a recuperação das listas testadas em segundo lugar é evidência de interferência de saída da primeira lista recuperada

(por exemplo, Cowan, Saults, Elliott, & Moreno, 2002; Jones & Oberauer, 2013; Oberauer, 2003). O

os resultados foram inconclusivos sobre se a interferência de saída é mais forte (a) de uma nova lista do que

de um pedaço (Tipo Outro x Tempo de Recuperação) e (b) de uma lista mais longa do que de uma lista mais curta

(Tamanho Outro x Tempo de Recuperação), pois os BFs nas duas análises paralelas diferiram ligeiramente (ver

Tabela 1).

Em seguida, perguntamos se o tamanho de um pedaço afeta o quão bem uma nova lista é recuperada. Esse

A análise testa a hipótese de que um pedaço impõe a mesma carga ao WM, independentemente de sua

tamanho. Nesse caso, o tamanho do bloco não deve afetar o quão bem uma nova lista pode ser mantida

simultaneamente. No entanto, o tamanho do pedaço pode ser importante para a interferência de saída porque

pedaços requerem a saída de mais palavras. Nossa análise anterior produziu evidências inconclusivas

para interferência de saída. No entanto, para excluir quaisquer efeitos potenciais da produção

interferência, para esta análise, ampliamos os ensaios em que a nova lista sob
17

consideração foi lembrada primeiro, removendo assim qualquer contribuição potencial do produto

interferência. Comparamos a precisão da recordação de novas listas nas condições em que as outras

list era um pedaço e o tamanho do pedaço era 2 ou 4. Se os pedaços reduzirem a carga no WM

independentemente do seu tamanho, a precisão da recuperação de novas listas não deve diferir em função de

tamanho do pedaço. Os BF apoiaram esta afirmação (41,7 e 16,4 a favor da nulidade para novas listas de

tamanho 2 e 4, respectivamente), o que é uma forte evidência para a suposição de que o tamanho do pedaço

nenhuma influência sobre quanta capacidade um pedaço requer em WM.

Recuperação serial de listas fragmentadas.Listas fragmentadas foram recuperadas com um nível muito alto de

precisão (M= .974). A recuperação de listas fragmentadas variou em função do tipo de outra lista (BF = 535),

e tamanho da outra lista (BF = 612). Os pedaços foram lembrados melhor junto com outro pedaço

(M= .985) do que com uma nova lista (M =.962), ou melhor junto com uma lista de tamanho 2 (M= .985)

em comparação com uma lista de tamanho 4 (M= .962). Não houve evidência de um efeito principal do tamanho do

pedaço atual a ser lembrado (BF = 145 para o Nulo), e não houve nenhum

evidência de qualquer interação de ordem superior entre esses fatores (todos os AM < 3,2 para o

Alternativa).

Discussão

O Experimento 1 usou um design modelado (Chen & Cowan, 2005) usando um treinamento

fase para estabelecer pedaços de tamanhos diferentes (2 ou 4 palavras). Mostrou que armazenar um pedaço

reduziu a carga no WM: lembrar uma lista aleatória de palavras era mais fácil quando outra lista

ser lembrado simultaneamente era um pedaço do que quando era outra lista aleatória.

Além disso, os nossos dados apoiaram a afirmação de que a capacidade de WM é limitada pelo número de

pedaços, e não por tamanho do pedaço: Aumentar o tamanho de um pedaço não teve influência

lembrar uma lista aleatória de palavras quando a lista aleatória foi lembrada primeiro, enquanto

aumentar o tamanho de outra lista aleatória prejudicou a recordação. O tamanho de um pedaço não tinha
18

influência sobre quanta capacidade de WM é necessária, em linha com a previsão do

teoria do processo incorporado de Cowan (2001).

(Chen & Cowan, 2005) sugeriram que as pessoas só podem segurar o primeiro item de um pedaço

em WM, que permite a recuperação dos itens subsequentes do LTM. Esta possibilidade existe para

seus experimentos de chunking anteriores, bem como para o Experimento 1, porque nesses experimentos

todos os pedaços consistiam em elementos únicos, que não poderiam ser elementos de nenhum outro pedaço

ou nova lista. Esta peculiaridade do design tem duas implicações potencialmente importantes. Primeiro,

os participantes podem usar a primeira palavra de um pedaço como dica de recuperação para lembrar o pedaço inteiro.

Em segundo lugar, o pedaço já pode ser detectado mediante a apresentação do primeiro elemento, de modo que

quaisquer outros elementos nem precisam ser codificados em WM, evitando assim o risco

que eles interfiram com outras informações mantidas em WM. Nestas circunstâncias, qualquer

A teoria prevê que o tamanho do pedaço não afeta a capacidade, porque o que os participantes fazem é

apenas lembrando uma palavra para pedaços de qualquer tamanho.

Argumentamos que pedaços constituídos por elementos únicos não são representativos para

pedaços que ocorrem naturalmente. Em muitas situações, os chunks não começam com elementos únicos. Em

Nessas situações, não é possível interromper a codificação após o primeiro item do pedaço ter sido

apresentado. Além disso, lembrar apenas o primeiro item também não é uma estratégia aconselhável

porque outras listas também começam com o mesmo item. Portanto, a aplicação da estratégia apenas

lembre-se de que o primeiro item de um pedaço geralmente não é possível. Para investigar a hipótese de que

pedaços reduzem a carga no WM independentemente do tamanho do pedaço, é preciso usar pedaços com não-

elementos únicos. Isto é o que fizemos nos experimentos a seguir.


19

Experimento 2

No Experimento 2, testamos novamente se há um benefício de chunking e se ele

é independente do tamanho do pedaço. No entanto, garantimos que as pessoas não possam aplicar o simples

estratégia para codificar e lembrar apenas o primeiro item de um pedaço. Para isso usamos pedaços

consistindo em elementos não únicos no Experimento 2.

Suspeitamos que o benefício do chunking pode diminuir ao usar elementos não exclusivos

que também pode aparecer em outras listas e outros blocos. Um pedaço composto de não exclusivo

os elementos não podem ser detectados antes que todos os seus elementos sejam codificados individualmente em WM. Nós

explique a hipótese por meio de um exemplo. Suponhamos que um participante codifique um

lista em que as duas primeiras letras são F e B. A terceira letra pode ser um I ou um Q. O

o participante só pode substituir as representações individuais das letras por um pedaço

representação no primeiro caso, em que a sequência é o conhecido pedaço FBI, mas não

no segundo caso, em que a sequência é FBQ. Substituição das letras individuais por um

chunk não é possível até a apresentação da terceira carta. Antes disso, a codificação

os processos em ambos os casos são os mesmos.

Vamos primeiro nos concentrar no caso em que a sequência de três letras é apresentada antes de algum

outros itens são apresentados. Após a apresentação de todos os itens do bloco não há representação de

outros conteúdos WM serão degradados. Se a representação do pedaço for independente do pedaço

tamanho, segue-se que a substituição bem-sucedida dos itens individuais pelo pedaço

a representação reduz a carga no WM independente do tamanho do pedaço. Agora vamos considerar o

caso em que a sequência de três letras é apresentada após alguma outra informação já ter sido

foram armazenados em WM. As representações de memória dos itens apresentados anteriormente serão

degradado e menos lembrado após a apresentação do pedaço, quando todos os itens do


20

pedaço deve ser codificado individualmente. Isto decorre de qualquer teoria de WM, seja ela

atribui a razão do esquecimento em WM ao decaimento com o ensaio neutralizando o decaimento, a um

recurso limitado (como a teoria de Cowan, em que o recurso é um número fixo de recursos discretos

slots), ou a interferências: as representações dos itens anteriores sofreram mais com

decaimento, que não poderia ser neutralizado pelo ensaio durante a codificação do pedaço, ou eles

receberam menos parte do recurso limitado porque foi redistribuído para o

itens de pedaços individuais ou sofreram interferência da codificação do indivíduo

itens do pedaço. Por estas razões, um pedaço apresentado no final de toda a memória

conjunto deve ser muito menos benéfico do que um pedaço apresentado no início.

Com relação à previsão acima sobre a posição serial de um pedaço, decai

as teorias da WM diferem sutilmente das teorias de recursos e interferência. Uma teoria da decadência

prevê um benefício de pedaço com um pedaço em qualquer posição. Isto acontece porque listas mais longas não só

demoram mais para serem codificados, mas também para serem reativados através do ensaio. Um pedaço no final

da lista não reduz a quantidade de esquecimento de outros itens durante a codificação, mas

reduz a quantidade de ensaio necessária. Após a detecção do pedaço, apenas o pedaço

representação tem que ser ensaiada, o que leva menos tempo do que ensaiar todas as

representações. Portanto, embora uma teoria do decaimento preveja que os pedaços ajudam mais quando

apresentado anteriormente na lista, também prevê que pedaços em qualquer posição ainda ajudam

memória para itens não fragmentados porque um fragmento leva menos tempo para ser ensaiado. Em contraste,

teorias de recursos ou interferência não prevêem qualquer benefício de um pedaço apresentado no

final de todo o conjunto de memória.

Resumindo, todas as teorias prevêem que a redução da carga de MO através da substituição

vários itens em um único bloco é benéfico para material codificado posteriormente, porque

a capacidade é liberada apenas para material codificado após essa substituição. Uma decadência e ensaio
21

a teoria prevê adicionalmente que pedaços em qualquer posição de entrada ajudam a memória para não-pedaços

Unid.

No Experimento 2, avaliamos o efeito do tamanho do bloco comparando listas fragmentadas de

tamanho 3 vs. listas singleton compostas por uma única letra. Novas listas no presente experimento

consistia em 3 letras. Como consequência desta redução do tamanho da lista em comparação com

Experimento 1, tivemos que aumentar o número de listas apresentadas em cada tentativa de duas para

três para contornar potenciais efeitos de teto. A fase de treinamento no início do

experimento foi omitido porque usamos siglas bem conhecidas que consistem em três

consoantes como pedaços.

Um pré-requisito do Experimento 2 foi que os participantes detectassem uma sigla quando

apresentado logo no início da lista, mas também quando apresentado no final da lista.

(Portrat et al., 2016) mostraram que este último pode não ser garantido. Eles observaram que

siglas foram lembradas pior quando apresentadas no meio ou no final de uma lista

em comparação com o início da lista em um paradigma de extensão complexa. Pode ser que o

pedaços não foram detectados nessas condições porque era difícil prever quando um

pedaço começou e quando terminou. É impossível investigar o efeito benéfico dos pedaços

em informações não fragmentadas quando os fragmentos não são detectados. Para maximizar a chance

que os participantes detectaram os pedaços em qualquer posição serial da memória definida no

após dois experimentos, dividimos o conjunto de memória em três listas claramente demarcadas,

cada um dos quais pode ser um pedaço.


22

Método

Participantes

Vinte estudantes universitários (17 mulheres; M ≈ 25 anos) participaram do Experimento

2 para uma sessão com duração aproximada de uma hora. A participação foi remunerada com 15

Francos Suíços ou crédito parcial do curso.

Materiais

Construímos um conjunto de 30 siglas conhecidas de 3 consoantes para servir como parte

listas no Experimento 2. Para criar as 30 listas singleton, pegamos as primeiras consoantes do

listas fragmentadas. Para criar as novas listas de tamanho 3, embaralhamos as consoantes do fragmento

lista seis vezes para construir 180 novas listas. O embaralhamento às vezes recriava siglas conhecidas.

Portanto, consoantes individuais foram trocadas por consoantes de outras novas listas por

lado para ter todas as novas listas diferentes dos pedaços. Excluímos 15 novas listas para obter um total de

165 novas listas porque precisávamos de 5,5 vezes mais listas novas do que blocos. As novas listas foram

permitido se sobrepor com pedaços em consoantes individuais em certas posições (ou seja, posição 1,

2 ou 3) ou no par inicial ou final (ou seja, itens 1 e 2 ou itens 2 e 3). Para

avaliar se tivemos sucesso na criação de listas agrupadas e novas, comparamos essas

listas de duas medidas para garantir que elas diferiam apenas na familiaridade geral, mas não

probabilidades de transição entre consoantes, que também influenciam a memória de curto prazo

retenção (Mayzner & Schoenberg, 1964). Primeiro, comparamos o número de acessos do Google

(restrito à Suíça), que serviu como medida de familiaridade geral das cordas para

os participantes dos presentes experimentos. Se os pedaços forem mais familiares, eles devem

gerar mais acessos ao Google do que novas listas. Calculamos o log10Google atinge por causa de distorção

nos dados e outliers na faixa superior da escala, e os submeteu a um t-

teste usando o pacote BayesFactor (Morey & Rouder, 2014). A hipótese alternativa de que
23

mais hits foram gerados para pedaços (M=5.60) do que para novas listas (M=4.19) foi apoiado

por um BF de 3,76 × 1041. Em segundo lugar, comparamos as frequências do corpus insensível a maiúsculas e minúsculas (Heister

et al., 2011, também registra10transformado) dos bigramas nos dois tipos de listas com outro t-

teste. Uma diferença nesta medida sugeriria que algumas das transições entre

consoantes são mais frequentes em um tipo de lista. Porém, o BF foi de 2,1 para o nulo

hipótese, sugerindo que pedaços (M=4.67) provavelmente não serão diferentes das novas listas (M=

4.47). Conseqüentemente, nossos pedaços como um todo eram mais familiares do que as novas listas, mas eram

comparável em familiaridade ao nível dos bigramas. Todos os estímulos foram apresentados duas vezes ao longo do

experimento para controlar a familiaridade dentro do experimento. Os estímulos utilizados em todos

experimentos estão disponíveis na página da OSF.

Procedimento

Em cada tentativa, três linhas, cada uma composta por três quadros de caixa preta, foram exibidas

na tela. As linhas foram mostradas na parte superior, central e inferior da tela. Cada fila

serviu para apresentar uma lista de memórias. As listas foram apresentadas em ordem de cima para baixo. O

as letras que compõem cada lista foram apresentadas uma a uma (durante 1 s cada) da esquerda para a direita. Nós

estavam interessados na recuperação em série de novas listas dependendo do contexto em que estavam

apresentado (junto com um pedaço ou outra nova lista), dependendo do tamanho do pedaço (singleton

listas vs. lista em pedaços) e dependendo da posição do pedaço em um teste (início ou final).

final do julgamento). Com este objetivo, criamos cinco condições experimentais (ver Figura 3). Em tudo

cinco condições, foram apresentadas duas novas listas de tamanho três. Apenas a lista restante variou

entre condições. Nas condições Singleton First e Singleton Last, esta lista crítica foi

um pedaço de tamanho um (singleton) apresentado na linha superior ou na linha inferior,

respectivamente. Em ambas as condições o singleton apresentou-se na terceira posição serial em uma

linha, e foi precedido por dois espaços em branco iniciais. No primeiro pedaço e no último pedaço
24

condições, a lista crítica era uma lista fragmentada apresentada na linha superior ou na linha inferior,

respectivamente. Na condição de linha de base, todas as três listas eram novas listas de tamanho três.

Após a apresentação de todas as listas, o teste de recordação começou: cada linha foi sinalizada para ser recuperada

em ordem serial da esquerda para a direita. Um quadro preto vazio levou os participantes a relembrar a lista em

o local indicado (linha superior, intermediária ou inferior). Para listas ou blocos de três itens, cada

consoante foi sequencialmente marcada com um quadro vazio individual. Para singletons, apenas um

o quadro vazio na respectiva terceira posição da lista foi apresentado como uma dica. Participantes

respostas confirmadas com a tecla Enter. Em todas as cinco condições, controlamos que cada um dos

três linhas foi indicada dez vezes como a primeira, dez vezes como a segunda e dez vezes como a

terceira lista a ser recuperada. Isso resultou em 150 ensaios que foram apresentados em ordem aleatória

ao longo de uma única sessão.

Resultados

Recuperação serial de listas fragmentadas.Como verificação de manipulação, analisamos se

singletons e chunks foram lembrados melhor do que novas listas apresentadas em

linhas comparáveis. As precisões de recall serial para todos os itens nas cinco condições são plotadas em

Figura 4 em relação à posição de entrada do item e na Figura 5 para os três tipos de lista em relação à linha de

apresentação. É claramente visível em ambas as figuras que singletons e pedaços foram recuperados

melhor do que novas listas. Surpreendentemente, pedaços de três elementos tendem a ser lembrados melhor do que

solteiros. Em todas as posições de entrada e saída, as precisões médias de recall foram 0,74, 0,80,

e 0,67 para singletons, pedaços e novas listas, respectivamente. Calculamos aos pares

comparações das médias dos três tipos de lista em uma regressão linear bayesiana em

proporção correta. Houve evidências contundentes de melhor recordação de solteiros versus novos

listas (BF = 990), para melhor recuperação de pedaços do que novas listas (BF = 2,9 × 1010), mas ligeira evidência

contra a aparente melhor recordação de pedaços do que singletons (BF = 0,54).


25

Recuperação em série de novas listas.A seguir, nos concentramos no impacto de ter um singleton ou

parte em um julgamento após o recall das outras novas listas. Realizamos duas análises – uma sobre o

dados das condições Singleton First e Chunk First em relação à linha de base, e outro

nos dados das condições Singleton Last e Chunk Last em relação à linha de base. O primeiro

análise focada na recuperação de novas listas nas linhas do meio e inferior, dependendo se

um singleton, um pedaço ou uma nova lista foi apresentada na linha superior em um teste. O segundo

análise focada na recuperação de novas listas nas linhas superior e intermediária, dependendo se um

singleton, um pedaço ou uma nova lista foi apresentada na linha inferior em um teste.

Pedaço primeiro.Precisão média de recuperação serial de novas listas quando precedidas por um singleton, um

nova lista, ou um pedaço é mostrado na Figura 6a. Realizamos uma regressão linear bayesiana em

esses dados com as variáveis linha de apresentação (meio vs. inferior, centralizado em zero) e

doença. A análise centrou-se na questão de saber se um pedaço apresentado no

o início de um teste ajuda a retenção de novas listas (não fragmentadas) apresentadas posteriormente. Nós

codificou os três níveis da variável de condição em termos de dois contrastes de código simples:

linha de base x singletons e linha de base x pedaços. Dado que as listas foram sondadas aleatoriamente

ordem, havia um número variável de listas recuperadas antes da recuperação de uma determinada lista. Controlar

para a interferência de saída dessas recuperações anteriores, adicionamos o número da lista anterior

tentativas de recall (também centradas em zero) como variável de controle na análise de regressão. O

variável foi inserida como uma covariável contínua na análise porque trabalhos anteriores

mostraram que a posição de saída afeta a memória de forma aproximadamente linear (Oberauer, 2003). Em

além disso, queríamos saber se a interferência de saída diferia entre a lista

tipos (por exemplo, a interferência de saída de um pedaço é igual à de uma nova lista?). Portanto, nós

inseriu mais dois preditores centrados em zero no modelo. O primeiro codificou se, no

condição de pedaço, a segunda lista recuperada foi precedida pela recuperação de uma nova lista ou de um
26

pedaço. O segundo codificou se, na condição singleton, a segunda lista recuperada foi

precedido pela recuperação de uma nova lista ou de um singleton.

Como alguns dos pedaços podem não ser familiares a todos os participantes,

realizaram a mesma análise apenas para aqueles ensaios em que singletons e pedaços foram

recuperado corretamente (Figura 6b). Quando os pedaços foram recuperados corretamente, podemos ser mais

confiante de que os participantes realmente os reconheceram e lembraram como pedaços, e também

que não houve compensações entre a manutenção do pedaço ou singleton e novas listas.

Médias posteriores, IDH de 95% e AM dos efeitos são mostrados na Tabela 2.

A evidência dos efeitos de interesse foi qualitativamente a mesma nos dois conjuntos

de análises mostradas na Tabela 2. A evidência para uma melhor recordação de novas listas na presença de um

singleton ou chunk foi decisivo. No entanto, contrastando os efeitos para singleton e chunk

mostrou que a memória para novas listas era melhor no contexto de um singleton do que no

contexto de um pedaço. Não houve evidência de um efeito principal da linha de apresentação (meio

vs. menor) na precisão. O benefício de ter um singleton na linha superior foi maior na linha

linha do meio do que na linha inferior (interação Singleton x Linha), mas a evidência não foi

forte. Não houve evidência de que o benefício do pedaço difira entre o meio e o

linha inferior. Como esperado, o parâmetro para o número de listas recuperadas anteriormente foi

negativo. Isto mostra que cada lista adicional que foi recuperada anteriormente leva a

pior memória para listas recuperadas posteriormente. Finalmente, há evidências moderadas a fortes de que

a interferência de saída não difere entre os diferentes tipos de lista (Recall Chunk Before e

Pedaço por último.A seguir, analisamos os dados do Singleton Last e Chunk Last

condições em relação à linha de base, que aborda a questão de saber se um pedaço ajuda

retenção de novas listas apresentadas anteriormente. Executamos a mesma análise do Chunk First (veja

Tabela 3). Os dados são mostrados na Figura 7. Houve apenas evidências de um benefício para a recordação de
27

novas listas na condição singleton, mas não na condição chunk. Não houve diferença

na precisão em todas as condições entre a linha superior e a do meio. Não houve

evidência de que ter um singleton ou um pedaço na linha inferior afetou diferencialmente a memória

para novas listas na linha superior ou na linha do meio (Singleton x Row e Chunk x Row

interações).

Discussão

Os pedaços foram lembrados melhor do que listas aleatórias, demonstrando que nossa manipulação

trabalhado. Os pedaços tendiam até a ser lembrados melhor do que os singletons. A principal constatação

O Experimento 2 foi que os pedaços melhoraram a lembrança de informações apresentadas posteriormente, mas não a lembrança

de informações apresentadas anteriormente em comparação com listas aleatórias. Esta constatação é consistente com

teorias que explicam a capacidade de WM pela alocação de um recurso limitado ou por interferência

entre representações codificadas em WM. O fato de que os pedaços na linha inferior não

ajudar a lembrar das novas listas anteriores (na linha superior e intermediária) está parcialmente em desacordo

com teorias de decadência e ensaio, como será explicado a seguir.

Todas as três perspectivas teóricas assumem que a condição de linha de base e o pedaço

A última condição não difere até que todos os itens de um teste tenham sido apresentados. O pedaço em si

só pode ser reconhecido após todos os itens do pedaço terem sido apresentados (Bower &

Springston, 1970). Por exemplo, considere uma teoria de recursos com recursos discretos (também conhecida como

slots) suficientes para manter quatro pedaços (Awh, Barton, & Vogel, 2007; Cowan, 2001; Zhang &

Sorte, 2008). Imediatamente após a apresentação do último item da linha inferior, quatro itens são

mantidos em quatro slots e quaisquer itens adicionais não puderam ser acomodados. Mesmo que a

os últimos três itens agora podem ser substituídos por um único pedaço, os itens apresentados anteriormente não podem ser

se recuperaram porque abandonaram o WM mais cedo. Portanto, a memória para o primeiro e

a segunda lista não deve se beneficiar do reconhecimento de um pedaço na linha inferior. Em contraste,
28

quando a lista superior é um pedaço, uma representação do pedaço pode ser recuperada do LTM, e o

três representações de itens individuais podem ser retiradas do WM. Como consequência,

os participantes têm mais duas vagas livres na condição Chunk First do que na condição Baseline

condição que eles podem usar para manter itens subsequentes, resultando em melhor memória para

as listas intermediária e inferior.

Um relato de interferência (Oberauer & Lewandowsky, 2008) afirma que o esquecimento é

devido a itens em WM interferindo uns com os outros. Logo após ver o último item, interferência

deve ser o mesmo na condição Chunk Last e na condição Baseline porque um

representação de pedaços só pode ser recuperada do LTM depois que todos os itens de pedaços individuais tiverem

foi codificado em WM. Em contraste, quando um pedaço é apresentado primeiro, a representação de

o pedaço é carregado no WM, enquanto as representações individuais de seus elementos podem ser

removido em uma varredura (“limpando” WM, Ecker et al., 2014). Depois disso, a única representação

em WM é a representação do pedaço. Além disso, as representações individuais inicialmente

codificado não danificou nenhuma outra informação já armazenada no WM. Em contrapartida, quando o

pedaço é apresentado por último, o pedaço só é recuperado do LTM depois de todas as nove letras do

três listas foram codificadas em WM. Neste momento, qualquer dano causado anteriormente

itens codificados são difíceis de reparar porque os itens do pedaço precisam ser removidos

individualmente. A remoção seletiva de itens individuais é mais lenta do que a remoção de todo o conteúdo de

WM (Ecker et al., 2014) e possivelmente mais propenso a erros.

Embora o benefício dos pedaços também seja considerado maior quando apresentado primeiro, um

a teoria da decadência e do ensaio, no entanto, prevê que os pedaços apresentados por último devem ajudar

memória para listas apresentadas anteriormente. Isso ocorre porque uma representação de pedaço único requer

menos tempo para ser ensaiada do que as representações de três consoantes individuais. Por isso,

mesmo que um pedaço deva ajudar mais para informações não fragmentadas quando apresentado primeiro, ele
29

também é considerado útil quando apresentado por último. Os resultados do Experimento 2 não suportam isso

alegar.

Um singleton na linha superior melhorou a memória para listas subsequentes em mais de um

pedaço na linha superior. Esta descoberta é desafiadora para a suposição no modelo incorporado

teoria do processo de que a quantidade de capacidade WM que um pedaço requer em WM é independente de

tamanho do pedaço (Cowan, 2001).

Uma crítica potencial em relação ao benefício menor para pedaços do que para singletons poderia ser

que usamos siglas conhecidas como pedaços. Pode ser que nem todos os participantes estivessem familiarizados

com todas as siglas. Portanto, a dependência do tamanho do pedaço se beneficia do tamanho do pedaço

pode ser porque os participantes não conheciam perfeitamente as siglas. No entanto, o fato de

as siglas tendiam a ser lembradas ainda melhor do que os singletons sugere que isso era provavelmente

não é o caso.

Uma crítica adicional é que os espaços em branco iniciais na última condição Singleton antes

apresentação do singleton permitiu aos participantes fortalecer a memória para o anteriormente

listas apresentadas. O mesmo não é possível para os pedaços porque não havia tempo livre disponível.

entre a apresentação da lista intermediária e inferior. Além disso, os espaços em branco entre os

a lista do meio e o singleton podem ter tornado as listas temporalmente mais distintas (Brown,

Neath e Chater, 2007). Para controlar essas possibilidades, replicamos o Experimento 2 (n =

20), mas alterou os espaços em branco iniciais para espaços em branco finais após a apresentação do singleton

na última condição Singleton. Isto elimina qualquer interrupção entre a apresentação do

linha do meio e da linha inferior, removendo assim qualquer efeito de distinção temporal e

codificação prolongada da lista da linha intermediária antes da codificação do singleton da linha inferior. Esse

modificação não alterou nenhuma das principais descobertas relatadas no Experimento 2, ou seja, que
30

singletons, mas não pedaços, melhoraram a memória para novas listas codificadas antes. Os resultados disso

experimento estão disponíveis nos materiais suplementares on-line.

No experimento controle observamos a mesma tendência do Experimento 2 para

pedaços a serem lembrados melhor do que singletons. Ao analisar os dados de ambos

experimentos juntos, houve fortes evidências (BF = 15) de que os pedaços foram lembrados

melhor do que solteiros. Esta é mais uma descoberta desafiadora para a teoria do processo incorporado

porque a memória para pedaços deve ser independente do tamanho do pedaço. Ao menos dois

interpretações desta descoberta parecem viáveis. Primeiro, os pedaços são semanticamente mais distintos em um

julgamento do que singletons. As representações do primeiro podem ter associações mais ricas no LTM

porque pedaços eram siglas conhecidas. Conseqüentemente, representações visuais ou semânticas em LTM

pode ajudar na recuperação, além da representação de pedaços no WM. Singletons são certamente menos

distintos nesse sentido porque eram também os elementos individuais das outras listas.

Em segundo lugar, as representações dos itens individuais que formam o bloco podem permanecer no WM devido a

remoção incompleta. Em combinação com a representação de pedaços, eles podem ajudar na lembrança de

o pedaço, ao mesmo tempo que diminui o benefício do pedaço para a recuperação de novas listas.

Uma crítica final diz respeito ao tipo de representações utilizadas no Experimento 2 e ao

experimento de controle. (Chen & Cowan, 2009) distinguem entrecentralefonológico

armazenamento, e apenas o armazenamento central é considerado limitado por um número fixo de blocos. Como é

destinado a evitar a manutenção das representações fonológicas. Chen e Cowan observaram

recuperação de um número constante de pedaços apenas com AS, mas não sem AS. Esses autores argumentaram

que qualquer influência do armazenamento fonológico obscurece um limite de capacidade em termos de pedaços. Isto

Pode-se argumentar que os participantes dos nossos dois primeiros experimentos se lembraram de um pedaço não apenas

pela representação do pedaço, mas também pelas representações fonológicas do indivíduo

Unid. Se fosse esse o caso, lembrar das novas listas pode ter sido mais difícil no
31

condição chunk do que na condição singleton, por exemplo, devido à competição por

ensaio, ou devido à interferência específica do domínio entre as representações fonológicas (ver

(Thalmann & Oberauer, 2017)). Esta diferença deverá desaparecer se os participantes apenas utilizarem

armazenamento central para lembrar os pedaços e singletons.

Experimento 3

No Experimento 3, adicionamos AS para restringir o uso de representações fonológicas. Nós

testou se o benefício dos singletons ainda era maior do que o benefício dos pedaços quando

o armazenamento fonológico é evitado. A lógica era a seguinte: é possível que em

Os singletons do experimento 2 ajudaram mais do que os pedaços por causa da dependência parcial de

representações fonológicas, que são mais complexas e demoram mais para serem ensaiadas, por

siglas de três letras do que para letras únicas. Se for esse o caso, o benefício diferencial de

singletons vs. chunks devem desaparecer no AS no Experimento 3. No entanto, se ainda

observarmos que o benefício singleton é maior que o benefício chunk, podemos ter certeza de que

o fato de que o tamanho dos pedaços é importante é independente do comprimento e da complexidade fonológica.

Métodos

Participantes, materiais e procedimentos

Vinte estudantes universitários (16 mulheres; M ≈ 24 anos) participaram do Experimento

3 para uma sessão com duração aproximada de uma hora. A participação foi remunerada com 15

Francos Suíços ou crédito parcial do curso. Os materiais e o procedimento eram exatamente os mesmos

como no Experimento 2, exceto que os participantes praticaram AS. Os participantes começaram a articular

continuamente “ba bi bu” em uma taxa auto-escolhida antes dos estímulos serem apresentados e interrompidos

fazer isso quando o primeiro sinal de recuperação aparecer na tela.


32

Resultados

Recuperação serial de listas fragmentadas.

O desempenho da memória nas cinco condições experimentais é plotado em relação ao item

posição de entrada na Figura 8 e o desempenho da memória para os três tipos de lista é plotado em relação

linha de apresentação na Figura 9. Testamos como uma verificação de manipulação se pedaços e

singletons foram lembrados com mais precisão do que novas listas. Em média, a precisão da recordação foi de 0,71,

. 64 e 0,47 para singletons, pedaços e para novas listas, respectivamente. Mais uma vez, a evidência foi

convincente que os singletons foram lembrados melhor do que as novas listas (BF = 4,1e+11), e que

pedaços foram lembrados melhor do que novas listas (BF = 320'185). Em contraste com o Experimento 2

e no experimento de controle, os pedaços não foram lembrados melhor do que os singletons (BF =

0,16). Comparando as precisões médias de recall para os três tipos de lista com os dois anteriores

experimentos mostram que adicionar AS diminuiu a memória, especialmente para pedaços e novas listas,

mas dificilmente para solteiros.

Recuperação em série de novas listas: primeiro pedaço.

Testamos com o mesmo modelo de regressão Bayesiana do Experimento 2 se novos

listas foram recuperadas com mais precisão do que na condição de controle quando um pedaço ou um singleton

foi apresentado na linha superior. Na Figura 10 parece que tanto pedaços quanto singletons

memória melhorada para novas listas apresentadas posteriormente. As análises (ver Tabela 4) mostraram,

no entanto, apenas singletons, mas não pedaços, melhoraram a memória para novas listas apresentadas posteriormente

com credibilidade. Mais importante ainda para o propósito atual, o benefício apresentou posteriormente novas listas

foi credivelmente maior para singletons do que para pedaços. Não houve evidência de que o efeito

ter um singleton ou pedaço na linha superior diferia entre a linha do meio e a linha inferior

(Singleton x Linha, Pedaço x Linha). Finalmente, houve evidências decisivas de interferência na produção:

O número de listas anteriormente recuperadas teve um efeito deteriorante na recuperação de novas listas. Lá
33

novamente não houve evidência convincente de que a interferência de saída resultante da recuperação de um singleton ou de um

pedaço de memória danificada para listas posteriormente testadas com menos interferência de saída de

recuperando uma nova lista. Isto sugere que a interferência de saída acontece ao nível das listas e

não no nível de singletons ou pedaços individuais.

Recuperação em série de novas listas: última parte.

Em seguida, testamos se ter um singleton ou um pedaço na linha inferior beneficiava

precisão de recordação de novas listas apresentadas anteriormente. A Figura 11 mostra melhor recordação em média para

novas listas em comparação com a condição de controle quando um singleton seguiu, mas não quando um

pedaço seguido. A análise estatística (ver Tabela 5) confirmou essa impressão ao mostrar

evidência decisiva para a comparação Singleton vs. Baseline, mas forte evidência para o Nulo

para a comparação Chunk vs. Linha de base. O efeito de ter um singleton ou pedaço apresentado

na linha inferior não diferiu entre a linha superior e a linha do meio (Singleton x Row,

Chunk x Row) e havia evidências convincentes de que ter um singleton na linha inferior

foi mais benéfico do que ter um pedaço na linha inferior. Os resultados em relação à produção

interferência corroboram os resultados anteriores: O número de listas anteriormente recuperadas

memória diminuída, mas o tipo de lista não importava (pedaço recuperado antes e recuperado

Singleton antes).

Discussão

A questão principal do Experimento 3 era se ter um singleton no início

de um teste ainda beneficiou a memória para novas listas mais do que um pedaço quando os participantes estavam

necessário para executar AS. De acordo com (Chen & Cowan, 2009) apenas o armazenamento central é limitado por

um número fixo de pedaços, e o AS força os participantes a confiar predominantemente na central

armazenar. No entanto, mesmo com EA ainda observamos que o benefício singleton foi maior do que

o benefício do pedaço. Este resultado apoia ainda mais a nossa conclusão de que o tamanho de um pedaço é
34

importante na determinação do seu efeito benéfico quando os pedaços não podem ser mantidos por

lembrando seu primeiro elemento. Provavelmente, o efeito do tamanho do pedaço não pode ser atribuído à produção

interferência porque primeiro recuperar um pedaço ou um singleton diminuiu a memória por cerca de

mesma quantidade que recuperar uma nova lista. Esta descoberta confirma a previsão de (Farrell, 2012)

de acordo com a qual a interferência de saída ocorre no nível das listas (ou seja, clusters). O principal

A diferença entre o Experimento 2 e o experimento de controle foi que a adição de AS reduziu a memória

para pedaços e novas listas, mas dificilmente para singletons. No momento, só podemos especular

por que isso aconteceu. Por exemplo, pode acontecer que os participantes priorizem a retenção de

singletons sobre retenção de pedaços e novas listas.

Experimento 4

Os experimentos 2 e 3 mostraram que ter um pedaço em um teste ajudou na retenção de novos

lista apenas quando o pedaço foi apresentado na linha superior, mas não na linha inferior. Nós

suponha que um pedaço reduza a carga em uma tarefa WM somente depois de ter sido reconhecido como um

pedaço. Só então os participantes poderão substituir as representações dos itens individuais por uma

representação de pedaços. Claramente, reconhecer um pedaço na linha inferior não é mais difícil do que

em qualquer outra linha, o que é mostrado pela recuperação superior dos pedaços apresentados nesta linha

em comparação com as novas listas nos Experimentos 2 e 3 (ver Figuras 4 e 5 e Figuras 8 e 9).

Aparentemente, a redução da carga proporcionada pelo pedaço não pode reparar o dano causado.

foram adicionados às representações de listas previamente codificadas. No entanto, dado que o anterior

experimentos avaliaram apenas os efeitos de pedaços apresentados no início ou no final de

o conjunto de memória (ou seja, linha superior e inferior), ainda não sabemos se um chunking se beneficia

é observado se um pedaço aparecer no meio do teste.


35

Portanto, a principal questão abordada no Experimento 4 foi como os efeitos benéficos

o efeito dos pedaços depende de sua posição serial. Para atingir esse objetivo, focamos exclusivamente

nas condições do pedaço (eliminando as condições singleton) e permitiu que o pedaço fosse

aparecem em todas as três linhas. Os experimentos anteriores tornam duas hipóteses plausíveis. O

A primeira possibilidade é que os pedaços só produzam um benefício para listas codificadas após o pedaço ter sido

apresentado, mas não para listas previamente codificadas. Esta hipótese baseia-se na suposição de que

chunking pode liberar capacidade para codificar itens subsequentes, mas não pode desfazer o dano a

itens já codificados. A segunda possibilidade é que o chunking também ajude as listas anteriores como

desde que o dano causado a eles seja apenas leve (ou seja, apenas interferência moderada ou redução

de recursos ou deterioração), para que essas listas ainda possam ser reparadas após a carga no WM ter

foi reduzido. A nova condição, na qual um pedaço era apresentado na linha do meio,

nos permitiu testar essas duas hipóteses.

Métodos

Participantes

Trinta e dois estudantes universitários (22 mulheres;M≈ 23 anos) participou de um 1-

sessão de uma hora em troca de 15 francos suíços ou crédito parcial do curso.

Materiais

Usamos o mesmo conjunto de 30 pedaços dos Experimentos 2 e 3. Porque eliminamos

nas duas condições singleton, exigimos apenas três vezes mais listas novas do que pedaços mesmo

embora pedaços possam aparecer agora em todas as três linhas. Criamos um conjunto de 90 novas listas por

embaralhando as letras dos pedaços três vezes. O algoritmo verificou se nenhuma consoante estava

usado duas vezes na mesma lista. Mudamos uma ou outra letra entre novas listas

manualmente porque os pedaços às vezes eram recriados por meio de embaralhamento. Comparamos novamente

pedaços e novas listas de familiaridade geral medida como sucessos do Google (restritos a
36

Suíça) e na frequência bigrama. O teste t bayesiano no log10Resultados do Google mostrados

evidência decisiva (BF = 1,34 × 1031) que pedaços (M=5.62) eram mais familiares do que novas listas

(M=4.02). Outro teste t bayesiano no log10frequências bigramas mostraram evidências substanciais

para a hipótese nula (BF = 6,16) de que os pedaços (M=4.21) não diferiu das novas listas (M=

4.20). Todas as listas foram utilizadas três vezes no Experimento 3 e estão disponíveis no OSF

página da Internet.

Procedimento

No total, havia quatro condições. Em todas as quatro condições, três listas de 3 consoantes

foram apresentados sequencialmente na tela, de cima para baixo, como no Experimento 2. No

Condição inicial, três novas listas foram apresentadas para codificação. No restante

condições, um pedaço foi apresentado na linha superior, intermediária ou inferior. Cada item da lista

foi apresentado por 1 s. Não houve tempo entre apresentações de duas consoantes dentro

ou entre listas. Os participantes foram solicitados a recordar as três listas imediatamente após

apresentação da nona consoante. Em todas as quatro condições, as listas em todas as linhas foram sondadas

dez vezes para ser lembrado primeiro, segundo e terceiro. A recordação e a pontuação foram as mesmas que

anteriormente.

Resultados

Recuperação serial de listas fragmentadas.Primeiro, comparamos a precisão do recall serial para pedaços

e novas listas (mostradas nas Figuras 12 e 13) com uma regressão linear bayesiana como

verificação de manipulação. Desta vez, usamos os dados de todas as três linhas porque pedaços e

novas listas podem ser apresentadas em qualquer linha. A análise indicou que pedaços (M= .81) foram

lembrado melhor do que novas listas (M= .62), que foi apoiado com um BF = 1,5 × 1024.

Recuperação em série de novas listas: pedaço antes.A seguir, analisamos a recordação de novas listas como um

função de um pedaço ter aparecido ou não em uma linha anterior. A Figura 14a mostra os dados
37

de todas as tentativas, e a Figura 14b mostra dados condicionados à recuperação correta do pedaço. Serial

a precisão da recordação foi analisada em uma regressão linear bayesiana usando como variáveis independentes

linha de apresentação (meio vs. inferior, centralizado em zero) e condição (linha de base, pedaço no

linha superior e pedaço na linha do meio). A última variável foi inserida na regressão

como duas variáveis de código simples usando a condição de linha de base como categoria de referência. O

primeiro contraste, Chunk in Upper Row, comparou a condição da linha de base com listas que foram

precedido por um pedaço na linha superior; o segundo contraste, Pedaço na linha do meio, comparado

a condição de linha de base para listas que foram precedidas por um pedaço na linha do meio (que poderia

só acontece para listas na linha inferior). Na Figura 14 é visível que uma nova lista foi recuperada

com mais precisão quando foi precedido por um pedaço na linha superior ou intermediária. Houve

evidência substancial a forte (ver Tabela 6) de que um pedaço na linha superior aumentou a memória

mais para listas na linha do meio do que na linha inferior.

Recuperação em série de novas listas: parte posterior.Analisamos a precisão do recall de novas listas que

foram seguidos por um pedaço e comparados com ensaios em que apenas novas listas foram apresentadas

(ver dados nas Figuras 15a e 15b) usando uma regressão linear bayesiana. Linha de apresentação

(novamente centrado em zero) e condição foram usadas como variáveis independentes. A última variável

foi inserida como duas variáveis de código simples. A primeira variável, Chunk in Middle Row,

comparou a condição da linha de base com a condição com um pedaço na linha do meio. O

segunda variável, Chunk in Lower Row, comparou a condição da linha de base com a condição com

um pedaço na linha inferior. A única constelação em que um pedaço ajudou a memória por um

lista apresentada anteriormente foi quando o pedaço apareceu na linha do meio: neste caso,

a memória para a lista na linha superior melhorou em comparação com a condição da linha de base. Os namorados

e os IDH, apresentados na Tabela 7, indicam que o efeito benéfico de um pedaço no

a linha do meio era confiável. A evidência era fortemente contra um efeito benéfico de um pedaço em
38

linha inferior, replicando o resultado do Experimento 2. Também houve evidências contra o

interação bidirecional. Juntas, as duas análises de memória para novas listas dependendo

posição do pedaço estava de acordo com os Experimentos 2 e 3. Eles apoiaram a afirmação de que o

a detecção de pedaços ajuda a lembrar novas listas, desde que o WM não tenha sido fortemente

carregado.

Discussão

O experimento 4 focou na questão de quais posições da lista os pedaços ajudaram

lembrar novas listas em um julgamento. Variando a posição de entrada serial do pedaço no teste

avaliamos se um pedaço só ajuda a memória das listas que o seguem (porque libera

capacidade de codificar essas listas) ou se um pedaço pode ajudar listas que o precederam (porque

liberta capacidade para restabelecer representações degradadas na MO).

Como nos experimentos anteriores, os pedaços melhoraram a memória para as listas a seguir. Esse

também foi o caso para pedaços apresentados em uma posição serial intermediária no conjunto de memória

(ou seja, na linha do meio). Apresentar um pedaço na linha do meio também melhorou a memória para o

lista anterior. Após a apresentação da lista da linha intermediária, o WM já está carregado com seis

consoantes. Nesse ponto, as representações das consoantes na primeira lista (linha superior)

foram degradados pela codificação das consoantes na segunda lista (linha do meio).

No entanto, reconhecer o pedaço na segunda lista ajudou a memória da primeira lista. Se nós

assumir que representações de diferentes itens interferem umas nas outras, o

representações da primeira lista serão distorcidas pela codificação subsequente dos itens da

a segunda lista. Essas representações distorcidas precisam ser eliminadas para serem lembradas, uma

processo que é denominado redintegração (Lewandowsky, 1999). Se os itens da segunda lista puderem ser

substituídos por um pedaço, os primeiros itens da lista ainda podem ser recuperados e reintegrados antes de serem

são ainda mais distorcidas pela terceira lista. Além disso, se os itens individuais da lista fragmentada
39

pode ser substituído por uma representação de bloco, a quantidade total de interferência em WM é

reduzido. Assim, uma melhor memória para a primeira lista poderia ser explicada se pensarmos nos participantes

reintegrando com sucesso a primeira lista após reconhecer o pedaço, reconstruindo assim

as representações dos itens da primeira lista. A reintegração terá menos sucesso no

Chunk Última condição porque ocorreu mais interferência entre as representações

depois de codificar nove itens.

Discussão geral

O objetivo da presente série de experimentos foi examinar a relação entre

WM e LTM em tarefas de recordação seriada utilizando apresentação sequencial de estímulos. Nós avaliamos

como o WM pode fazer uso das informações armazenadas no LTM, recodificando vários estímulos em um

unidade familiar, um processo conhecido como chunking.

Evidência de que Chunking libera capacidade

Trabalhos anteriores mostraram que a quantidade de informação recuperada em tarefas de WM poderia ser

bem descrito por um número fixo de pedaços (Chen & Cowan, 2005, 2009; Cowan et al., 2004).

No entanto, esses estudos deixaram em aberto se os pedaços ajudam porque liberam capacidade em WM ou

porque o LTM auxilia na reconstrução de pedaços na recordação (Hulme et al., 1991; Hulme &

Roodenrys, 1995). Para testar se a fragmentação libera capacidade para outros recursos não fragmentados

informações, testamos o benefício do agrupamento em informações não fragmentadas. Nós consistentemente

observaram tal benefício em todos os experimentos, confirmando que a fragmentação libera capacidade de WM.

O tamanho do pedaço é importante

Se a capacidade do WM for um limite para o número de pedaços, o tamanho do pedaço não deverá ter efeito

em quanta capacidade um pedaço consome (Chen & Cowan, 2005, 2009). Portanto, nosso próximo

O objetivo era testar se o benefício do chunking dependia do tamanho do chunk. Não aconteceu
40

Experimento 1, mas aconteceu nos Experimentos 2, 3 e no experimento de controle. No ultimo

experimentos, construímos os pedaços para que os participantes não possam restringir a codificação e

manutenção para o primeiro elemento de um pedaço. Em contraste, os pedaços usados no Experimento 1

permitiu usar essa estratégia, porque o primeiro elemento era exclusivo para cada pedaço. Com

suposição dessa estratégia, qualquer teoria de WM prevê que o tamanho do pedaço não tem influência

no benefício de fragmentação. Isso ocorre porque os participantes não são obrigados a codificar e

manter todo o pedaço, mas apenas um único item. Quando os participantes foram obrigados a

codificar todos os elementos de um pedaço, como no Experimento 2, houve um benefício menor de pedaço para

pedaços de três elementos em comparação com singletons.

A capacidade constante em termos de um número fixo de pedaços relatada em estudos anteriores

(Chen & Cowan, 2005, 2009; Cowan et al., 2004) pode, até certo ponto, ser devido ao material

que permitiu a aplicação da estratégia de memória acima mencionada. Não podemos fazer isso

atribuição com confiança, no entanto, porque a comparação entre nosso Experimento 1 -

habilitar esta estratégia – para nossos Experimentos 2, 3 e 4 – não habilitar a estratégia – é

confundida com outras diferenças, em particular relativas aos materiais e ao tamanho dos

os conjuntos de memória. Além disso, há indiscutivelmente outros factores, para além da estratégia

diferenças, que contribuem para os resultados diferentes ao usar pedaços com características únicas ou não

elementos únicos. Por exemplo, ao usar pedaços com elementos não exclusivos, a similaridade

entre dois pedaços que compartilham alguns elementos, e entre pedaços e singletons, é maior

do que quando os pedaços são compostos de elementos únicos. A similaridade entre os itens da lista aumenta

a chance de confundi-los, diminuindo assim o desempenho da recuperação serial (Conrad, 1964;

Saito, Logie, Morita e Law, 2008).

Poderia a confusão baseada em similaridade explicar por que os singletons levaram a uma melhor memória para

outros itens além dos pedaços de três letras? Para que tal explicação funcionasse, teríamos que
41

suponha que itens não agrupados sejam confundidos mais frequentemente com blocos de três letras do que com

solteiros. Se fosse esse o caso, a memória para pedaços deveria ser pior do que a memória para

solteiros. O oposto foi o caso no Experimento 2 (e no controle que o acompanha).

experimento), não apoiando uma conta de confusão baseada em similaridade. Tal conta poderia,

no entanto, ser testado experimentalmente variando se pedaços e singletons compartilham

elementos com novas listas. Deixamos esta possibilidade aberta para pesquisas futuras.

Poderiam outras formas de interferência – além da confusão – explicar o diferencial

benefícios de singletons e pedaços de três letras? Se assumirmos que as representações de

pedaços de três letras são mais complexos do que aqueles de singletons (ou seja, contendo mais

características ou componentes, como mais fonemas ou mais letras), então eles poderiam interferir

mais fortemente com outros itens, distorcendo suas representações – um mecanismo conhecido como

interferência por superposição (Oberauer, Lewandowsky, Farrell, Jarrold, & Greaves, 2012).

Qualquer explicação em termos de fatores que levam a diferentes quantidades de interferência

entre representações dá um passo para longe da noção de que a capacidade de GR é limitada em

termos de um número fixo de pedaços. De acordo com esse modelo – às vezes chamado de

"modelo de slot" – o desempenho deve ser limitado apenas pelo número de representações de pedaços.

Variáveis como similaridade ou complexidade não devem importar. Ainda é possível que

existe um limite de capacidade central em termos de blocos, que é obscurecido por mecanismos adicionais

afetando o desempenho da memória. Descartamos uma delas a manutenção fonológica e

ensaio, no Experimento 3, mas há uma infinidade de outros mecanismos auxiliares –

incluindo interferência – que poderia ser adicionada a um modelo de capacidade discreta (por exemplo

para tal modelo aumentado, consulte (Cowan, Rouder, Blume, & Saults, 2012)). Quanto mais tal

mecanismos adicionais são invocados, no entanto, mais precisamos perguntar se o


42

mecanismos adicionais não são suficientes para explicar todos os dados existentes por si só, sem a

suposição de um limite de capacidade central (Navon, 1984).


43

O chunking é mais benéfico para os conteúdos subsequentes do que para os anteriores do WM

O benefício do chunk interagiu com a posição serial do chunk. Enquanto um pedaço

beneficiou outras informações não fragmentadas quando apresentadas como a primeira ou a segunda lista,

não houve tal benefício quando apresentado como a terceira lista. Isto está de acordo com os resultados de

(Portrat et al., 2016)Figura 8, p. 431). Embora Portrat e colegas não tenham testado o

benefício dos pedaços de informações não-fragmentadas formalmente, sua figura sugere que a memória

para letras subsequentes melhorou quando as letras anteriores formaram um pedaço em vez de um

conjunto aleatório. Assumimos que os pedaços só ajudam a retenção de outros itens após um compacto

representação do pedaço foi recuperada do LTM, e as representações do

itens individuais foram removidos do WM. Esses processos só podem ocorrer depois de tudo

elementos de um pedaço foram apresentados. Até então, as representações já existentes

WM será prejudicado pela manutenção temporária dos elementos individuais do

pedaço. Quando o dano às representações de itens codificados anteriormente for apenas leve, a remoção

das representações dos elementos individuais do pedaço permite a reparação dos danos.

Porém, quando o dano é grave, a reparação não é mais possível. É por isso que pedaços

apresentado na última posição da lista não levou a um benefício de fragmentação. Como usamos serial

apresentação de todos os estímulos, é possível que o efeito da posição da lista seja diminuído (a) quando

todos os itens de uma lista são apresentados simultaneamente na tela (permitindo a detecção e codificação de

o pedaço completo de uma vez) ou (b) quando uma representação de pedaço único para toda a lista pode ser

recuperado após a apresentação de cada item individual da lista (por exemplo, sorvete – homem3). A

a teoria de decaimento e reativação do WM também previu que os pedaços ajudam em qualquer lista

posição, porque requerem menos tempo para serem ensaiados no intervalo de retenção do que novos

listas. No entanto, não encontramos evidências para esta previsão, consistentes com evidências de que

as representações verbais não decaem na MT (Oberauer & Lewandowsky, 2013, 2014).

3Gostaríamos de agradecer a Nelson Cowan por esta sugestão.


44

Conclusão

Os pedaços reduzem a carga no WM, melhorando assim a memória para outras informações

mantidos simultaneamente. A carga de um pedaço de três letras, no entanto, ainda excede a de um bloco de três letras.

única letra. Conseqüentemente, uma capacidade fixa em termos de número de pedaços em WM não pode por si só

explique o benefício do chunking. Propomos que o benefício do chunking resulta do

seguintes etapas: Após os itens individuais terem sido codificados em WM, potencialmente

interferindo com representações já codificadas, uma representação de bloco correspondente pode ser

detectado no LTM. Esta representação é recuperada do LTM e codificada em WM, que

permite a remoção das representações dos elementos individuais do pedaço. O que se segue

a redução da carga no WM facilita a codificação subsequente de informações adicionais no WM. Em

Em contraste, a informação codificada antes do pedaço sofrer com a carga inicialmente alta, e o

a redução subsequente da carga permite apenas uma reparação limitada desses danos.
45

Referências

Ah, E., Barton, B. e Vogel, EK (2007). A memória de trabalho visual representa um problema fixo

Número de itens independentemente da complexidade.Ciência Psicológica,18(7), 622–628.

https://doi.org/10.1111/j.1467-9280.2007.01949.x

Bower, GH e Springston, F. (1970). Pausas como pontos de recodificação em séries de letras.Diário de

Psicologia Experimental,83(3, Pt.1), 421–430. https://doi.org/10.1037/h0028863

Brainard, DH (1997). A caixa de ferramentas da psicofísica.Visão Espacial,10(4), 433–436.

https://doi.org/10.1163/156856897X00357

Brener, R. (1940). Uma investigação experimental da extensão da memória.Revista Experimental

Psicologia,26(5), 467. https://doi.org/10.1037/h0061096

Brown, GDA, Neath, I., & Chater, N. (2007). Um modelo de proporção temporal de memória.

Revisão Psicológica,114(3), 539–576. https://doi.org/10.1037/0033-

295X.114.3.539

Chase, WG e Simon, HA (1973). Percepção no xadrez.Psicologia cognitiva,4(1), 55–81.

https://doi.org/10.1016/0010-0285(73)90004-2

Chen, Z. e Cowan, N. (2005). Limites de pedaços e limites de comprimento em recall imediato: A

Reconciliação.Journal of Experimental Psychology: Aprendizagem, Memória e Cognição,

31(6), 1235–1249. https://doi.org/10.1037/0278-7393.31.6.1235

Chen, Z. e Cowan, N. (2009). Capacidade central da memória de trabalho verbal: o limite em palavras

retido sem articulação oculta.O Jornal Trimestral de Experimental

Psicologia,62(7), 1420–1429. https://doi.org/10.1080/17470210802453977

Conrado, R. (1964). Confusões acústicas na memória imediata.Jornal Britânico de Psicologia,

55(1), 75–84. https://doi.org/10.1111/j.2044-8295.1964.tb00899.x


46

Cowan, N. (2001). O mágico número 4 na memória de curto prazo: uma reconsideração da memória mental

capacidade de armazenamento.As Ciências Comportamentais e do Cérebro,24(1), 87–114; discussão 114-

185.

Cowan, N., Rouder, JN, Blume, CL e Saults, JS (2012). Modelos de trabalho verbal

capacidade de memória: o que é necessário para fazê-los funcionar?Revisão Psicológica,

119(3), 480–499. https://doi.org/10.1037/a0027791

Cowan, N., Saults, JS, Elliott, EM e Moreno, MV (2002). Desconfundindo a recuperação serial.

Revista de Memória e Linguagem,46(1), 153–177.

https://doi.org/10.1006/jmla.2001.2805

Cowan, N., Zhijian Chen e Rouder, JN (2004). Capacidade Constante em Série Imediata

Recuperar tarefa.Ciência Psicológica (Wiley-Blackwell),15(9), 634–640.

https://doi.org/10.1111/j.0956-7976.2004.00732.x

Ecker, UKH, Oberauer, K. e Lewandowsky, S. (2014). A atualização da memória de trabalho envolve

remoção específica do item.Revista de Memória e Linguagem,74, 1–15.

https://doi.org/10.1016/j.jml.2014.03.006

Farrell, S. (2012). Agrupamento temporal e sequenciamento na memória de curto prazo e episódica

memória.Revisão Psicológica,119(2), 223–271. https://doi.org/10.1037/a0027371

Gobet, F. e Clarkson, G. (2004). Pedaços na memória especializada: evidências do número mágico

quatro… ou são dois?Memória,12(6), 732–747.

https://doi.org/10.1080/09658210344000530

Hulme, C., Maughan, S. e Brown, GDA (1991). Memória para palavras familiares e desconhecidas:

Evidência de uma contribuição da memória de longo prazo para a extensão da memória de curto prazo.Diário

de Memória e Linguagem,30(6), 685–701. https://doi.org/10.1016/0749-

596X(91)90032-F
47

Hulme, C. e Roodenrys, S. (1995). O papel dos mecanismos de memória de longo prazo na memória

período.Jornal Britânico de Psicologia,86(4), 527.

Jones, T. e Oberauer, K. (2013). Efeitos de posição serial para itens e relações de curto prazo

memória.Memória,21(3), 347–365. https://doi.org/10.1080/09658211.2012.726629

Kass, RE e Raftery, AE (1995). Fatores de Bayes.Jornal da Estatística Americana

Associação,90(430), 773-795. https://doi.org/10.2307/2291091

Kruschke, JK (2011).Fazendo análise de dados bayesiana: um tutorial com R e BUGS.

Lee, MD, & Wagenmakers, E.-J. (2014).Modelagem Cognitiva Bayesiana: Um Curso Prático.

Cambridge; Nova York: Cambridge University Press.

Lewandowsky, S. (1999). Redintegração e supressão de resposta em recall serial: A

Modelo de Rede Dinâmica.Revista Internacional de Psicologia,34(5/6), 434–446.

https://doi.org/10.1080/002075999399792

Mayzner, MS e Schoenberg, KM (1964). Efeitos de frequência de uma única letra e digrama em

recall serial imediato.Jornal de aprendizagem verbal e comportamento verbal,3(5), 397–

400. https://doi.org/10.1016/S0022-5371(64)80008-6

Morey, RD, Hoekstra, R., Rouder, JN, Lee, MD, & Wagenmakers, E.-J. (2016). A falácia

de colocar confiança em intervalos de confiança.Boletim e revisão psiconômica,23(1),

103–123. https://doi.org/10.3758/s13423-015-0947-8

Morey, RD e Rouder, JN (2014). BayesFactor: Cálculo de fatores de Bayes para comum

projetos (versão 0.9.7). Obtido em http://cran.at.r-

project.org/web/packages/BayesFactor/index.html

Navon, D. (1984). Recursos – uma pedra de sopa teórica?Revisão Psicológica,91(2), 216–

234. https://doi.org/10.1037/0033-295X.91.2.216
48

Oberauer, K. (2003). Compreender as curvas de posição serial no reconhecimento de curto prazo e

lembrar.Revista de Memória e Linguagem,49(4), 469-483.

https://doi.org/10.1016/S0749-596X(03)00080-9

Oberauer, K. e Lewandowsky, S. (2008). Esquecendo no recall imediato em série: Decadência,

distinção temporal ou interferência?Revisão Psicológica,115(3), 544–576.

https://doi.org/10.1037/0033-295X.115.3.544

Oberauer, K. e Lewandowsky, S. (2013). Evidências contra a deterioração da memória de trabalho verbal.

Revista de Psicologia Experimental: Geral,142(2), 380–411.

https://doi.org/10.1037/a0029588

Oberauer, K. e Lewandowsky, S. (2014). Mais evidências contra a deterioração da memória de trabalho.

Revista de Memória e Linguagem,73, 15–30.

https://doi.org/10.1016/j.jml.2014.02.003

Oberauer, K., Lewandowsky, S., Farrell, S., Jarrold, C., & Greaves, M. (2012). Modelagem

memória de trabalho: um modelo de interferência de extensão complexa.Boletim Psiconômico e

Análise,19(5), 779-819. https://doi.org/10.3758/s13423-012-0272-4

Pelli, DG (1997). O software VideoToolbox para psicofísica visual: transformando

números em filmes.Visão Espacial,10(4), 437–442.

https://doi.org/10.1163/156856897X00366

Plummer, M. (2003).{JAGS}: Um programa para análise de modelos gráficos {Bayesianos} usando

Amostragem de {Gibbs}. Apresentado nos Anais do 3º Workshop Internacional sobre

Computação Estatística Distribuída.

Portrat, S., Guida, A., Phénix, T., & Lemaire, B. (2016). Promovendo o diálogo experimental

entre memória de trabalho e chunking: dados comportamentais e simulação.Memória e

Conhecimento,44(3), 420–434. https://doi.org/10.3758/s13421-015-0572-9


49

Saito, S., Logie, RH, Morita, A., & Law, A. (2008). Efeitos de similaridade visual e fonológica

na recordação serial imediata verbal: um teste com materiais kanji.Diário da Memória e

Linguagem,59(1), 1–17. https://doi.org/10.1016/j.jml.2008.01.004

Spiegelhalter, DJ, Best, NG, Carlin, BP e Linde, A. van der. (2002). Medidas bayesianas

da complexidade e ajuste do modelo.Jornal da Royal Statistical Society: Série B

(Metodologia Estatística),64(4), 583.

Thalmann, M. e Oberauer, K. (2017). Interferência específica de domínio entre armazenamento e

o processamento em extensões complexas é impulsionado por operações cognitivas e motoras.O

Revista Trimestral de Psicologia Experimental,70(1), 109–126.

https://doi.org/10.1080/17470218.2015.1125935

Wagenmakers, E.-J. (2007). Uma solução prática para os problemas generalizados dos valores de p.

Boletim e revisão psiconômica,14(5), 779–804.

https://doi.org/10.3758/BF03194105

Wetzels, R., Raaijmakers, JGW, Jakab, E., & Wagenmakers, E.-J. (2009). Como quantificar

suporte a favor e contra a hipótese nula: Uma implementação WinBUGS flexível de um

teste t bayesiano padrão.Boletim e revisão psiconômica,16(4), 752–760.

https://doi.org/10.3758/PBR.16.4.752

Zhang, W. e Luck, SJ (2008). Representações discretas de resolução fixa no trabalho visual

memória.Natureza,453(7192), 233–235. https://doi.org/10.1038/nature06860


50

Tabelas

tabela 1

Médias Posteriores, Limites Inferiores e Superiores dos IDH de 95% e os AM para os

Parâmetros do Modelo Linear ajustados aos Dados do Experimento 1.

Medir
95% IDH
Posterior Bayes
Superior
Efeito Significar Limite Inferior Fator
Vinculado

Definir tamanho =

2
Digite outro 0,08 0,05 0,11 249222
Tamanho Outro - 0,13 - 0,16 - 0,10 3,90E+16
Tempo de recall - 0,11 - 0,13 - 0,08 7,50E+10
Tipo Outro x Tamanho Outro Tipo 0,19 0,14 0,25 1.10E+09
Outro x Tempo de rechamada 0,06 0,01 0,12 4.60E-01
Tamanho Outro x Tempo de - 0,16 - 0,21 - 0,10 5.81E+05
rechamada Três vias 0,19 0,08 0h30 2.90E+01

Definir tamanho =

4
Digite outro 0,18 0,16 0,21 1,30E+36
Tamanho Outro - 0,11 - 0,14 - 0,08 1,20E+11
Tempo de recall - 0,11 - 0,13 - 0,08 6,20E+10
Tipo Outro x Tamanho Outro Tipo 0,17 0,12 0,22 3.72E+06
Outro x Tempo de rechamada 0,09 0,03 0,14 5,50E+00
Tamanho Outro x Tempo de - 0,07 - 0,12 - 0,01 7h30E-01
rechamada Três vias 0,08 - 0,03 0,19 0,24
51

mesa 2

Médias posteriores, IDH de 95% e GC dos parâmetros do modelo de regressão linear

ajustado aos dados do Experimento 2 apresentados nos painéis aeb da Figura 6, respectivamente.

Medir
95% IDH
Posterior Bayes
Superior
Pedaço primeiro Efeito Significar
Mais baixo
Fator
Vinculado Vinculado

Todos os testes Pedaço (vs. linha de base) 0,09 0,06 0,12 187.566,00
Linha Singleton (vs. Linha de 0,21 0,18 0,24 2,50E+36
Base) 0,02 0,00 0,05 0,10
Pedaço x Linha - 0,06 - 0,13 0,00 0,41
Singleton x Linha - 0,09 - 0,15 - 0,03 14h30

Singleton vs. 0,12 0,09 0,15 2,70E+10


Nº. Listas recuperadas anteriores - 0,12 - 0,14 - 0,11 2,00E+50
Parte recuperada antes - 0,03 - 0,10 0,05 0,08
Recordou Singleton antes 0,08 0,00 0,15 0,41

Pedaços e Pedaço (vs. linha de base) 0,10 0,06 0,13 92'066,00


Solteiros Linha Singleton (vs. Linha de 0,22 0,18 0,25 4,30E+30
Correto Base) 0,02 0,00 0,05 0,09
Pedaço x Linha - 0,06 - 0,13 0,00 0,40
Singleton x Linha - 0,09 - 0,15 - 0,03 2.20
Singleton vs Pedaço 0,12 0,08 0,16 3.19E+05
Nº. Listas recuperadas anteriores - 0,12 - 0,14 - 0,11 1,67E+50
Parte recuperada antes 0,05 - 0,05 0,14 0,12
Recordou Singleton antes 0,05 - 0,05 0,14 0,12
52

Tabela 3

Médias posteriores, IDH de 95% e GC dos parâmetros do modelo de regressão linear

ajustado aos dados do Experimento 2 nos painéis a e b da Figura 7, respectivamente.

Medir
95% IDH
Posterior Bayes
Superior
Pedaço por último Efeito Significar
Mais baixo
Fator
Vinculado Vinculado

Todos os testes Pedaço (vs. linha de base) 0,02 - 0,01 0,05 0,06
Linha Singleton (vs. Linha de 0,24 0,21 0,27 2,60E+50
Base) 0,03 0,00 0,05 0,25
Pedaço x Linha 0,05 - 0,01 0,11 0,22
Singleton x Linha - 0,06 - 0,12 0,00 0,36
Singleton vs. 0,22 0,19 0,25 2.4e+413
Nº. Anterior recordado
3,60E+18
Listas - 0,07 - 0,09 - 0,06
Pedaço lembrado antes - 0,03 - 0,11 0,04 0,09
Recordou Singleton antes 0,03 - 0,04 0,10 0,08

Pedaços e Singletons
Pedaço 0,05
Correto 0,02 - 0,02 0,06
Solteiro 0,24 0,20 0,28 1,70E+34
Linha 0,03 - 0,03 0,08 0,08
Pedaço x Linha 0,05 0,00 0,11 0,25
Singleton x Linha - 0,06 - 0,12 - 0,01 0,47
Singleton - Pedaço 0,22 0,17 0,27 1,30E+15
Nº. Anterior recordado
6,40E+13
Listas - 0,07 - 0,09 - 0,06
Pedaço lembrado antes - 0,02 - 0,10 0,07 0,08
Recordou Singleton antes 0,01 - 0,07 0,10 0,08
53

Tabela 4

Médias posteriores, IDH de 95% e GC dos parâmetros do modelo de regressão linear

ajustado aos dados do Experimento 3 nos painéis a e b da Figura 10, respectivamente.

Medir
95% IDH
Posterior Bayes
Superior
Pedaço primeiro Efeito Significar
Mais baixo
Fator
Vinculado Vinculado

Todos os testes Pedaço (vs. linha de base) 0,04 0,01 0,08 0,61
Linha Singleton (vs. Linha de 0,13 0,09 0,16 2.20E+09
Base) 0,07 0,00 0,15 0,38
Pedaço x Linha - 0,02 - 0,09 0,04 0,07
Singleton x Linha - 0,12 - 0,24 - 0,01 0,85
Singleton vs. 0,08 0,05 0,12 116,00
Nº. Listas recuperadas anteriores - 0,12 - 0,15 - 0,09 4,50E+11
Parte recuperada antes - 0,05 - 0,13 0,03 0,15
Recordou Singleton antes 0,08 - 0,01 0,16 0,34

Pedaços e Pedaço (vs. linha de base) 0,06 0,02 0,12 2.20


Solteiros Linha Singleton (vs. Linha de 0,14 0,10 0,19 7h30E+07
Correto Base) 0,06 0,03 0,14 15h00
Pedaço x Linha - 0,02 - 0,10 0,07 0,08
Singleton x Linha - 0,16 - 0,24 - 0,03 62,00
Singleton - Pedaço 0,08 0,04 0,14 13h00
Nº. Listas recuperadas anteriores - 0,11 - 0,13 - 0,08 1,50E+22
Parte recuperada antes - 0,02 - 0,13 0,09 0,09
Recordou Singleton antes 0,09 - 0,01 0,20 0,42
54

Tabela 5

Médias posteriores, IDH de 95% e GC dos parâmetros do modelo de regressão linear

ajustado aos dados do Experimento 3 nos painéis aeb da Figura 11, respectivamente.

Medir
95% IDH
Posterior
Superior Fator de Bayes
Pedaço por último Efeito Média Mais baixo

Vinculado Vinculado

Todos os testes Pedaço (vs. linha de base) 0,03 - 0,01 0,06 0,07
Linha Singleton (vs. Linha de 0,16 0,12 0,19 1,30E+15
Base) 0,03 - 0,09 0,14 0,10
Pedaço x Linha - 0,01 - 0,07 0,04 0,05
Singleton x Linha - 0,03 - 0,09 0,03 0,08
1.098.477,0
Singleton vs.
0,13 0,09 0,18 0
Nº. Listas recuperadas anteriores - 0,08 - 0,10 - 0,06 1.60E+08
Parte recuperada antes 0,00 - 0,11 0,10 0,09
Recordou Singleton antes - 0,03 - 0,12 0,06 0,09

Pedaços e Pedaço (vs. linha de base) 0,03 - 0,02 0,08 0,09


Solteiros Linha Singleton (vs. Linha de 0,17 0,13 0,21 3,80E+11
Correto Base) 0,01 - 0,10 0,13 0,10
Pedaço x Linha - 0,03 - 0,11 0,04 0,09
Singleton x Linha - 0,04 - 0,11 0,03 0,12
Singleton - Pedaço 0,14 0,08 0,19 1.00E+04
Nº. Listas recuperadas anteriores - 0,08 - 0,10 - 0,06 2,40E+10
Parte recuperada antes 0,01 - 0,12 0,14 0,10
Recordou Singleton antes - 0,04 - 0,16 0,07 0,12
55

Tabela 6

Médias posteriores, IDH de 95% e GC dos parâmetros da regressão linear ajustados

os dados do Experimento 4 mostrados nos painéis aeb da Figura 14, respectivamente.

Medir
95% IDH
Posterior Bayes
Pedaço Antes Superior
Efeito Significar
Mais baixo
Fator
Vinculado Vinculado

Todos os testes Pedaço na fileira superior 0,07 0,04 0,10 825,00


Pedaço na fileira 0,05 0,01 0,08 1,20
intermediária 0,04 - 0,01 0,09 0,12

Linha x Pedaço na Linha Superior 0,37


- 0,05 - 0,10 0,00
Nº. Listas recuperadas anteriores - 0,17 - 0,20 - 0,15 3,60E+42
Parte recuperada antes - 0,05 - 0,10 0,00 0,24

Pedaço na linha superior 0,08 0,04 0,11 878,00


Pedaços corretos
Pedaço na linha do 0,07 0,03 0,11 9h20
meio 0,03 - 0,02 0,09 0,09

Linha x Pedaço na Linha Superior 2h00


- 0,07 - 0,13 - 0,02
Nº. Listas recuperadas anteriores - 0,18 - 0,20 - 0,15 7,90E+43
Parte recuperada antes - 0,06 - 0,12 0,00 0,41
56

Tabela 7

Médias posteriores, IDH de 95% e GC dos parâmetros da regressão linear ajustados

os dados do Experimento 4 mostrados nos painéis a e b da Figura 15, respectivamente.

Medir
95% IDH
Posterior Bayes
Pedaço depois Superior
Efeito Significar
Mais baixo
Fator
Vinculado Vinculado

Todos os testes Pedaço na linha do 0,07 0,04 0,11 125,00


meio Pedaço na linha 0,00 - 0,02 0,03 0,02
inferior 0,04 0,01 0,06 13h30

Linha x Pedaço na Posição 3 Nr. - 0,01 - 0,06 0,04 0,04


Listas recuperadas anteriores - 0,09 - 0,11 - 0,08 4,60E+38
Parte recuperada antes 0,01 - 0,04 0,05 0,04

Pedaços Pedaço na linha do 0,09 0,05 0,13 993,00


Correto meio Pedaço na linha - 0,01 - 0,04 0,02 0,03
inferior 0,04 0,01 0,07 13h30

Linha x pedaço na linha inferior 0,01 - 0,05 0,06 0,05


nº. Listas recuperadas anteriores - 0,09 - 0,11 - 0,07 2,50E+25
Parte recuperada antes 0,02 - 0,03 0,08 0,06
57

Legendas de figuras

Figura 1. Precisão de recuperação serial (proporção correta) de novas listas no Experimento 1. Recuperação de

novas listas com 2 e 4 itens são apresentadas em diferentes subpainéis. O desempenho é traçado

em função do tamanho da outra lista (2 ou 4 itens) para os dois tipos de outras listas (nova

lista ou pedaço). As barras de erro representam erros padrão dentro dos assuntos.
58

Figura 2. Precisão de recall serial (proporção correta) em todas as 16 condições do Experimento 1.

Observação. Para melhor interpretabilidade, omitimos as barras de erro.


59

Figura 3. Exemplo das cinco condições experimentais no Experimento 2. Listas Singleton

(letra única) e listas fragmentadas são identificadas em vermelho (observe que no experimento real todas

molduras eram pretas). As linhas tracejadas pretas indicam quadros nos quais nenhum item foi

apresentado.
60

Figura 4. A precisão do recall serial (proporção correta) é plotada em relação à posição de entrada do item

separadamente para cada uma das cinco condições experimentais no Experimento 2. Para melhor

interpretabilidade da figura, (a) alocamos singletons apresentados nas partes superior e inferior

linha na figura para a posição de entrada do item 3 e 7, respectivamente, e (b) omitimos o erro

bares. U significa Linha Superior, L para Linha Inferior.


61

Figura 5. A precisão do recall serial dos três tipos de lista é plotada em relação à linha de

apresentação. Os três painéis representam os dados das três posições de saída da lista em

Experiência 2.
62

Figura 6. Precisão média de recuperação serial de novas listas que foram precedidas por um singleton, um novo

lista, ou um pedaço plotado em relação à linha de apresentação no Experimento 2. O painel a é baseado em todos

dados, e o Painel b é baseado apenas nos dados da condição Chunk First e do

Singleton Primeira condição em que os participantes recordaram o pedaço ou o singleton

corretamente. As barras de erro representam erros padrão dentro dos assuntos. U significa Superior

Linha.
63

Figura 7. Precisão média de recuperação serial de novas listas quando um singleton, uma nova lista ou um pedaço

foi apresentado na linha inferior (Painel a: dados completos; painel b: Dados de ensaios com

recuperação de pedaços/singletons) no Experimento 2. As barras de erro representam dentro dos assuntos

erros padrão. L significa Linha Inferior.


64

Figura 8. A precisão do recall serial (proporção correta) é plotada em relação à posição de entrada do item

separadamente para cada uma das cinco condições experimentais no Experimento 3. Para melhor

interpretabilidade da figura, (a) alocamos singletons apresentados nas partes superior e inferior

linha na figura para a posição de entrada do item 3 e 7, respectivamente, e (b) omitimos o erro

bares. U significa Linha Superior, L para Linha Inferior.


65

Figura 9. Precisão de recall serial (proporção correta) no Experimento 3 para os três tipos de lista

traçado contra a linha de apresentação. As barras de erro representam erros padrão dentro dos assuntos.
66

Figura 10. Precisão média de recuperação serial de novas listas que foram precedidas por um singleton, um

nova lista ou um pedaço plotado em relação à linha de apresentação no Experimento 3. O painel a é baseado

em todos os dados, e o Painel b é baseado apenas nos dados da condição Chunk First e

a primeira condição Singleton em que os participantes se lembraram do pedaço ou do singleton

corretamente. As barras de erro representam erros padrão dentro dos assuntos. U significa Superior

Linha.
67

Figura 11. Precisão média de recuperação serial de novas listas quando um singleton, uma nova lista ou um pedaço

foi apresentado na linha inferior (Painel a: dados completos; painel b: Dados de ensaios com

recuperação de pedaços/singletons) no Experimento 3. As barras de erro representam dentro dos assuntos

erros padrão. L significa Linha Inferior.


68

Figura 12. A precisão da recuperação serial (proporção correta) é plotada em relação à posição de entrada do item

separadamente para cada uma das quatro condições experimentais no Experimento 4. Para melhor

interpretabilidade da figura, omitimos as barras de erro. U significa Linha Superior, M para Meio

Linha e L para Linha Inferior.


69

Figura 13. Precisão de recall serial no Experimento 4 para pedaços e novas listas plotadas

linha de apresentação. Os três painéis representam as três posições de saída da lista.


70

Figura 14. Precisão de recall serial de novas listas que foram precedidas por um pedaço em comparação com

novas listas na condição de linha de base do Experimento 4. O painel a mostra dados de todos os ensaios,

enquanto o painel b subdivide os dados dos ensaios com pedaços nos quais os pedaços foram recuperados

corretamente. U significa Linha Superior, M para Linha Média.


71

Figura 15. Precisão de recuperação serial de novas listas que foram seguidas por um pedaço no Experimento

4. O painel a mostra dados de todos os ensaios, enquanto o painel b mostra dados de ensaios com pedaços

condicionado à recuperação correta do pedaço. M significa Linha do Meio, L para Linha Inferior.

Você também pode gostar