Escolar Documentos
Profissional Documentos
Cultura Documentos
com
Ano: 2019
Resumo: Chunking é a recodificação de unidades menores de informação em unidades maiores e familiares. Freqüentemente, presume-
se que o chunking ajuda a contornar a capacidade limitada da memória de trabalho (WM). Investigamos como os chunks são usados em
tarefas WM, abordando três questões: (a) O chunking reduz a carga no WM? Em quatro experimentos, foram encontrados benefícios de
chunking não apenas para a recuperação das informações fragmentadas, mas também de outras informações não fragmentadas
mantidas simultaneamente no WM, apoiando a suposição de que o chunking reduz a carga. (b) O benefício do chunking é independente
do tamanho do chunk? O benefício do chunking era independente do tamanho do chunk apenas se os chunks fossem compostos de
elementos únicos, de modo que cada chunk pudesse ser substituído por seu primeiro elemento (Experimento 1), mas não quando vários
chunks consistissem em conjuntos de elementos sobrepostos, desabilitando esta estratégia de substituição (Experiências 2 e 3). O efeito
do tamanho do pedaço não se deve a diferenças na duração do ensaio, pois persistiu quando os participantes foram obrigados a realizar
supressão articulatória (Experimento 3). Conseqüentemente, a capacidade do WM não está limitada a um número fixo de blocos,
independentemente do seu tamanho. (c) O benefício do chunking depende da posição serial do chunk? Os pedaços nas primeiras
posições da lista melhoraram a lembrança de outro material não fragmentado, mas os pedaços no final da lista não. Concluímos que um
pedaço reduz a carga no WM por meio da recuperação de uma representação de pedaço compacto da memória de longo prazo que
substitui as representações de elementos individuais do pedaço. Isso libera capacidade para material codificado posteriormente.
DOI: https://doi.org/10.1037/xlm0000578
Artigo de Pesquisa
Thalmann, M., Souza, AS, & Oberauer, K. (2019). Como o chunking ajuda a memória de trabalho?
Journal of Experimental Psychology: Aprendizagem, Memória e Cognição, 45, 37-55.
doi:10.1037/xlm0000578
Nota do autor
Psicologia, Universidade de Zurique, Suíça. Esta pesquisa foi apoiada por uma bolsa da
a Fundação Nacional Suíça para a Ciência para K. Oberauer (projeto 149193). Correspondência
mirkothalmann@hotmail.com
2
Abstrato
é frequentemente assumido que ajuda a contornar a capacidade limitada da memória de trabalho (WM). Nós
investigamos como os chunks são usados em tarefas WM, abordando três questões: (1) O chunking
reduzir a carga no WM? Em quatro experimentos, foram encontrados benefícios de chunking não apenas para
recordação da informação fragmentada, mas também de outras informações não fragmentadas mantidas simultaneamente em WM,
independente do tamanho do pedaço? O benefício do chunking era independente do tamanho do chunk apenas se o
pedaços eram compostos de elementos únicos, de modo que cada pedaço pudesse ser substituído pelo seu primeiro
elemento (Experimento 1), mas não quando vários pedaços consistiam em conjuntos sobrepostos de
elementos, desabilitando esta estratégia de substituição (Experiências 2 e 3). O efeito do tamanho do pedaço é
não devido a diferenças na duração do ensaio, pois persistiu quando os participantes eram necessários
realizar supressão articulatória (Experimento 3). Portanto, a capacidade de WM não está limitada a um
número fixo de pedaços, independentemente do seu tamanho. (3) O benefício do chunking depende do
posição serial do pedaço? Pedaços nas primeiras posições da lista melhoraram a lembrança de outros, não-
material fragmentado, mas os fragmentos no final da lista não. Concluímos que um pedaço
reduz a carga no WM por meio da recuperação de uma representação de pedaço compacto de longo prazo
https://osf.io/jjfbh/?view_only=3ebcbef89c3545019f6fde0fe28729f3.
Quando as pessoas são obrigadas a lembrar de vários itens durante uma breve retenção
intervalo, eles geralmente não conseguem lembrar mais do que alguns deles (Brener, 1940). Por exemplo,
quando apresentados a uma sequência aleatória de figuras geométricas, os participantes só conseguem se lembrar
cerca de cinco ou seis deles na ordem correta. Essa limitação em lembrar informações ao longo
o curto prazo se deve a um armazenamento de capacidade limitada denominado memória de trabalho (WM). Embora
A WM é severamente limitada na sua capacidade, algumas pessoas são capazes de lembrar listas que excedem em muito
esta capacidade. Por exemplo, quando jogadores de xadrez de nível iniciante são brevemente apresentados a
posições intermediárias em um jogo de xadrez, eles conseguem lembrar cerca de quatro peças na posição correta
localização (Chase & Simon, 1973). Em contraste, jogadores de nível avançado ou de nível mestre podem
lembre-se de cerca de oito ou 16 peças corretamente, respectivamente. Se o WM tem capacidade limitada, como pode
há uma diferença tão grande na memória para posições de xadrez em função do xadrez
perícia? Chase e Simon presumiram que jogadores de xadrez experientes codificavam as posições como
pedaços perceptivos maiores, “cada um consistindo em uma subconfiguração familiar de peças” (p. 80).
Esta interpretação é apoiada pelo fato de que, quando apresentados a constelações aleatórias
de peças de xadrez (ou seja, embaralhando as peças dos jogos intermediários), o número de peças
lembrado por jogadores mestres que caíram ao nível de iniciantes. Segue-se que pré-existente
o conhecimento em termos de pedaços pode aumentar a memória imediata. O presente estudo centra-se em
esse aumento na memória imediata e pergunta com mais detalhes quais processos contribuem para isso.
O processo de chunking foi descrito pela primeira vez por Miller (1956) como a recodificação de
vários estímulos apresentados em uma única unidade ou bloco familiar. Miller propôs que a fragmentação
é conseguido agrupando ou organizando uma sequência de entradas e recodificando-a com um formato conciso.
nome. Portanto, lembrar apenas o nome reduz essencialmente a carga de armazenamento no WM,
sem dúvida liberando capacidade para armazenamento de informações adicionais. A referência a “familiar”
unidades podem ser entendidas aqui como se referindo à dependência da memória de longo prazo (LTM)
4
representações. Na mesma linha, Cowan (2001) define pedaços como grupos de itens que possuem
associações fortes e pré-existentes entre si, mas associações fracas com outros itens. Para
presente trabalho procurou dar um passo em direção a uma compreensão mais profunda de como as pessoas fazem
uso de chunks em tarefas WM. Em particular, estávamos interessados na questão de como os pedaços podem
do número de pedaços. Mais proeminentemente, Cowan (2001) propôs que cerca de quatro pedaços
abraçaram a ideia do chunking, embora tenham opiniões diferentes sobre o número exato de
pedaços que podem ser mantidos em WM (Chase & Simon, 1973; Gobet & Clarkson, 2004).
tamanhos (Chen & Cowan, 2005, 2009; Cowan, Chen, & Rouder, 2004). Em Chen e Cowan
(2005), por exemplo, os participantes foram primeiro treinados para lembrar os pares em um conjunto de palavras
pares. O treinamento também envolveu um conjunto de palavras únicas das quais os participantes tinham que lembrar
que eles não estavam emparelhados com outra palavra. O treinamento prosseguiu até que a recuperação fosse de 100%
preciso. Neste ponto, cada palavra treinada individual (doravante singleton) e cada um dos
pares de palavras foram considerados um pedaço. Em seguida, os participantes tentaram recordar imediatamente em série
listas de palavras que variam de 4 a 12 palavras. As listas consistiam em pares de palavras aprendidas,
aprendeu singletons ou novas palavras. Quando a recordação de palavras foi pontuada independentemente da ordem,
os participantes lembraram aproximadamente 3 pedaços em todas as condições (ou seja, o dobro de palavras
de listas de pares de palavras do que de listas de singletons ou palavras novas), consistente com o
(2009) mostraram que o número constante de pedaços recuperados pode ser melhor observado quando
os participantes tiveram que se envolver em articulação simultânea ("supressão articulatória", AS) durante
codificação. Os autores concluíram que o limite de capacidade fixa em pedaços é mais diretamente
impedido.
Esses experimentos deixam em aberto duas possibilidades de como os pedaços ajudam na recuperação imediata.
Primeiro, os pedaços exigem menos capacidade e, portanto, liberam capacidade no WM. Este seria o
caso, por exemplo, se lembrar de uma única palavra exigisse a mesma capacidade que lembrar
um par aprendido, porque todos eram lembrados como um só pedaço (Cowan, 2001). Esta conta
exemplo por um nome conciso como sugerido por Miller. Em contrapartida, uma segunda possibilidade é que
informações em WM (Hulme, Maughan, & Brown, 1991; Hulme & Roodenrys, 1995). Esse
conta assume que os pares aprendidos (pedaços) são mantidos em WM da mesma maneira que
pares aleatórios. No entanto, na recordação, há mais conhecimento LTM disponível para um conhecimento anteriormente
par aprendido em comparação com um par aleatório para ajudar na reconstrução do conjunto original de
elementos. Para distinguir estas duas possibilidades, é necessário testar a memória para outros itens em
pedaço em uma lista de memória deve melhorar a memória para outros itens mantidos simultaneamente. Em
Em contraste, se os pedaços se beneficiarem apenas por serem reconstruídos com mais sucesso na recuperação,
Até onde sabemos, apenas o estudo de (Portrat, Guida, Phénix, & Lemaire,
2016) apresentou listas mistas compostas por itens fragmentados e não agrupados. No entanto, eles fizeram
6
não avaliar se os pedaços melhoraram a retenção de itens não divididos. Portanto, ainda é
Os experimentos que mostram evidências de que a capacidade de MO é limitada por um número fixo de
pedaços (Chen & Cowan, 2005, 2009; Cowan et al., 2004) tinham um recurso adicional, que
elementos. Ou seja, cada palavra só poderia ocorrer como uma única palavra ou como membro de um par.
Geralmente, esse não é o caso com pedaços. Considere os exemplos frequentemente citados do FBI e da CIA, ou
qualquer outra sigla – consistem em letras que também ocorrem em muitas outras siglas, e
quando siglas conhecidas são incluídas em listas de cartas apresentadas para retenção de curto prazo,
cada letra que figura como elemento de um acrônimo também pode ocorrer como um singleton na lista
O uso de pedaços com elementos únicos nos experimentos de Chen e Cowan tem
duas consequências importantes. Primeiro, os pedaços podem ser detectados instantaneamente após
lembre-se da primeira palavra de um par para lembrar as duas palavras. Mesmo que isso reduza
a carga no WM para este tipo especial de pedaços, não está claro se isso vale para pedaços em
em geral. Juntas, essas duas consequências dos pedaços de elementos únicos no Chen e
Os estudos de Cowan são suficientes para explicar por que os participantes se lembraram de um número fixo de
pedaços: se para cada par aprendido eles codificaram apenas a primeira palavra em WM, então eles
portanto, independentemente de a capacidade do WM estar ou não limitada a um número fixo de blocos. Para
O presente estudo
Os objetivos do presente estudo foram triplos. Nosso primeiro objetivo foi avaliar se
agrupar informações em WM libera capacidade para armazenar outras informações não fragmentadas. Testar
para esta possibilidade é necessário avaliar o impacto do pedaço na lembrança de outros não-
informações fragmentadas em WM. Esta previsão é melhor explicada por meio de um exemplo.
Suponha que duas listas devam ser lembradas: Lista 1 = FBIDQB e Lista 2 = IFBDQB.
Na Lista 1, os três primeiros itens formam um único bloco (ou seja, FBI). Se codificar essas três letras
como um pedaço reduz a carga no WM de 6 itens para 4 itens, haverá mais itens gratuitos
capacidade de manter a segunda metade da lista (ou seja, DQB) na Lista 1 do que na Lista 2. Consequentemente,
a retenção a curto prazo da segunda metade da lista deve ser melhor na Lista 1 do que na Lista 2.
O segundo objetivo do presente estudo foi fornecer um teste ainda mais forte do princípio da
Cowan (2001) que o benefício do chunking é independente do tamanho do chunk porque os chunks são
consideradas as unidades básicas de armazenamento em WM. Para fazer isso, comparamos o recall de dados não fragmentados
listas, enquanto os participantes também tiveram que ter em mente um pedaço de tamanho variável (por exemplo, 2 itens vs. 4 itens
pedaços). Se a capacidade for independente do tamanho do chunk, então o benefício do chunking para o não-
listas fragmentadas devem ser de magnitude semelhante quando os participantes possuem um número menor ou maior
pedaço em WM.
Terceiro, examinamos pela primeira vez como o benefício do chunking é moderado pelo
WM. Este ponto é particularmente importante em relação ao tipo de material (ou seja, pedaços de
elementos únicos versus não exclusivos). Quando os pedaços consistem em elementos não únicos, os participantes
precisam codificar todos os itens individuais antes que possam detectar um pedaço. Isto implica que pelo menos
os elementos podem ser substituídos por uma única representação do pedaço. A codificação temporária
8
interferência ou competição pelo ensaio) antes que a carga WM seja reduzida através
fragmentação. Além disso, a redução da carga WM requer a remoção dos elementos individuais
do WM, de modo que o benefício do chunking também depende da eficiência desse processo.
Portanto, o benefício da fragmentação para informações não fragmentadas em WM pode ser muito maior.
são substituídos por um pedaço mais compacto, então devemos também observar que o pedaço
O benefício varia em função de quando um pedaço é apresentado dentro de um conjunto apresentado sequencialmente.
WM que poderia sofrer com a presença temporária dos elementos individuais no WM, e
esses elementos podem ser removidos de forma eficiente através de uma limpeza completa do WM antes
codificando o pedaço compacto (Ecker, Oberauer, & Lewandowsky, 2014). Quando o pedaço
aparece mais tarde em um teste, itens individuais começam a interferir nas informações codificadas anteriormente
antes que possam ser substituídos pela representação do pedaço, e essa substituição envolve
remoção direcionada apenas dos itens que pertencem ao pedaço. A remoção seletiva de
elementos individuais de uma memória definida em WM é um processo mais difícil do que o atacado
remoção de todo o conjunto (Ecker et al., 2014). Como consequência, o benefício do chunking para
informações não fragmentadas mantidas simultaneamente devem ser menores quanto mais tarde um fragmento for
participantes treinados para lembrar listas fragmentadas compostas por 2 ou 4 palavras. Cada pedaço consistia
de palavras únicas. Em seguida, pedimos aos participantes que segurassem duas listas de 2 ou 4 palavras para um
teste de recall serial imediato. Cada lista era um conjunto de palavras organizadas aleatoriamente (novas listas)
9
ou uma lista fragmentada. Nosso principal interesse foi avaliar se a recuperação de novas listas era melhor em
condições nas quais o status da lista (pedaço ou novo) era desconhecido até que todos os itens da lista
lista foram apresentadas, porque o mesmo item pode ocorrer em um bloco e em uma lista não fragmentada.
Além disso, testamos se a carga no WM de uma lista fragmentada era semelhante àquela de
mantendo uma representação de item único (singleton) em WM. Também testamos essa questão com AS
(Experimento 3) para ver se alguma diferença entre pedaços grandes e pequenos poderia ser
dentro de um julgamento.
Experiência 1
reduz a carga no WM, melhorando assim a recuperação de outras informações não fragmentadas
mantido simultaneamente com o pedaço. Para testar esta previsão, os participantes foram
apresentado com um conjunto de memória que consiste em duas listas curtas, seguidas por testes de recuperação em série de
cada lista. Cada lista era um pedaço ou uma nova lista composta de palavras únicas. Pedaçado
as listas foram decoradas em uma fase de treinamento. Assim como nos estudos de Chen e Cowan (2005,
2009), cada palavra só poderia ocorrer em uma lista fragmentada ou em uma nova lista. Se o chunking liberar WM
capacidade, então não apenas a recuperação da lista fragmentada, mas também a recuperação da outra lista não fragmentada
naquele julgamento deveria ser melhor, em comparação com a condição em que ambas as listas eram novas.
Além disso, testamos se o benefício do pedaço era independente do tamanho do pedaço. Para isso
no final, variamos o comprimento das duas listas independentemente uma da outra – nova e fragmentada
as listas podem conter 2 ou 4 itens. Se a capacidade do WM for limitada pelo número de blocos, mas
10
não pelo tamanho de cada pedaço, o benefício produzido pelo pedaço deve ser semelhante
Método
Participantes
Vinte estudantes universitários (15 mulheres; M ≈ 25 anos) participaram de duas aulas de 1 hora
sessões. Eles foram remunerados pela participação com 30 francos suíços ou curso parcial
crédito. Todos os participantes dos experimentos relatados no presente artigo eram nativos
falantes de alemão. Eles foram obrigados a ler e assinar um termo de consentimento livre e esclarecido antes
o objetivo do estudo.
Materiais e Procedimento
(Brainard, 1997; Pelli, 1997) em MATLAB. Os participantes sentaram-se a uma distância de aproximadamente 50
cabines individuais.
Construímos um conjunto de 338 substantivos de uma e duas sílabas. Nenhum dos substantivos começou
com as mesmas três letras na mesma ordem. Para cada participante, 24 substantivos foram
selecionados aleatoriamente deste pool. Metade dos substantivos foram usados como singletons para construir
novas listas de. Os outros 12 substantivos foram usados para construir quatro listas fragmentadas: duas listas fragmentadas
listas com 2 substantivos; e 2 listas fragmentadas com quatro substantivos. Juntos, os solteiros e os
listas fragmentadas foram usadas como 16 conjuntos a serem aprendidos em uma fase de treinamento no início do
experimentar.
11
Fase de treinamento.Em cada ciclo de treino foram apresentados os elementos dos 16 conjuntos
um por um em uma fileira de quadros pretos na parte superior da tela. Definir apresentação
foi individualizado: os participantes iniciaram a apresentação de cada conjunto em um ciclo pressionando o botão
barra de espaço. Palavras em conjuntos de um (singletons), dois ou quatro (listas fragmentadas) foram apresentadas a partir de
da esquerda para a direita, cada um por 1000 ms. A ordem de apresentação dos 16 conjuntos foi randomizada em cada
ciclo. Após a apresentação dos 16 conjuntos, seguiram-se testes de recordação de todos os conjuntos. Em cada teste,
a primeira palavra de um conjunto (selecionada aleatoriamente de todos os conjuntos sem substituição) foi apresentada
como uma sonda por 1000 ms na metade superior da tela, seguida pela apresentação de quatro
todas as palavras pertencentes a esse conjunto, começando com a primeira palavra (ou seja, a palavra apresentada como
sonda). Os participantes poderiam usar a tecla backspace para corrigir eventuais erros de digitação. Eles
confirmou uma resposta pressionando a tecla Enter. Caso o conjunto testado fosse um singleton ou 2-
lista fragmentada de itens, as possibilidades restantes de recuperação tiveram que ser ignoradas usando a tecla Enter. Um
A resposta foi considerada correta quando as três primeiras letras da palavra correspondiam à palavra em
essa posição no conjunto. Maiúsculas e minúsculas não importavam para que as respostas fossem contadas como
correto.
foram adicionados até que a recuperação de todos os conjuntos estivesse 100% correta. Em seguida, os participantes preencheram um
equações de multiplicação que consistem em dois fatores no intervalo de 3-9. Cerca de metade do
equações estavam corretas. Os participantes pressionaram a tecla de seta para a esquerda ou para a direita para indicar se
tarefa de distração, testamos a memória para os conjuntos novamente por meio de recordação sondada para verificar se o
pedaços foram aprendidos no LTM. Enquanto a recuperação não fosse perfeita, ciclos adicionais
12
consistindo em apresentação definida, recordação sondada, distração e recordação novamente sondada para testar LTM
foi adicionado. Somente quando todos os conjuntos de 16 palavras foram lembrados corretamente no teste LTM, os participantes
Fase experimental principal.Cada tentativa começou com a apresentação de uma cruz de fixação
no meio da tela por 500 ms. Em seguida, foram apresentadas duas listas sequencialmente, uma em
na parte superior e um na parte inferior da tela. Os substantivos de cada lista foram apresentados
sequencialmente por 1000 ms em uma linha de quadros pretos. Apresentação do último substantivo do
primeira lista foi seguida imediatamente pela apresentação do primeiro substantivo da segunda lista
sem qualquer tempo livre entre eles. As duas listas foram sondadas em ordem aleatória, 500 ms após
apresentação de lista. A recuperação dentro de uma lista procedeu em ordem direta. Os participantes digitaram o
lista 2, bem como sua ordem de recall, resultando em 32 condições. Nosso objetivo era replicar cada
condição oito vezes e apresentando-as em ordem aleatória entre os testes. Contudo, devido a um
erro de programação, as 32 condições foram replicadas 128 vezes, resultando em 4.096 tentativas que
foram randomizados. As primeiras 256 tentativas deste conjunto foram apresentadas aos participantes, resultando
(lista 1 e lista 2) para aumentar o número médio de pontos de dados por célula de design disponíveis para serem
Resultados
pesquisa tem várias deficiências. Por exemplo, os valores p expressam a probabilidade dos dados,
dado que a hipótese nula é verdadeira. No entanto, os investigadores estão normalmente interessados na
direção reversa da inferência: Qual a probabilidade de uma hipótese, dados os dados? Para superar isso
13
(Wagenmakers, 2007) usamos estatísticas bayesianas para todas as análises relatadas no presente
artigo.
Nas estatísticas Bayesianas, a credibilidade dos valores dos parâmetros do modelo – como o efeito
tamanho de uma manipulação experimental – é expresso como distribuições anteriores (doravante anteriores).
Os anteriores são atualizados com a probabilidade dos dados produzirem distribuições posteriores do
sobre os parâmetros do modelo (Kruschke, 2011). O intervalo de densidade mais alta de 95% (95% IDH) de
a posterior cobre a faixa de valores de parâmetros que são 95% confiáveis após os dados terem sido
sido observado. Assim, o IDH de 95% pode ser usado para informar sobre a incerteza dos parâmetros
em questão. No presente trabalho, não exibimos intervalos de confiança clássicos, mas usamos
Em vez disso, os IDH dos posteriores, porque podem ser interpretados de forma simples, o que é
não é o caso dos intervalos de confiança (Morey, Hoekstra, Rouder, Lee, & Wagenmakers, 2016).
Para fins descritivos, também plotamos o erro padrão da média para mostrar a variabilidade
Na estatística Bayesiana, os modelos podem ser comparados usando o Fator Bayesiano (BF). O namorado
modelo concorrente, dados os dados. Por exemplo, podemos comparar um modelo incluindo um efeito
em uma ANOVA (por exemplo, um efeito principal, uma interação bidirecional) para um modelo que omite esse efeito. Um namorado
Como orientação aproximada para interpretar a quantidade de AMs, (Kass & Raftery, 1995) sugerem
que BFs entre 1 e 3,2 não valem mais do que uma simples menção, BFs entre 3,2 e
10 são evidências substanciais, AMs entre 10 e 100 representam evidências fortes e AMs >
100 são vistos como decisivos. No presente artigo, calculamos o BF para testes t com o
Pacote BayesFactor (Morey & Rouder, 2014) usando os anteriores padrão. Todos os outros BFs foram
razão de densidade, que fornece o BF para modelos aninhados (Lee & Wagenmakers, 2014; Wetzels,
parâmetro de interesse pode variar livremente para um modelo no qual o parâmetro de interesse
é fixado no valor do modelo Nulo (geralmente zero), o BF pode ser obtido dividindo o
Sempre que utilizamos modelos JAGS autoconstruídos, aplicamos um procedimento de duas etapas
para determinar os BFs dos efeitos de juros. Primeiro, selecionamos o modelo mais adequado
de um conjunto de três modelos de acordo com o DIC1, que pode ser usado para seleção de modelo de
modelos bayesianos hierárquicos (Spiegelhalter, Best, Carlin, & Linde, 2002). Os três se equiparam
os modelos variavam em sua estrutura hierárquica. O modelo 1 assumiu uma interceptação aleatória para cada
sujeito, mas apenas efeitos fixos em todos os outros parâmetros. O modelo 2 assumiu efeitos aleatórios sobre
todos os parâmetros do modelo, exceto a interação de ordem mais alta. Modelo 3 assumido
efeitos aleatórios em todos os parâmetros de efeito principais, mas nenhum efeito aleatório nas interações.
Segundo, calculamos os BFs para todos os efeitos de interesse dentro do modelo vencedor com o
1O DIC relaciona-se com outros critérios de informação, pois utiliza uma estimativa clássica de
ajuste e penaliza o número efetivo de parâmetros num modelo.
15
Recuperação em série de novas listas.Nosso principal interesse era saber como a precisão do recall de novos
listas é influenciada pela presença de um pedaço e pelo tamanho desse pedaço, em comparação com
ensaios em que ambas as listas eram novas. Se armazenar um pedaço libera capacidade do WM, devemos observar
um efeito principal do tipo de lista, com melhor recuperação de novas listas quando a outra lista é um pedaço do que
quando é outra nova lista. Se os pedaços impõem uma carga constante no WM, independentemente do seu tamanho,
então a recuperação de uma nova lista não deve variar em função do tamanho do pedaço, enquanto a recuperação
diminui quando a outra lista é uma nova lista com tamanho 4 comparado ao tamanho 2, resultando em um
interação entre o tipo de outra lista (nova ou pedaço) e o tamanho da outra lista (2 ou 4 itens). O
dados relevantes são exibidos na Figura 1 e na Figura 2. Observe que a recuperação de novas listas com 2
Analisamos a precisão da recuperação serial de novas listas com duas regressões lineares Bayesianas
(ou seja, um para cada tamanho de conjunto testado2). Inserimos os efeitos para o tipo da outra lista (nova lista
ou pedaço), tamanho da outra lista (2 ou 4 itens), tempo de recuperação da nova lista a ser analisada
(primeiro vs. segundo) e todas as interações de ordem superior entre esses preditores.
2A razão para realizar análises separadas é que queríamos obter evidências a favor da interação
desordenada Tamanho Outro x Tipo Outro (painel esquerdo na Figura 1). A evidência de uma
interação desordinal ou cruzada é mais convincente do que de uma interação ordinal porque uma
interação desordinal permanece quando uma transformação não linear é aplicada à variável
dependente (Loftus, 1978).
16
A evidência estatística para os efeitos fixos nos dois modelos de regressão separados é
mostrado na Tabela 1. Houve evidência decisiva a favor do efeito principal do tipo outra lista,
o que significa que uma nova lista era melhor lembrada quando apresentada juntamente com um
pedaço em comparação com outra nova lista. Esta descoberta apoia a hipótese de que pedaços
reduzir a carga no WM. A evidência também foi decisiva a favor da interação entre
tipo de outra lista e tamanho de outra lista. Isso indica que aumentar o tamanho de um pedaço leva a um
carga adicional menor no WM do que aumentar o tamanho de uma nova lista. Se existe algum
O efeito do tamanho do pedaço foi avaliado em uma análise adicional relatada abaixo.
Os outros efeitos principais relatados mostram que as novas listas são pior lembradas no
presença de listas longas em vez de listas curtas (principal efeito do tamanho de outras listas) e que novas listas foram
recordou-se pior quando sondado em segundo lugar em vez de primeiro (principal efeito do tempo de recordação). Pior
a recuperação das listas testadas em segundo lugar é evidência de interferência de saída da primeira lista recuperada
(por exemplo, Cowan, Saults, Elliott, & Moreno, 2002; Jones & Oberauer, 2013; Oberauer, 2003). O
os resultados foram inconclusivos sobre se a interferência de saída é mais forte (a) de uma nova lista do que
de um pedaço (Tipo Outro x Tempo de Recuperação) e (b) de uma lista mais longa do que de uma lista mais curta
(Tamanho Outro x Tempo de Recuperação), pois os BFs nas duas análises paralelas diferiram ligeiramente (ver
Tabela 1).
Em seguida, perguntamos se o tamanho de um pedaço afeta o quão bem uma nova lista é recuperada. Esse
A análise testa a hipótese de que um pedaço impõe a mesma carga ao WM, independentemente de sua
tamanho. Nesse caso, o tamanho do bloco não deve afetar o quão bem uma nova lista pode ser mantida
simultaneamente. No entanto, o tamanho do pedaço pode ser importante para a interferência de saída porque
pedaços requerem a saída de mais palavras. Nossa análise anterior produziu evidências inconclusivas
para interferência de saída. No entanto, para excluir quaisquer efeitos potenciais da produção
interferência, para esta análise, ampliamos os ensaios em que a nova lista sob
17
consideração foi lembrada primeiro, removendo assim qualquer contribuição potencial do produto
interferência. Comparamos a precisão da recordação de novas listas nas condições em que as outras
independentemente do seu tamanho, a precisão da recuperação de novas listas não deve diferir em função de
tamanho do pedaço. Os BF apoiaram esta afirmação (41,7 e 16,4 a favor da nulidade para novas listas de
tamanho 2 e 4, respectivamente), o que é uma forte evidência para a suposição de que o tamanho do pedaço
Recuperação serial de listas fragmentadas.Listas fragmentadas foram recuperadas com um nível muito alto de
precisão (M= .974). A recuperação de listas fragmentadas variou em função do tipo de outra lista (BF = 535),
e tamanho da outra lista (BF = 612). Os pedaços foram lembrados melhor junto com outro pedaço
(M= .985) do que com uma nova lista (M =.962), ou melhor junto com uma lista de tamanho 2 (M= .985)
em comparação com uma lista de tamanho 4 (M= .962). Não houve evidência de um efeito principal do tamanho do
pedaço atual a ser lembrado (BF = 145 para o Nulo), e não houve nenhum
evidência de qualquer interação de ordem superior entre esses fatores (todos os AM < 3,2 para o
Alternativa).
Discussão
O Experimento 1 usou um design modelado (Chen & Cowan, 2005) usando um treinamento
fase para estabelecer pedaços de tamanhos diferentes (2 ou 4 palavras). Mostrou que armazenar um pedaço
reduziu a carga no WM: lembrar uma lista aleatória de palavras era mais fácil quando outra lista
ser lembrado simultaneamente era um pedaço do que quando era outra lista aleatória.
Além disso, os nossos dados apoiaram a afirmação de que a capacidade de WM é limitada pelo número de
pedaços, e não por tamanho do pedaço: Aumentar o tamanho de um pedaço não teve influência
lembrar uma lista aleatória de palavras quando a lista aleatória foi lembrada primeiro, enquanto
aumentar o tamanho de outra lista aleatória prejudicou a recordação. O tamanho de um pedaço não tinha
18
(Chen & Cowan, 2005) sugeriram que as pessoas só podem segurar o primeiro item de um pedaço
em WM, que permite a recuperação dos itens subsequentes do LTM. Esta possibilidade existe para
seus experimentos de chunking anteriores, bem como para o Experimento 1, porque nesses experimentos
todos os pedaços consistiam em elementos únicos, que não poderiam ser elementos de nenhum outro pedaço
ou nova lista. Esta peculiaridade do design tem duas implicações potencialmente importantes. Primeiro,
os participantes podem usar a primeira palavra de um pedaço como dica de recuperação para lembrar o pedaço inteiro.
Em segundo lugar, o pedaço já pode ser detectado mediante a apresentação do primeiro elemento, de modo que
quaisquer outros elementos nem precisam ser codificados em WM, evitando assim o risco
que eles interfiram com outras informações mantidas em WM. Nestas circunstâncias, qualquer
A teoria prevê que o tamanho do pedaço não afeta a capacidade, porque o que os participantes fazem é
Argumentamos que pedaços constituídos por elementos únicos não são representativos para
pedaços que ocorrem naturalmente. Em muitas situações, os chunks não começam com elementos únicos. Em
Nessas situações, não é possível interromper a codificação após o primeiro item do pedaço ter sido
apresentado. Além disso, lembrar apenas o primeiro item também não é uma estratégia aconselhável
porque outras listas também começam com o mesmo item. Portanto, a aplicação da estratégia apenas
lembre-se de que o primeiro item de um pedaço geralmente não é possível. Para investigar a hipótese de que
pedaços reduzem a carga no WM independentemente do tamanho do pedaço, é preciso usar pedaços com não-
Experimento 2
é independente do tamanho do pedaço. No entanto, garantimos que as pessoas não possam aplicar o simples
estratégia para codificar e lembrar apenas o primeiro item de um pedaço. Para isso usamos pedaços
Suspeitamos que o benefício do chunking pode diminuir ao usar elementos não exclusivos
que também pode aparecer em outras listas e outros blocos. Um pedaço composto de não exclusivo
os elementos não podem ser detectados antes que todos os seus elementos sejam codificados individualmente em WM. Nós
lista em que as duas primeiras letras são F e B. A terceira letra pode ser um I ou um Q. O
representação no primeiro caso, em que a sequência é o conhecido pedaço FBI, mas não
no segundo caso, em que a sequência é FBQ. Substituição das letras individuais por um
chunk não é possível até a apresentação da terceira carta. Antes disso, a codificação
Vamos primeiro nos concentrar no caso em que a sequência de três letras é apresentada antes de algum
outros itens são apresentados. Após a apresentação de todos os itens do bloco não há representação de
tamanho, segue-se que a substituição bem-sucedida dos itens individuais pelo pedaço
caso em que a sequência de três letras é apresentada após alguma outra informação já ter sido
foram armazenados em WM. As representações de memória dos itens apresentados anteriormente serão
pedaço deve ser codificado individualmente. Isto decorre de qualquer teoria de WM, seja ela
recurso limitado (como a teoria de Cowan, em que o recurso é um número fixo de recursos discretos
decaimento, que não poderia ser neutralizado pelo ensaio durante a codificação do pedaço, ou eles
itens do pedaço. Por estas razões, um pedaço apresentado no final de toda a memória
conjunto deve ser muito menos benéfico do que um pedaço apresentado no início.
as teorias da WM diferem sutilmente das teorias de recursos e interferência. Uma teoria da decadência
prevê um benefício de pedaço com um pedaço em qualquer posição. Isto acontece porque listas mais longas não só
demoram mais para serem codificados, mas também para serem reativados através do ensaio. Um pedaço no final
da lista não reduz a quantidade de esquecimento de outros itens durante a codificação, mas
representação tem que ser ensaiada, o que leva menos tempo do que ensaiar todas as
representações. Portanto, embora uma teoria do decaimento preveja que os pedaços ajudam mais quando
apresentado anteriormente na lista, também prevê que pedaços em qualquer posição ainda ajudam
memória para itens não fragmentados porque um fragmento leva menos tempo para ser ensaiado. Em contraste,
vários itens em um único bloco é benéfico para material codificado posteriormente, porque
a capacidade é liberada apenas para material codificado após essa substituição. Uma decadência e ensaio
21
a teoria prevê adicionalmente que pedaços em qualquer posição de entrada ajudam a memória para não-pedaços
Unid.
tamanho 3 vs. listas singleton compostas por uma única letra. Novas listas no presente experimento
consistia em 3 letras. Como consequência desta redução do tamanho da lista em comparação com
Experimento 1, tivemos que aumentar o número de listas apresentadas em cada tentativa de duas para
experimento foi omitido porque usamos siglas bem conhecidas que consistem em três
apresentado logo no início da lista, mas também quando apresentado no final da lista.
(Portrat et al., 2016) mostraram que este último pode não ser garantido. Eles observaram que
siglas foram lembradas pior quando apresentadas no meio ou no final de uma lista
em comparação com o início da lista em um paradigma de extensão complexa. Pode ser que o
pedaços não foram detectados nessas condições porque era difícil prever quando um
pedaço começou e quando terminou. É impossível investigar o efeito benéfico dos pedaços
em informações não fragmentadas quando os fragmentos não são detectados. Para maximizar a chance
após dois experimentos, dividimos o conjunto de memória em três listas claramente demarcadas,
Método
Participantes
2 para uma sessão com duração aproximada de uma hora. A participação foi remunerada com 15
Materiais
listas fragmentadas. Para criar as novas listas de tamanho 3, embaralhamos as consoantes do fragmento
lista seis vezes para construir 180 novas listas. O embaralhamento às vezes recriava siglas conhecidas.
Portanto, consoantes individuais foram trocadas por consoantes de outras novas listas por
lado para ter todas as novas listas diferentes dos pedaços. Excluímos 15 novas listas para obter um total de
165 novas listas porque precisávamos de 5,5 vezes mais listas novas do que blocos. As novas listas foram
permitido se sobrepor com pedaços em consoantes individuais em certas posições (ou seja, posição 1,
listas de duas medidas para garantir que elas diferiam apenas na familiaridade geral, mas não
probabilidades de transição entre consoantes, que também influenciam a memória de curto prazo
retenção (Mayzner & Schoenberg, 1964). Primeiro, comparamos o número de acessos do Google
(restrito à Suíça), que serviu como medida de familiaridade geral das cordas para
os participantes dos presentes experimentos. Se os pedaços forem mais familiares, eles devem
gerar mais acessos ao Google do que novas listas. Calculamos o log10Google atinge por causa de distorção
teste usando o pacote BayesFactor (Morey & Rouder, 2014). A hipótese alternativa de que
23
mais hits foram gerados para pedaços (M=5.60) do que para novas listas (M=4.19) foi apoiado
por um BF de 3,76 × 1041. Em segundo lugar, comparamos as frequências do corpus insensível a maiúsculas e minúsculas (Heister
et al., 2011, também registra10transformado) dos bigramas nos dois tipos de listas com outro t-
teste. Uma diferença nesta medida sugeriria que algumas das transições entre
consoantes são mais frequentes em um tipo de lista. Porém, o BF foi de 2,1 para o nulo
hipótese, sugerindo que pedaços (M=4.67) provavelmente não serão diferentes das novas listas (M=
4.47). Conseqüentemente, nossos pedaços como um todo eram mais familiares do que as novas listas, mas eram
comparável em familiaridade ao nível dos bigramas. Todos os estímulos foram apresentados duas vezes ao longo do
Procedimento
Em cada tentativa, três linhas, cada uma composta por três quadros de caixa preta, foram exibidas
na tela. As linhas foram mostradas na parte superior, central e inferior da tela. Cada fila
serviu para apresentar uma lista de memórias. As listas foram apresentadas em ordem de cima para baixo. O
as letras que compõem cada lista foram apresentadas uma a uma (durante 1 s cada) da esquerda para a direita. Nós
estavam interessados na recuperação em série de novas listas dependendo do contexto em que estavam
apresentado (junto com um pedaço ou outra nova lista), dependendo do tamanho do pedaço (singleton
listas vs. lista em pedaços) e dependendo da posição do pedaço em um teste (início ou final).
final do julgamento). Com este objetivo, criamos cinco condições experimentais (ver Figura 3). Em tudo
cinco condições, foram apresentadas duas novas listas de tamanho três. Apenas a lista restante variou
entre condições. Nas condições Singleton First e Singleton Last, esta lista crítica foi
linha, e foi precedido por dois espaços em branco iniciais. No primeiro pedaço e no último pedaço
24
condições, a lista crítica era uma lista fragmentada apresentada na linha superior ou na linha inferior,
respectivamente. Na condição de linha de base, todas as três listas eram novas listas de tamanho três.
Após a apresentação de todas as listas, o teste de recordação começou: cada linha foi sinalizada para ser recuperada
em ordem serial da esquerda para a direita. Um quadro preto vazio levou os participantes a relembrar a lista em
o local indicado (linha superior, intermediária ou inferior). Para listas ou blocos de três itens, cada
consoante foi sequencialmente marcada com um quadro vazio individual. Para singletons, apenas um
o quadro vazio na respectiva terceira posição da lista foi apresentado como uma dica. Participantes
respostas confirmadas com a tecla Enter. Em todas as cinco condições, controlamos que cada um dos
três linhas foi indicada dez vezes como a primeira, dez vezes como a segunda e dez vezes como a
terceira lista a ser recuperada. Isso resultou em 150 ensaios que foram apresentados em ordem aleatória
Resultados
linhas comparáveis. As precisões de recall serial para todos os itens nas cinco condições são plotadas em
Figura 4 em relação à posição de entrada do item e na Figura 5 para os três tipos de lista em relação à linha de
apresentação. É claramente visível em ambas as figuras que singletons e pedaços foram recuperados
melhor do que novas listas. Surpreendentemente, pedaços de três elementos tendem a ser lembrados melhor do que
solteiros. Em todas as posições de entrada e saída, as precisões médias de recall foram 0,74, 0,80,
e 0,67 para singletons, pedaços e novas listas, respectivamente. Calculamos aos pares
comparações das médias dos três tipos de lista em uma regressão linear bayesiana em
proporção correta. Houve evidências contundentes de melhor recordação de solteiros versus novos
listas (BF = 990), para melhor recuperação de pedaços do que novas listas (BF = 2,9 × 1010), mas ligeira evidência
Recuperação em série de novas listas.A seguir, nos concentramos no impacto de ter um singleton ou
parte em um julgamento após o recall das outras novas listas. Realizamos duas análises – uma sobre o
dados das condições Singleton First e Chunk First em relação à linha de base, e outro
nos dados das condições Singleton Last e Chunk Last em relação à linha de base. O primeiro
análise focada na recuperação de novas listas nas linhas do meio e inferior, dependendo se
um singleton, um pedaço ou uma nova lista foi apresentada na linha superior em um teste. O segundo
análise focada na recuperação de novas listas nas linhas superior e intermediária, dependendo se um
singleton, um pedaço ou uma nova lista foi apresentada na linha inferior em um teste.
Pedaço primeiro.Precisão média de recuperação serial de novas listas quando precedidas por um singleton, um
nova lista, ou um pedaço é mostrado na Figura 6a. Realizamos uma regressão linear bayesiana em
esses dados com as variáveis linha de apresentação (meio vs. inferior, centralizado em zero) e
o início de um teste ajuda a retenção de novas listas (não fragmentadas) apresentadas posteriormente. Nós
codificou os três níveis da variável de condição em termos de dois contrastes de código simples:
linha de base x singletons e linha de base x pedaços. Dado que as listas foram sondadas aleatoriamente
ordem, havia um número variável de listas recuperadas antes da recuperação de uma determinada lista. Controlar
para a interferência de saída dessas recuperações anteriores, adicionamos o número da lista anterior
tentativas de recall (também centradas em zero) como variável de controle na análise de regressão. O
variável foi inserida como uma covariável contínua na análise porque trabalhos anteriores
mostraram que a posição de saída afeta a memória de forma aproximadamente linear (Oberauer, 2003). Em
tipos (por exemplo, a interferência de saída de um pedaço é igual à de uma nova lista?). Portanto, nós
inseriu mais dois preditores centrados em zero no modelo. O primeiro codificou se, no
condição de pedaço, a segunda lista recuperada foi precedida pela recuperação de uma nova lista ou de um
26
pedaço. O segundo codificou se, na condição singleton, a segunda lista recuperada foi
Como alguns dos pedaços podem não ser familiares a todos os participantes,
realizaram a mesma análise apenas para aqueles ensaios em que singletons e pedaços foram
recuperado corretamente (Figura 6b). Quando os pedaços foram recuperados corretamente, podemos ser mais
que não houve compensações entre a manutenção do pedaço ou singleton e novas listas.
A evidência dos efeitos de interesse foi qualitativamente a mesma nos dois conjuntos
de análises mostradas na Tabela 2. A evidência para uma melhor recordação de novas listas na presença de um
singleton ou chunk foi decisivo. No entanto, contrastando os efeitos para singleton e chunk
mostrou que a memória para novas listas era melhor no contexto de um singleton do que no
contexto de um pedaço. Não houve evidência de um efeito principal da linha de apresentação (meio
vs. menor) na precisão. O benefício de ter um singleton na linha superior foi maior na linha
linha do meio do que na linha inferior (interação Singleton x Linha), mas a evidência não foi
forte. Não houve evidência de que o benefício do pedaço difira entre o meio e o
linha inferior. Como esperado, o parâmetro para o número de listas recuperadas anteriormente foi
negativo. Isto mostra que cada lista adicional que foi recuperada anteriormente leva a
pior memória para listas recuperadas posteriormente. Finalmente, há evidências moderadas a fortes de que
a interferência de saída não difere entre os diferentes tipos de lista (Recall Chunk Before e
Pedaço por último.A seguir, analisamos os dados do Singleton Last e Chunk Last
condições em relação à linha de base, que aborda a questão de saber se um pedaço ajuda
retenção de novas listas apresentadas anteriormente. Executamos a mesma análise do Chunk First (veja
Tabela 3). Os dados são mostrados na Figura 7. Houve apenas evidências de um benefício para a recordação de
27
novas listas na condição singleton, mas não na condição chunk. Não houve diferença
evidência de que ter um singleton ou um pedaço na linha inferior afetou diferencialmente a memória
para novas listas na linha superior ou na linha do meio (Singleton x Row e Chunk x Row
interações).
Discussão
Os pedaços foram lembrados melhor do que listas aleatórias, demonstrando que nossa manipulação
trabalhado. Os pedaços tendiam até a ser lembrados melhor do que os singletons. A principal constatação
O Experimento 2 foi que os pedaços melhoraram a lembrança de informações apresentadas posteriormente, mas não a lembrança
de informações apresentadas anteriormente em comparação com listas aleatórias. Esta constatação é consistente com
teorias que explicam a capacidade de WM pela alocação de um recurso limitado ou por interferência
entre representações codificadas em WM. O fato de que os pedaços na linha inferior não
ajudar a lembrar das novas listas anteriores (na linha superior e intermediária) está parcialmente em desacordo
Todas as três perspectivas teóricas assumem que a condição de linha de base e o pedaço
A última condição não difere até que todos os itens de um teste tenham sido apresentados. O pedaço em si
só pode ser reconhecido após todos os itens do pedaço terem sido apresentados (Bower &
Springston, 1970). Por exemplo, considere uma teoria de recursos com recursos discretos (também conhecida como
slots) suficientes para manter quatro pedaços (Awh, Barton, & Vogel, 2007; Cowan, 2001; Zhang &
Sorte, 2008). Imediatamente após a apresentação do último item da linha inferior, quatro itens são
mantidos em quatro slots e quaisquer itens adicionais não puderam ser acomodados. Mesmo que a
os últimos três itens agora podem ser substituídos por um único pedaço, os itens apresentados anteriormente não podem ser
a segunda lista não deve se beneficiar do reconhecimento de um pedaço na linha inferior. Em contraste,
28
quando a lista superior é um pedaço, uma representação do pedaço pode ser recuperada do LTM, e o
três representações de itens individuais podem ser retiradas do WM. Como consequência,
os participantes têm mais duas vagas livres na condição Chunk First do que na condição Baseline
condição que eles podem usar para manter itens subsequentes, resultando em melhor memória para
devido a itens em WM interferindo uns com os outros. Logo após ver o último item, interferência
representação de pedaços só pode ser recuperada do LTM depois que todos os itens de pedaços individuais tiverem
o pedaço é carregado no WM, enquanto as representações individuais de seus elementos podem ser
removido em uma varredura (“limpando” WM, Ecker et al., 2014). Depois disso, a única representação
codificado não danificou nenhuma outra informação já armazenada no WM. Em contrapartida, quando o
pedaço é apresentado por último, o pedaço só é recuperado do LTM depois de todas as nove letras do
três listas foram codificadas em WM. Neste momento, qualquer dano causado anteriormente
itens codificados são difíceis de reparar porque os itens do pedaço precisam ser removidos
individualmente. A remoção seletiva de itens individuais é mais lenta do que a remoção de todo o conteúdo de
Embora o benefício dos pedaços também seja considerado maior quando apresentado primeiro, um
a teoria da decadência e do ensaio, no entanto, prevê que os pedaços apresentados por último devem ajudar
memória para listas apresentadas anteriormente. Isso ocorre porque uma representação de pedaço único requer
menos tempo para ser ensaiada do que as representações de três consoantes individuais. Por isso,
mesmo que um pedaço deva ajudar mais para informações não fragmentadas quando apresentado primeiro, ele
29
também é considerado útil quando apresentado por último. Os resultados do Experimento 2 não suportam isso
alegar.
pedaço na linha superior. Esta descoberta é desafiadora para a suposição no modelo incorporado
Uma crítica potencial em relação ao benefício menor para pedaços do que para singletons poderia ser
que usamos siglas conhecidas como pedaços. Pode ser que nem todos os participantes estivessem familiarizados
com todas as siglas. Portanto, a dependência do tamanho do pedaço se beneficia do tamanho do pedaço
pode ser porque os participantes não conheciam perfeitamente as siglas. No entanto, o fato de
as siglas tendiam a ser lembradas ainda melhor do que os singletons sugere que isso era provavelmente
não é o caso.
Uma crítica adicional é que os espaços em branco iniciais na última condição Singleton antes
listas apresentadas. O mesmo não é possível para os pedaços porque não havia tempo livre disponível.
entre a apresentação da lista intermediária e inferior. Além disso, os espaços em branco entre os
a lista do meio e o singleton podem ter tornado as listas temporalmente mais distintas (Brown,
20), mas alterou os espaços em branco iniciais para espaços em branco finais após a apresentação do singleton
linha do meio e da linha inferior, removendo assim qualquer efeito de distinção temporal e
codificação prolongada da lista da linha intermediária antes da codificação do singleton da linha inferior. Esse
modificação não alterou nenhuma das principais descobertas relatadas no Experimento 2, ou seja, que
30
singletons, mas não pedaços, melhoraram a memória para novas listas codificadas antes. Os resultados disso
experimentos juntos, houve fortes evidências (BF = 15) de que os pedaços foram lembrados
melhor do que solteiros. Esta é mais uma descoberta desafiadora para a teoria do processo incorporado
porque a memória para pedaços deve ser independente do tamanho do pedaço. Ao menos dois
interpretações desta descoberta parecem viáveis. Primeiro, os pedaços são semanticamente mais distintos em um
julgamento do que singletons. As representações do primeiro podem ter associações mais ricas no LTM
porque pedaços eram siglas conhecidas. Conseqüentemente, representações visuais ou semânticas em LTM
pode ajudar na recuperação, além da representação de pedaços no WM. Singletons são certamente menos
distintos nesse sentido porque eram também os elementos individuais das outras listas.
Em segundo lugar, as representações dos itens individuais que formam o bloco podem permanecer no WM devido a
remoção incompleta. Em combinação com a representação de pedaços, eles podem ajudar na lembrança de
o pedaço, ao mesmo tempo que diminui o benefício do pedaço para a recuperação de novas listas.
armazenamento, e apenas o armazenamento central é considerado limitado por um número fixo de blocos. Como é
recuperação de um número constante de pedaços apenas com AS, mas não sem AS. Esses autores argumentaram
que qualquer influência do armazenamento fonológico obscurece um limite de capacidade em termos de pedaços. Isto
Pode-se argumentar que os participantes dos nossos dois primeiros experimentos se lembraram de um pedaço não apenas
Unid. Se fosse esse o caso, lembrar das novas listas pode ter sido mais difícil no
31
condição chunk do que na condição singleton, por exemplo, devido à competição por
(Thalmann & Oberauer, 2017)). Esta diferença deverá desaparecer se os participantes apenas utilizarem
Experimento 3
testou se o benefício dos singletons ainda era maior do que o benefício dos pedaços quando
Os singletons do experimento 2 ajudaram mais do que os pedaços por causa da dependência parcial de
representações fonológicas, que são mais complexas e demoram mais para serem ensaiadas, por
siglas de três letras do que para letras únicas. Se for esse o caso, o benefício diferencial de
observarmos que o benefício singleton é maior que o benefício chunk, podemos ter certeza de que
o fato de que o tamanho dos pedaços é importante é independente do comprimento e da complexidade fonológica.
Métodos
3 para uma sessão com duração aproximada de uma hora. A participação foi remunerada com 15
Francos Suíços ou crédito parcial do curso. Os materiais e o procedimento eram exatamente os mesmos
como no Experimento 2, exceto que os participantes praticaram AS. Os participantes começaram a articular
continuamente “ba bi bu” em uma taxa auto-escolhida antes dos estímulos serem apresentados e interrompidos
Resultados
posição de entrada na Figura 8 e o desempenho da memória para os três tipos de lista é plotado em relação
singletons foram lembrados com mais precisão do que novas listas. Em média, a precisão da recordação foi de 0,71,
. 64 e 0,47 para singletons, pedaços e para novas listas, respectivamente. Mais uma vez, a evidência foi
convincente que os singletons foram lembrados melhor do que as novas listas (BF = 4,1e+11), e que
pedaços foram lembrados melhor do que novas listas (BF = 320'185). Em contraste com o Experimento 2
e no experimento de controle, os pedaços não foram lembrados melhor do que os singletons (BF =
0,16). Comparando as precisões médias de recall para os três tipos de lista com os dois anteriores
experimentos mostram que adicionar AS diminuiu a memória, especialmente para pedaços e novas listas,
listas foram recuperadas com mais precisão do que na condição de controle quando um pedaço ou um singleton
foi apresentado na linha superior. Na Figura 10 parece que tanto pedaços quanto singletons
memória melhorada para novas listas apresentadas posteriormente. As análises (ver Tabela 4) mostraram,
no entanto, apenas singletons, mas não pedaços, melhoraram a memória para novas listas apresentadas posteriormente
com credibilidade. Mais importante ainda para o propósito atual, o benefício apresentou posteriormente novas listas
foi credivelmente maior para singletons do que para pedaços. Não houve evidência de que o efeito
ter um singleton ou pedaço na linha superior diferia entre a linha do meio e a linha inferior
(Singleton x Linha, Pedaço x Linha). Finalmente, houve evidências decisivas de interferência na produção:
O número de listas anteriormente recuperadas teve um efeito deteriorante na recuperação de novas listas. Lá
33
novamente não houve evidência convincente de que a interferência de saída resultante da recuperação de um singleton ou de um
pedaço de memória danificada para listas posteriormente testadas com menos interferência de saída de
recuperando uma nova lista. Isto sugere que a interferência de saída acontece ao nível das listas e
precisão de recordação de novas listas apresentadas anteriormente. A Figura 11 mostra melhor recordação em média para
novas listas em comparação com a condição de controle quando um singleton seguiu, mas não quando um
pedaço seguido. A análise estatística (ver Tabela 5) confirmou essa impressão ao mostrar
evidência decisiva para a comparação Singleton vs. Baseline, mas forte evidência para o Nulo
para a comparação Chunk vs. Linha de base. O efeito de ter um singleton ou pedaço apresentado
na linha inferior não diferiu entre a linha superior e a linha do meio (Singleton x Row,
Chunk x Row) e havia evidências convincentes de que ter um singleton na linha inferior
foi mais benéfico do que ter um pedaço na linha inferior. Os resultados em relação à produção
memória diminuída, mas o tipo de lista não importava (pedaço recuperado antes e recuperado
Singleton antes).
Discussão
de um teste ainda beneficiou a memória para novas listas mais do que um pedaço quando os participantes estavam
necessário para executar AS. De acordo com (Chen & Cowan, 2009) apenas o armazenamento central é limitado por
armazenar. No entanto, mesmo com EA ainda observamos que o benefício singleton foi maior do que
o benefício do pedaço. Este resultado apoia ainda mais a nossa conclusão de que o tamanho de um pedaço é
34
importante na determinação do seu efeito benéfico quando os pedaços não podem ser mantidos por
lembrando seu primeiro elemento. Provavelmente, o efeito do tamanho do pedaço não pode ser atribuído à produção
interferência porque primeiro recuperar um pedaço ou um singleton diminuiu a memória por cerca de
mesma quantidade que recuperar uma nova lista. Esta descoberta confirma a previsão de (Farrell, 2012)
de acordo com a qual a interferência de saída ocorre no nível das listas (ou seja, clusters). O principal
A diferença entre o Experimento 2 e o experimento de controle foi que a adição de AS reduziu a memória
para pedaços e novas listas, mas dificilmente para singletons. No momento, só podemos especular
por que isso aconteceu. Por exemplo, pode acontecer que os participantes priorizem a retenção de
Experimento 4
lista apenas quando o pedaço foi apresentado na linha superior, mas não na linha inferior. Nós
suponha que um pedaço reduza a carga em uma tarefa WM somente depois de ter sido reconhecido como um
pedaço. Só então os participantes poderão substituir as representações dos itens individuais por uma
representação de pedaços. Claramente, reconhecer um pedaço na linha inferior não é mais difícil do que
em qualquer outra linha, o que é mostrado pela recuperação superior dos pedaços apresentados nesta linha
em comparação com as novas listas nos Experimentos 2 e 3 (ver Figuras 4 e 5 e Figuras 8 e 9).
Aparentemente, a redução da carga proporcionada pelo pedaço não pode reparar o dano causado.
foram adicionados às representações de listas previamente codificadas. No entanto, dado que o anterior
o conjunto de memória (ou seja, linha superior e inferior), ainda não sabemos se um chunking se beneficia
o efeito dos pedaços depende de sua posição serial. Para atingir esse objetivo, focamos exclusivamente
nas condições do pedaço (eliminando as condições singleton) e permitiu que o pedaço fosse
aparecem em todas as três linhas. Os experimentos anteriores tornam duas hipóteses plausíveis. O
A primeira possibilidade é que os pedaços só produzam um benefício para listas codificadas após o pedaço ter sido
apresentado, mas não para listas previamente codificadas. Esta hipótese baseia-se na suposição de que
chunking pode liberar capacidade para codificar itens subsequentes, mas não pode desfazer o dano a
itens já codificados. A segunda possibilidade é que o chunking também ajude as listas anteriores como
desde que o dano causado a eles seja apenas leve (ou seja, apenas interferência moderada ou redução
de recursos ou deterioração), para que essas listas ainda possam ser reparadas após a carga no WM ter
foi reduzido. A nova condição, na qual um pedaço era apresentado na linha do meio,
Métodos
Participantes
Materiais
nas duas condições singleton, exigimos apenas três vezes mais listas novas do que pedaços mesmo
embora pedaços possam aparecer agora em todas as três linhas. Criamos um conjunto de 90 novas listas por
embaralhando as letras dos pedaços três vezes. O algoritmo verificou se nenhuma consoante estava
usado duas vezes na mesma lista. Mudamos uma ou outra letra entre novas listas
manualmente porque os pedaços às vezes eram recriados por meio de embaralhamento. Comparamos novamente
pedaços e novas listas de familiaridade geral medida como sucessos do Google (restritos a
36
evidência decisiva (BF = 1,34 × 1031) que pedaços (M=5.62) eram mais familiares do que novas listas
para a hipótese nula (BF = 6,16) de que os pedaços (M=4.21) não diferiu das novas listas (M=
4.20). Todas as listas foram utilizadas três vezes no Experimento 3 e estão disponíveis no OSF
página da Internet.
Procedimento
No total, havia quatro condições. Em todas as quatro condições, três listas de 3 consoantes
Condição inicial, três novas listas foram apresentadas para codificação. No restante
condições, um pedaço foi apresentado na linha superior, intermediária ou inferior. Cada item da lista
foi apresentado por 1 s. Não houve tempo entre apresentações de duas consoantes dentro
ou entre listas. Os participantes foram solicitados a recordar as três listas imediatamente após
apresentação da nona consoante. Em todas as quatro condições, as listas em todas as linhas foram sondadas
dez vezes para ser lembrado primeiro, segundo e terceiro. A recordação e a pontuação foram as mesmas que
anteriormente.
Resultados
Recuperação serial de listas fragmentadas.Primeiro, comparamos a precisão do recall serial para pedaços
e novas listas (mostradas nas Figuras 12 e 13) com uma regressão linear bayesiana como
verificação de manipulação. Desta vez, usamos os dados de todas as três linhas porque pedaços e
novas listas podem ser apresentadas em qualquer linha. A análise indicou que pedaços (M= .81) foram
lembrado melhor do que novas listas (M= .62), que foi apoiado com um BF = 1,5 × 1024.
Recuperação em série de novas listas: pedaço antes.A seguir, analisamos a recordação de novas listas como um
função de um pedaço ter aparecido ou não em uma linha anterior. A Figura 14a mostra os dados
37
de todas as tentativas, e a Figura 14b mostra dados condicionados à recuperação correta do pedaço. Serial
a precisão da recordação foi analisada em uma regressão linear bayesiana usando como variáveis independentes
linha de apresentação (meio vs. inferior, centralizado em zero) e condição (linha de base, pedaço no
linha superior e pedaço na linha do meio). A última variável foi inserida na regressão
como duas variáveis de código simples usando a condição de linha de base como categoria de referência. O
primeiro contraste, Chunk in Upper Row, comparou a condição da linha de base com listas que foram
precedido por um pedaço na linha superior; o segundo contraste, Pedaço na linha do meio, comparado
a condição de linha de base para listas que foram precedidas por um pedaço na linha do meio (que poderia
só acontece para listas na linha inferior). Na Figura 14 é visível que uma nova lista foi recuperada
com mais precisão quando foi precedido por um pedaço na linha superior ou intermediária. Houve
evidência substancial a forte (ver Tabela 6) de que um pedaço na linha superior aumentou a memória
Recuperação em série de novas listas: parte posterior.Analisamos a precisão do recall de novas listas que
foram seguidos por um pedaço e comparados com ensaios em que apenas novas listas foram apresentadas
(ver dados nas Figuras 15a e 15b) usando uma regressão linear bayesiana. Linha de apresentação
(novamente centrado em zero) e condição foram usadas como variáveis independentes. A última variável
foi inserida como duas variáveis de código simples. A primeira variável, Chunk in Middle Row,
comparou a condição da linha de base com a condição com um pedaço na linha do meio. O
segunda variável, Chunk in Lower Row, comparou a condição da linha de base com a condição com
um pedaço na linha inferior. A única constelação em que um pedaço ajudou a memória por um
lista apresentada anteriormente foi quando o pedaço apareceu na linha do meio: neste caso,
a memória para a lista na linha superior melhorou em comparação com a condição da linha de base. Os namorados
a linha do meio era confiável. A evidência era fortemente contra um efeito benéfico de um pedaço em
38
interação bidirecional. Juntas, as duas análises de memória para novas listas dependendo
posição do pedaço estava de acordo com os Experimentos 2 e 3. Eles apoiaram a afirmação de que o
a detecção de pedaços ajuda a lembrar novas listas, desde que o WM não tenha sido fortemente
carregado.
Discussão
lembrar novas listas em um julgamento. Variando a posição de entrada serial do pedaço no teste
avaliamos se um pedaço só ajuda a memória das listas que o seguem (porque libera
capacidade de codificar essas listas) ou se um pedaço pode ajudar listas que o precederam (porque
Como nos experimentos anteriores, os pedaços melhoraram a memória para as listas a seguir. Esse
também foi o caso para pedaços apresentados em uma posição serial intermediária no conjunto de memória
(ou seja, na linha do meio). Apresentar um pedaço na linha do meio também melhorou a memória para o
lista anterior. Após a apresentação da lista da linha intermediária, o WM já está carregado com seis
consoantes. Nesse ponto, as representações das consoantes na primeira lista (linha superior)
foram degradados pela codificação das consoantes na segunda lista (linha do meio).
No entanto, reconhecer o pedaço na segunda lista ajudou a memória da primeira lista. Se nós
representações da primeira lista serão distorcidas pela codificação subsequente dos itens da
a segunda lista. Essas representações distorcidas precisam ser eliminadas para serem lembradas, uma
processo que é denominado redintegração (Lewandowsky, 1999). Se os itens da segunda lista puderem ser
substituídos por um pedaço, os primeiros itens da lista ainda podem ser recuperados e reintegrados antes de serem
são ainda mais distorcidas pela terceira lista. Além disso, se os itens individuais da lista fragmentada
39
pode ser substituído por uma representação de bloco, a quantidade total de interferência em WM é
reduzido. Assim, uma melhor memória para a primeira lista poderia ser explicada se pensarmos nos participantes
reintegrando com sucesso a primeira lista após reconhecer o pedaço, reconstruindo assim
Discussão geral
WM e LTM em tarefas de recordação seriada utilizando apresentação sequencial de estímulos. Nós avaliamos
como o WM pode fazer uso das informações armazenadas no LTM, recodificando vários estímulos em um
Trabalhos anteriores mostraram que a quantidade de informação recuperada em tarefas de WM poderia ser
bem descrito por um número fixo de pedaços (Chen & Cowan, 2005, 2009; Cowan et al., 2004).
No entanto, esses estudos deixaram em aberto se os pedaços ajudam porque liberam capacidade em WM ou
porque o LTM auxilia na reconstrução de pedaços na recordação (Hulme et al., 1991; Hulme &
Roodenrys, 1995). Para testar se a fragmentação libera capacidade para outros recursos não fragmentados
observaram tal benefício em todos os experimentos, confirmando que a fragmentação libera capacidade de WM.
Se a capacidade do WM for um limite para o número de pedaços, o tamanho do pedaço não deverá ter efeito
em quanta capacidade um pedaço consome (Chen & Cowan, 2005, 2009). Portanto, nosso próximo
O objetivo era testar se o benefício do chunking dependia do tamanho do chunk. Não aconteceu
40
experimentos, construímos os pedaços para que os participantes não possam restringir a codificação e
permitiu usar essa estratégia, porque o primeiro elemento era exclusivo para cada pedaço. Com
suposição dessa estratégia, qualquer teoria de WM prevê que o tamanho do pedaço não tem influência
no benefício de fragmentação. Isso ocorre porque os participantes não são obrigados a codificar e
manter todo o pedaço, mas apenas um único item. Quando os participantes foram obrigados a
codificar todos os elementos de um pedaço, como no Experimento 2, houve um benefício menor de pedaço para
(Chen & Cowan, 2005, 2009; Cowan et al., 2004) pode, até certo ponto, ser devido ao material
que permitiu a aplicação da estratégia de memória acima mencionada. Não podemos fazer isso
confundida com outras diferenças, em particular relativas aos materiais e ao tamanho dos
os conjuntos de memória. Além disso, há indiscutivelmente outros factores, para além da estratégia
diferenças, que contribuem para os resultados diferentes ao usar pedaços com características únicas ou não
elementos únicos. Por exemplo, ao usar pedaços com elementos não exclusivos, a similaridade
entre dois pedaços que compartilham alguns elementos, e entre pedaços e singletons, é maior
do que quando os pedaços são compostos de elementos únicos. A similaridade entre os itens da lista aumenta
Poderia a confusão baseada em similaridade explicar por que os singletons levaram a uma melhor memória para
outros itens além dos pedaços de três letras? Para que tal explicação funcionasse, teríamos que
41
suponha que itens não agrupados sejam confundidos mais frequentemente com blocos de três letras do que com
solteiros. Se fosse esse o caso, a memória para pedaços deveria ser pior do que a memória para
experimento), não apoiando uma conta de confusão baseada em similaridade. Tal conta poderia,
elementos com novas listas. Deixamos esta possibilidade aberta para pesquisas futuras.
pedaços de três letras são mais complexos do que aqueles de singletons (ou seja, contendo mais
características ou componentes, como mais fonemas ou mais letras), então eles poderiam interferir
mais fortemente com outros itens, distorcendo suas representações – um mecanismo conhecido como
interferência por superposição (Oberauer, Lewandowsky, Farrell, Jarrold, & Greaves, 2012).
termos de um número fixo de pedaços. De acordo com esse modelo – às vezes chamado de
"modelo de slot" – o desempenho deve ser limitado apenas pelo número de representações de pedaços.
Variáveis como similaridade ou complexidade não devem importar. Ainda é possível que
existe um limite de capacidade central em termos de blocos, que é obscurecido por mecanismos adicionais
incluindo interferência – que poderia ser adicionada a um modelo de capacidade discreta (por exemplo
para tal modelo aumentado, consulte (Cowan, Rouder, Blume, & Saults, 2012)). Quanto mais tal
mecanismos adicionais não são suficientes para explicar todos os dados existentes por si só, sem a
beneficiou outras informações não fragmentadas quando apresentadas como a primeira ou a segunda lista,
não houve tal benefício quando apresentado como a terceira lista. Isto está de acordo com os resultados de
(Portrat et al., 2016)Figura 8, p. 431). Embora Portrat e colegas não tenham testado o
benefício dos pedaços de informações não-fragmentadas formalmente, sua figura sugere que a memória
para letras subsequentes melhorou quando as letras anteriores formaram um pedaço em vez de um
conjunto aleatório. Assumimos que os pedaços só ajudam a retenção de outros itens após um compacto
itens individuais foram removidos do WM. Esses processos só podem ocorrer depois de tudo
pedaço. Quando o dano às representações de itens codificados anteriormente for apenas leve, a remoção
das representações dos elementos individuais do pedaço permite a reparação dos danos.
Porém, quando o dano é grave, a reparação não é mais possível. É por isso que pedaços
apresentado na última posição da lista não levou a um benefício de fragmentação. Como usamos serial
apresentação de todos os estímulos, é possível que o efeito da posição da lista seja diminuído (a) quando
todos os itens de uma lista são apresentados simultaneamente na tela (permitindo a detecção e codificação de
o pedaço completo de uma vez) ou (b) quando uma representação de pedaço único para toda a lista pode ser
recuperado após a apresentação de cada item individual da lista (por exemplo, sorvete – homem3). A
a teoria de decaimento e reativação do WM também previu que os pedaços ajudam em qualquer lista
posição, porque requerem menos tempo para serem ensaiados no intervalo de retenção do que novos
listas. No entanto, não encontramos evidências para esta previsão, consistentes com evidências de que
Conclusão
Os pedaços reduzem a carga no WM, melhorando assim a memória para outras informações
mantidos simultaneamente. A carga de um pedaço de três letras, no entanto, ainda excede a de um bloco de três letras.
única letra. Conseqüentemente, uma capacidade fixa em termos de número de pedaços em WM não pode por si só
seguintes etapas: Após os itens individuais terem sido codificados em WM, potencialmente
interferindo com representações já codificadas, uma representação de bloco correspondente pode ser
permite a remoção das representações dos elementos individuais do pedaço. O que se segue
Em contraste, a informação codificada antes do pedaço sofrer com a carga inicialmente alta, e o
a redução subsequente da carga permite apenas uma reparação limitada desses danos.
45
Referências
Ah, E., Barton, B. e Vogel, EK (2007). A memória de trabalho visual representa um problema fixo
https://doi.org/10.1111/j.1467-9280.2007.01949.x
https://doi.org/10.1163/156856897X00357
Brown, GDA, Neath, I., & Chater, N. (2007). Um modelo de proporção temporal de memória.
295X.114.3.539
https://doi.org/10.1016/0010-0285(73)90004-2
Chen, Z. e Cowan, N. (2009). Capacidade central da memória de trabalho verbal: o limite em palavras
Cowan, N. (2001). O mágico número 4 na memória de curto prazo: uma reconsideração da memória mental
185.
Cowan, N., Rouder, JN, Blume, CL e Saults, JS (2012). Modelos de trabalho verbal
Cowan, N., Saults, JS, Elliott, EM e Moreno, MV (2002). Desconfundindo a recuperação serial.
https://doi.org/10.1006/jmla.2001.2805
Cowan, N., Zhijian Chen e Rouder, JN (2004). Capacidade Constante em Série Imediata
https://doi.org/10.1111/j.0956-7976.2004.00732.x
https://doi.org/10.1016/j.jml.2014.03.006
https://doi.org/10.1080/09658210344000530
Hulme, C., Maughan, S. e Brown, GDA (1991). Memória para palavras familiares e desconhecidas:
Evidência de uma contribuição da memória de longo prazo para a extensão da memória de curto prazo.Diário
596X(91)90032-F
47
Hulme, C. e Roodenrys, S. (1995). O papel dos mecanismos de memória de longo prazo na memória
Jones, T. e Oberauer, K. (2013). Efeitos de posição serial para itens e relações de curto prazo
Lee, MD, & Wagenmakers, E.-J. (2014).Modelagem Cognitiva Bayesiana: Um Curso Prático.
https://doi.org/10.1080/002075999399792
400. https://doi.org/10.1016/S0022-5371(64)80008-6
Morey, RD, Hoekstra, R., Rouder, JN, Lee, MD, & Wagenmakers, E.-J. (2016). A falácia
103–123. https://doi.org/10.3758/s13423-015-0947-8
project.org/web/packages/BayesFactor/index.html
234. https://doi.org/10.1037/0033-295X.91.2.216
48
https://doi.org/10.1016/S0749-596X(03)00080-9
https://doi.org/10.1037/0033-295X.115.3.544
https://doi.org/10.1037/a0029588
https://doi.org/10.1016/j.jml.2014.02.003
Oberauer, K., Lewandowsky, S., Farrell, S., Jarrold, C., & Greaves, M. (2012). Modelagem
https://doi.org/10.1163/156856897X00366
Portrat, S., Guida, A., Phénix, T., & Lemaire, B. (2016). Promovendo o diálogo experimental
Saito, S., Logie, RH, Morita, A., & Law, A. (2008). Efeitos de similaridade visual e fonológica
Spiegelhalter, DJ, Best, NG, Carlin, BP e Linde, A. van der. (2002). Medidas bayesianas
https://doi.org/10.1080/17470218.2015.1125935
Wagenmakers, E.-J. (2007). Uma solução prática para os problemas generalizados dos valores de p.
https://doi.org/10.3758/BF03194105
Wetzels, R., Raaijmakers, JGW, Jakab, E., & Wagenmakers, E.-J. (2009). Como quantificar
https://doi.org/10.3758/PBR.16.4.752
Tabelas
tabela 1
Medir
95% IDH
Posterior Bayes
Superior
Efeito Significar Limite Inferior Fator
Vinculado
Definir tamanho =
2
Digite outro 0,08 0,05 0,11 249222
Tamanho Outro - 0,13 - 0,16 - 0,10 3,90E+16
Tempo de recall - 0,11 - 0,13 - 0,08 7,50E+10
Tipo Outro x Tamanho Outro Tipo 0,19 0,14 0,25 1.10E+09
Outro x Tempo de rechamada 0,06 0,01 0,12 4.60E-01
Tamanho Outro x Tempo de - 0,16 - 0,21 - 0,10 5.81E+05
rechamada Três vias 0,19 0,08 0h30 2.90E+01
Definir tamanho =
4
Digite outro 0,18 0,16 0,21 1,30E+36
Tamanho Outro - 0,11 - 0,14 - 0,08 1,20E+11
Tempo de recall - 0,11 - 0,13 - 0,08 6,20E+10
Tipo Outro x Tamanho Outro Tipo 0,17 0,12 0,22 3.72E+06
Outro x Tempo de rechamada 0,09 0,03 0,14 5,50E+00
Tamanho Outro x Tempo de - 0,07 - 0,12 - 0,01 7h30E-01
rechamada Três vias 0,08 - 0,03 0,19 0,24
51
mesa 2
ajustado aos dados do Experimento 2 apresentados nos painéis aeb da Figura 6, respectivamente.
Medir
95% IDH
Posterior Bayes
Superior
Pedaço primeiro Efeito Significar
Mais baixo
Fator
Vinculado Vinculado
Todos os testes Pedaço (vs. linha de base) 0,09 0,06 0,12 187.566,00
Linha Singleton (vs. Linha de 0,21 0,18 0,24 2,50E+36
Base) 0,02 0,00 0,05 0,10
Pedaço x Linha - 0,06 - 0,13 0,00 0,41
Singleton x Linha - 0,09 - 0,15 - 0,03 14h30
Tabela 3
Medir
95% IDH
Posterior Bayes
Superior
Pedaço por último Efeito Significar
Mais baixo
Fator
Vinculado Vinculado
Todos os testes Pedaço (vs. linha de base) 0,02 - 0,01 0,05 0,06
Linha Singleton (vs. Linha de 0,24 0,21 0,27 2,60E+50
Base) 0,03 0,00 0,05 0,25
Pedaço x Linha 0,05 - 0,01 0,11 0,22
Singleton x Linha - 0,06 - 0,12 0,00 0,36
Singleton vs. 0,22 0,19 0,25 2.4e+413
Nº. Anterior recordado
3,60E+18
Listas - 0,07 - 0,09 - 0,06
Pedaço lembrado antes - 0,03 - 0,11 0,04 0,09
Recordou Singleton antes 0,03 - 0,04 0,10 0,08
Pedaços e Singletons
Pedaço 0,05
Correto 0,02 - 0,02 0,06
Solteiro 0,24 0,20 0,28 1,70E+34
Linha 0,03 - 0,03 0,08 0,08
Pedaço x Linha 0,05 0,00 0,11 0,25
Singleton x Linha - 0,06 - 0,12 - 0,01 0,47
Singleton - Pedaço 0,22 0,17 0,27 1,30E+15
Nº. Anterior recordado
6,40E+13
Listas - 0,07 - 0,09 - 0,06
Pedaço lembrado antes - 0,02 - 0,10 0,07 0,08
Recordou Singleton antes 0,01 - 0,07 0,10 0,08
53
Tabela 4
Medir
95% IDH
Posterior Bayes
Superior
Pedaço primeiro Efeito Significar
Mais baixo
Fator
Vinculado Vinculado
Todos os testes Pedaço (vs. linha de base) 0,04 0,01 0,08 0,61
Linha Singleton (vs. Linha de 0,13 0,09 0,16 2.20E+09
Base) 0,07 0,00 0,15 0,38
Pedaço x Linha - 0,02 - 0,09 0,04 0,07
Singleton x Linha - 0,12 - 0,24 - 0,01 0,85
Singleton vs. 0,08 0,05 0,12 116,00
Nº. Listas recuperadas anteriores - 0,12 - 0,15 - 0,09 4,50E+11
Parte recuperada antes - 0,05 - 0,13 0,03 0,15
Recordou Singleton antes 0,08 - 0,01 0,16 0,34
Tabela 5
ajustado aos dados do Experimento 3 nos painéis aeb da Figura 11, respectivamente.
Medir
95% IDH
Posterior
Superior Fator de Bayes
Pedaço por último Efeito Média Mais baixo
Vinculado Vinculado
Todos os testes Pedaço (vs. linha de base) 0,03 - 0,01 0,06 0,07
Linha Singleton (vs. Linha de 0,16 0,12 0,19 1,30E+15
Base) 0,03 - 0,09 0,14 0,10
Pedaço x Linha - 0,01 - 0,07 0,04 0,05
Singleton x Linha - 0,03 - 0,09 0,03 0,08
1.098.477,0
Singleton vs.
0,13 0,09 0,18 0
Nº. Listas recuperadas anteriores - 0,08 - 0,10 - 0,06 1.60E+08
Parte recuperada antes 0,00 - 0,11 0,10 0,09
Recordou Singleton antes - 0,03 - 0,12 0,06 0,09
Tabela 6
Medir
95% IDH
Posterior Bayes
Pedaço Antes Superior
Efeito Significar
Mais baixo
Fator
Vinculado Vinculado
Tabela 7
Medir
95% IDH
Posterior Bayes
Pedaço depois Superior
Efeito Significar
Mais baixo
Fator
Vinculado Vinculado
Legendas de figuras
Figura 1. Precisão de recuperação serial (proporção correta) de novas listas no Experimento 1. Recuperação de
novas listas com 2 e 4 itens são apresentadas em diferentes subpainéis. O desempenho é traçado
em função do tamanho da outra lista (2 ou 4 itens) para os dois tipos de outras listas (nova
lista ou pedaço). As barras de erro representam erros padrão dentro dos assuntos.
58
(letra única) e listas fragmentadas são identificadas em vermelho (observe que no experimento real todas
molduras eram pretas). As linhas tracejadas pretas indicam quadros nos quais nenhum item foi
apresentado.
60
Figura 4. A precisão do recall serial (proporção correta) é plotada em relação à posição de entrada do item
separadamente para cada uma das cinco condições experimentais no Experimento 2. Para melhor
interpretabilidade da figura, (a) alocamos singletons apresentados nas partes superior e inferior
linha na figura para a posição de entrada do item 3 e 7, respectivamente, e (b) omitimos o erro
Figura 5. A precisão do recall serial dos três tipos de lista é plotada em relação à linha de
apresentação. Os três painéis representam os dados das três posições de saída da lista em
Experiência 2.
62
Figura 6. Precisão média de recuperação serial de novas listas que foram precedidas por um singleton, um novo
lista, ou um pedaço plotado em relação à linha de apresentação no Experimento 2. O painel a é baseado em todos
corretamente. As barras de erro representam erros padrão dentro dos assuntos. U significa Superior
Linha.
63
Figura 7. Precisão média de recuperação serial de novas listas quando um singleton, uma nova lista ou um pedaço
foi apresentado na linha inferior (Painel a: dados completos; painel b: Dados de ensaios com
Figura 8. A precisão do recall serial (proporção correta) é plotada em relação à posição de entrada do item
separadamente para cada uma das cinco condições experimentais no Experimento 3. Para melhor
interpretabilidade da figura, (a) alocamos singletons apresentados nas partes superior e inferior
linha na figura para a posição de entrada do item 3 e 7, respectivamente, e (b) omitimos o erro
Figura 9. Precisão de recall serial (proporção correta) no Experimento 3 para os três tipos de lista
traçado contra a linha de apresentação. As barras de erro representam erros padrão dentro dos assuntos.
66
Figura 10. Precisão média de recuperação serial de novas listas que foram precedidas por um singleton, um
nova lista ou um pedaço plotado em relação à linha de apresentação no Experimento 3. O painel a é baseado
em todos os dados, e o Painel b é baseado apenas nos dados da condição Chunk First e
corretamente. As barras de erro representam erros padrão dentro dos assuntos. U significa Superior
Linha.
67
Figura 11. Precisão média de recuperação serial de novas listas quando um singleton, uma nova lista ou um pedaço
foi apresentado na linha inferior (Painel a: dados completos; painel b: Dados de ensaios com
Figura 12. A precisão da recuperação serial (proporção correta) é plotada em relação à posição de entrada do item
separadamente para cada uma das quatro condições experimentais no Experimento 4. Para melhor
interpretabilidade da figura, omitimos as barras de erro. U significa Linha Superior, M para Meio
Figura 13. Precisão de recall serial no Experimento 4 para pedaços e novas listas plotadas
Figura 14. Precisão de recall serial de novas listas que foram precedidas por um pedaço em comparação com
novas listas na condição de linha de base do Experimento 4. O painel a mostra dados de todos os ensaios,
enquanto o painel b subdivide os dados dos ensaios com pedaços nos quais os pedaços foram recuperados
Figura 15. Precisão de recuperação serial de novas listas que foram seguidas por um pedaço no Experimento
4. O painel a mostra dados de todos os ensaios, enquanto o painel b mostra dados de ensaios com pedaços
condicionado à recuperação correta do pedaço. M significa Linha do Meio, L para Linha Inferior.