Escolar Documentos
Profissional Documentos
Cultura Documentos
Não odeie o jogador, odeie o jogo: realinhando estruturas de incentivo para promover
ciência robusta e melhores práticas científicas em marketing
Steven D. Shaw,Gideon Nave
Mostre mais
https://doi.org/10.1016/j.jbusres.2023.114129
Obtenha direitos e conteúdo
Abstrato
A pesquisa de marketing baseia-se fortemente nos métodos de psicologia e economia, onde as práticas de pesquisa questionáveis
(QRPs) são evidentes e as taxas de replicação são baixas; portanto, é provável que os QRPs e as baixas taxas de replicabilidade
sejam difundidos no Marketing. Aqui, revisamos problemas próximos e sistêmicos que contribuem para esse estado e
pesquisamos soluções proeminentes atualmente disponíveis para pesquisadores para combater QRPs, ou seja, pré-registro,
relatórios registrados, práticas de ciência aberta e análise multiversal. Argumentamos que o núcleo das questões de replicabilidade
está enraizado em um desalinhamento das estruturas de incentivos acadêmicos, em vez de colocar a culpa em pesquisadores
individuais, e fazemos recomendações sistêmicas para um caminho a seguir em direção a uma ciência de marketing mais robusta e
replicável.
anterior Próximo
Palavras-chave
Replicação; Normas Mertonianas da Ciência; P-hacking; Viés de publicação; pré-registro; relatórios registrados; Cultura
acadêmica
1 . Introdução
Projetos de replicação em larga escala na última década mostraram que muitos estudos seminais nas ciências sociais falharam em
replicar ( Camerer et al., 2016 , Camerer et al., 2018 , Ebersole et al., 2016 , Klein et al., 2022 , Klein et al., 2014 , Klein et al., 2018 ,
Nosek et al., 2022 , Open Science Collaboration, 2015 ), colocando em questão corpos inteiros de literatura científica ( Head et al.,
2015 , Ioannidis, 2005). Ao mesmo tempo, ocorreu uma mudança transformacional em nossas crenças sobre o processo científico.
Em sua forma mais pura, os métodos científicos devem ser infalíveis na geração de conhecimento baseado em evidências. No
entanto, são os humanos que conduzem a ciência, e os métodos científicos, bem como a cultura de disseminação do conhecimento,
não estão imunes a preconceitos, exageros, negligência e, em alguns casos, fraudes ( Ritchie, 2020 ) . De fato, hipóteses de alto
perfil e atraentes nas ciências sociais - como a teoria do esgotamento do ego da força de vontade ( Hagger et al., 2016 ), a ligação
entre a gratificação precoce no início da vida e o sucesso acadêmico na vida adulta (como demonstrado pelo teste do marshmallow
; Watts, Duncan & Quan, 2018), o efeito “poderoso” da pose de poder ( Ranehill et al., 2015 ) e o efeito de saliência da mortalidade
da teoria de gerenciamento do terror ( Klein et al., 2022 ) - que foram ensinados em aulas introdutórias de psicologia,
disseminadas para o público em geral público por meio de palestras TED e livros populares, e desencadeou pesquisas de
acompanhamento que consumiram recursos tremendos, não se saíram bem em esforços de replicação independentes. 1
Embora não seja fácil estimar quantos resultados publicados na literatura de ciências sociais representam descobertas
irreplicáveis, é evidente que as chamadas "práticas de pesquisa questionáveis" (QRPs; John et al., 2012) - práticas que aumentam
a taxa de falsos positivos de descobertas científicas – são desenfreadas ( de Vrieze, 2021 , Xie et al., 2021 ). Um estudo descobriu
que em uma grande amostra de artigos de psicologia, quase 50% tinham erros de relatórios estatísticos, e esses erros tendiam a
errar na direção de apoiar a hipótese dos pesquisadores (Nuijten et al., 2016). Porém, ainda mais contundentes do que os erros
estatísticos não forçados, os campos da pesquisa científica enfrentam evidências significativas de viés de publicação, relato seletivo
de descobertas, baixo poder estatístico, alta taxa de replicações com falha e/ou ausência de esforços de replicação ( Botão et al.,
2013 , Shrout e Rodgers, 2018 ). Por exemplo, uma meta -análise descobriu que quase 40% dos pesquisadores em todas as
disciplinas estavam cientes dos QRPs cometidos por outros pesquisadores ( Xie et al., 2021 ). O campo acadêmico do Marketing
provavelmente não é exceção a essas tendências. Em dezembro de 2022, apenas 5 das 43 replicações bem-alimentadas de
resultados publicados em revistas de marketing de alto impacto foram inequivocamente bem-sucedidas (Brodeur, Cook & Heyes,
2022 ). 2 Além disso, há até mesmo evidências de QRPs em experimentos comerciais/industriais ( Berman et al., 2018 ).
O presente artigo tem três objetivos principais. Primeiro, discutimos QRPs que são comuns em pesquisas comportamentais,
provavelmente predominantes em Marketing, e adotamos uma perspectiva sistêmica para explicar por que os pesquisadores
podem se envolver em QRPs, seja intencionalmente ou não. Em segundo lugar, revisamos as principais soluções propostas e
atualmente implementadas por periódicos acadêmicos e pesquisadores para melhorar o rigor científico na área, juntamente com
suas vantagens e desvantagens (ver Tabela 1 para um resumo). Por fim, propomos um caminho a seguir para abordar as principais
questões sistêmicas e culturais subjacentes à prevalência de QRPs.
Tabela 1 . Resumo dos prós e contras das soluções existentes para a crise de replicação na pesquisa em ciências sociais.
Prós Contras
Análise multiverso ● Permite que os leitores julguem as escolhas analíticas e de design feitas ● Maior compromisso de tempo
pelo pesquisador e como as conclusões podem ser sensíveis a eles com os pesquisadores
relatórios registrados ● Remove incentivos para que os pesquisadores se envolvam em QRPs ● Maior compromisso de tempo
com os pesquisadores
● Reduz o viés de publicação na literatura publicada
● Aumenta a transparência
Em nossa opinião, o objetivo primordial de qualquer solução, próxima ou sistêmica, deve ser promover a replicabilidade por meio
do avanço de uma cultura de pesquisa que adere aos princípios fundamentais da ciência, caracterizados pelas quatro normas
mertonianas da ciência: comunalismo, universalismo, desinteresse e Ceticismo organizado. O comunalismo é uma propriedade
compartilhada de bens científicos e transparência; O universalismo representa uma independência das descobertas científicas das
implicações políticas, sociais e pessoais dos participantes; O desinteresse implica que as instituições científicas devem agir em
benefício da ciência e do conhecimento e não para ganhos pessoais; e o ceticismo organizado é a ideia de que toda ciência deve ser
submetida abertamente ao escrutínio. Tendo em mente as normas mertonianas, agora discutimos questões próximas na pesquisa
que provavelmente levaram a uma baixa replicabilidade, aplicável tanto ao comportamento do consumidor quanto aos reinos
quantitativos (ou seja, QRPs). Em seguida, discutimos as questões sistêmicas de desalinhamento de incentivos no processo de
publicação acadêmica, bem como o processo de contratação e promoção na academia.
Questões próximas: Práticas de pesquisa questionáveis. Os QRPs refletem situações em que os pesquisadores
individuais se desviam do princípio mertoniano do desinteresse. Eles normalmente envolvem pesquisadores fazendo escolhas
analíticas que aumentam espúriamente as chances de encontrar evidências que apoiem suas próprias hipóteses, violando a
independência entre os resultados da pesquisa e os ganhos pessoais dos pesquisadores envolvidos. Apelidados de 'esteróides da
competição científica' ( John et al., 2012), os QRPs minam a integridade das descobertas científicas e colocam aqueles que
cumprem a norma mertoniana de desinteresse em desvantagem profissional. Uma ampla variedade de termos, com definições
parcialmente sobrepostas, foi cunhada para descrever várias formas de QRPs, incluindo: p-hacking, HARKing (hipótese após os
resultados serem conhecidos), graus de liberdade do pesquisador não revelados e “jardim de caminhos bifurcados” ( Kerr, 1998 ,
Nosek et al., 2015 , Wicherts et al., 2016). Qualquer prática que viese os resultados em favor de uma hipótese seria considerada um
QRP, mas exemplos comuns de tais práticas incluem: relatar seletivamente um subconjunto de experimentos, condições
experimentais ou modelos analíticos sem revelar outros; criar variáveis ad hoc usando apenas um subconjunto de itens em um
questionário para formar uma nova medida; continuar a coletar mais dados até que a significância seja alcançada após a
visualização do resultado (insignificante) obtido de um estudo, ou interromper a coleta de dados uma vez que os resultados
provisórios pareçam apoiar suas hipóteses; alterar os critérios de exclusão do participante após visualizar os resultados iniciais da
modelagem; e relatar resultados exploratórios como se fossem confirmatórios (isto é, representam hipóteses ex-ante; também
conhecido como HARKing; Kerr, 1998 ).
Embora os QRPs tenham várias formas e formas, a maioria deles envolve a escolha flexível entre abordagens analíticas que podem
ser facilmente justificadas post-hoc (tanto para si quanto para comunicar os resultados a outros). Isso torna mais fácil para os
pesquisadores (humanos) envolvidos enganarem a si mesmos e aos outros, pensando que 'isso é bom ou razoável' quando uma
prática é aplicada ao seu próprio estudo ( Shalvi et al., 2011 ), mesmo que eles possam condenar tal ação de outros pesquisadores.
Quando comuns, os QRPs comprometem a qualidade da ciência em um campo, pois permitem aos pesquisadores a capacidade de
(mal) representar os efeitos como “estatisticamente significativos” ( Simmons et al., 2011). Em seguida, argumentamos que os
QRPs surgem porque 1) os humanos são tendenciosos (ou seja, 'os jogadores') e 2) nosso sistema de publicação e as estruturas de
incentivo da carreira científica estão desalinhados com os valores da busca científica (ou seja, 'o jogo').
Questões sistêmicas: a estrutura de incentivos na academia.O prestígio dos periódicos científicos é amplamente
avaliado com base no impacto dos trabalhos que eles publicam – muitas vezes representado por meio de métricas como contagem
de citações (para artigos individuais) e fatores de impacto (para periódicos). Especificamente, os periódicos se orgulham e são
classificados com base em fatores de impacto calculados como o número médio de citações que os artigos do periódico obtêm em
um ano. A maioria dos periódicos de alto impacto recebe mais envios do que eles podem ou desejam publicar e, portanto,
selecionam apenas um pequeno subconjunto de envios. Para garantir que o fator de impacto de um periódico permaneça alto, seus
editores tendem a preferir publicar artigos que devem atrair a atenção, alimentando trabalhos e debates subsequentes. Esses
artigos geralmente contêm descobertas que são, por um lado, surpreendentes ou contra-intuitivas e, por outro lado, fornecem
evidências claras que são apoiadas por resultados estatisticamente significativos, em oposição a evidências nulas ou mistas. Isso
levou ao fenômeno bem documentado de 'viés de publicação', em que a literatura publicada contém principalmente efeitos
“positivos” e os resultados nulos permanecem ocultos na proverbial gaveta de arquivos (Lane et al., 2016 , Rosenthal, 1979 ,
Sterling, 1959 ).
Embora a maioria dos pesquisadores individuais certamente respeite a integridade científica e acadêmica, eles estão arraigados
nos sistemas e na cultura criados por aqueles que os precederam ( Lilienfeld, 2017 ). Carreiras na academia são feitas ou
quebradas com base no dogma de 'publicar ou perecer'. As decisões sobre a alocação de cargos limitados do corpo docente,
promoções, prêmios, subsídios e remuneração estão todas vinculadas ao impacto do pesquisador, muitas vezes representadas por
meio de contagens de citações ou índices h, que estão claramente situados nos sistemas de publicação de periódicos discutidos
anteriormente. 3Como consequência dos critérios de publicação dos periódicos, os pesquisadores, que são avaliados com base em
seus registros de publicação, também são incentivados a enviar artigos que incluam achados estatisticamente significativos e
contem uma história nova, coerente e conclusiva, independentemente do verdadeira natureza do fenômeno sob investigação.
Acresce ainda o facto de a formação e percurso salarial numa carreira académica tradicional ser uma das mais longas entre as
carreiras profissionais ( Gaff, 2010), os pesquisadores enfrentam (se nada mais) pressões percebidas não apenas para fazer um
nome para si mesmos no campo e ter sucesso profissional, mas também para pagar contas e colocar comida na mesa. Em muitos
casos, tais condições não conduzem à honestidade e integridade, que estão no cerne da ética científica ( Steneck, 2006 ). Exemplos
ainda mais flagrantes de incentivo financeiro para publicar, em contradição direta com a norma Desinteresse, incluem os
conhecidos incentivos de 'dinheiro para publicação' para pesquisadores, onde instituições ou governos recompensam
pesquisadores apenas por publicar em periódicos importantes específicos ( Quan et al., 2017 ) e o aumento de 'periódicos
predatórios', que tentam cobrar o pagamento de pesquisadores desesperados para publicar seus trabalhos em qualquer jornal
(Grudniewicz et al., 2019 ).
Afinal, os cientistas são humanos e os humanos respondem aos incentivos que lhes são apresentados ( O'Doherty, 2004 ). Mesmo
os cientistas mais apaixonados podem logo perceber que estão em desvantagem ao operar em um sistema que pode não valorizar
ou recompensar sua integridade e rigor metodológico. Pior ainda, esses indivíduos, que deveriam ser apreciados por defender os
princípios da ciência, podem ficar desiludidos com o processo e serem empurrados para outros empregos não acadêmicos.
Enquanto isso, pesquisadores afluentes em QRPs, que seguiram os incentivos desalinhados ditados pelo sistema de publicação
científica, são recompensados dentro desse sistema.
Argumentamos que as estruturas de incentivo atualmente em vigor nos sistemas acadêmicos de comunicação científica (ou seja,
veículos de divulgação científica) são mais responsáveis pela prevalência de QRPs na ciência, em vez de bússolas morais dos
pesquisadores (ou falta de padrões éticos). O peso esmagador do sistema de publicar ou perecer neutraliza e dificulta
dramaticamente a capacidade dos pesquisadores de descobrirem percepções interessantes, úteis e (crucialmente) replicáveis do
consumidor. Para esta nota, adotamos uma perspectiva de cima para baixo sobre as questões sistêmicas que levaram à crise de
replicação. Como tal, nossas principais recomendações na Seção 4: O Pathway Forward concentra-se em abordagens de cima para
baixo para resolver esses problemas, sugerindo que a reforma cultural deve ser conduzida por aqueles que têm poder, os porteiros,
e transmitida a estudantes e pesquisadores em início de carreira.
3 . Soluções existentes
Não existe uma solução única e universal para resolver as questões culturais que levaram ao viés de publicação generalizado e à
irreplicabilidade na ciência. Dito isso, muitas soluções em evolução estão tomando forma e ganhando força em todos os campos.
As soluções selecionadas discutidas nesta seção oferecem uma variedade de abordagens para trabalhar em direção a práticas
científicas mais robustas em Marketing: algumas visam resolver o viés de publicação com correção meta-analítica ou publicando
descobertas nulas, outras tentam impedir que os pesquisadores façam p-hacking, enquanto outros ainda buscam responsabilizar
os periódicos submetendo todas as publicações a um algoritmo de verificação estatística (por exemplo, statcheck.io ; Statcheck,
2023 ).
Pré-registro. No momento em que escrevo, uma das abordagens mais comumente propostas e implementadas para reduzir os
QRPs é o pré-registro - a prática de se comprometer publicamente com vários aspectos do plano de pesquisa de um estudo (por
exemplo, desenho experimental, hipóteses, tamanho da amostra, critérios de inclusão), antes de conduzi-la ( Nosek et al., 2015 ). 4
Plataformas como AsPredicted.org ( AsPredicted, 2023 ) e Open Science Framework ( OSF, 2023) são os mais comumente
usados para pré-registro em pesquisas comportamentais. Essas plataformas geralmente permitem que os pesquisadores
mantenham as informações de pré-registro sob um embargo por um período de vários anos, quando as informações se tornam
acessíveis ao público (os autores podem optar por encerrar o embargo caso seu trabalho seja publicado anteriormente). Quando
empregado com precisão, o pré-registro tem duas vantagens principais. Primeiro, reduz a flexibilidade não revelada na análise de
dados, pois restringe os pesquisadores de se desviarem de seu plano de análise, que havia sido concebido antes de eles verem os
dados. Embora os desvios às vezes sejam inevitáveis, pois é impossível prever todos os possíveis problemas com um conjunto de
dados antes de sua análise, tais desvios são divulgados publicamente e devem ser julgados como justificados durante o processo de
revisão por pares. 5Em segundo lugar, o pré-registro ajuda a reduzir o viés de publicação, pois mesmo que determinado estudo não
seja incluído em um artigo publicado, seu registro acabará se tornando público. Isso permite que pesquisadores independentes
rastreiem trabalhos não publicados e os incluam em análises ou metanálises independentes da literatura ( Nosek et al., 2018 ,
Simmons et al., 2021). Para pesquisadores que consideraram cuidadosamente suas hipóteses, projeto de pesquisa, plano de
análise de dados, etc., o tempo e os esforços para o pré-registro podem não ser complicados. Além disso, nesses casos, o pré-
registro pode (em teoria) facilitar a análise de dados, fornecendo um plano de análise predefinido e “forçando” os pesquisadores a
aderir a um plano claramente definido antes de coletar os dados reais/realizar a análise. Para obter guias sobre como criar um pré-
registro, consulte van't Veer & Giner-Sorolla (2016) ou a seção " Criar um pré-registro " do site da OSF ( Pré-registro - Suporte
OSF, 2023 ).
Embora os méritos do pré-registro sejam valiosos, ele não é uma panacéia. Além de aumentar a carga de trabalho e os
compromissos de tempo dos pesquisadores ( Krishna, 2021 ), o pré-registro pode nem sempre cumprir as promessas de seus
proponentes quando colocado em prática ( Pham & Oh, 2021a ). Simplificando, os pesquisadores podem facilmente influenciar o
processo de pré-registro, pré-registrando muitos estudos e relatando apenas aqueles que funcionam da maneira pretendida. Como
tal, a cultura e as ideias em torno do pré-registro podem levar a um fenômeno de 'distintivo de honra', em que os pesquisadores
simplesmente usam o pré-registro para sinalizar o rigor científico e a virtude de seus estudos, mesmo quando esse não é o caso (
Pham & Oh, 2021b). Além disso, embora os pré-registros eventualmente se tornem públicos, sua descoberta por outros
pesquisadores (por exemplo, ao realizar uma meta -análise) nem sempre é trivial.
Em suma, o pré-registro pode reduzir os QRPs, pois obriga os pesquisadores a pensar cuidadosamente e se comprometer com um
plano de pesquisa específico antes de ver os dados. No entanto, não resolve os problemas sistêmicos que levaram à crise de
replicação na ciência em primeiro lugar. Crucialmente, ao fazer o pré-registro, os pesquisadores muitas vezes acabam investindo
mais esforço em qualquer estudo para se envolver nesse processo, sem qualquer garantia de que esse esforço será recompensado,
pois um estudo bem desenhado com resultado nulo provavelmente não receberá a recompensa de publicação no ambiente
editorial atual. Assim, o problema de desalinhamento de incentivos acima mencionado persiste.
Relatórios registrados. Um relatório registrado é um formato de publicação que inverte o processo de publicação
convencional. Ao enviar um relatório registrado, os autores escrevem o artigo, incluindo sua teoria e métodos (com desenho de
estudo detalhado e análises) antesconduzir a pesquisa e enviar o manuscrito para publicação antes que os resultados sejam
conhecidos. As propostas avaliadas favoravelmente recebem uma 'aceitação em princípio', indicando que, caso os pesquisadores
executem com sucesso a proposta declarada, a revista publicará os resultados independentemente da significância estatística.
Durante o processo de revisão, editores e revisores podem solicitar revisões (incluindo alterações no desenho e análise do estudo).
No entanto, as decisões de aceitação são tomadas antes que os resultados sejam conhecidos. Depois que os autores concluírem a
pesquisa, eles enviam o manuscrito completo, incluindo os resultados (destacando a análise original e indicando claramente que
quaisquer análises adicionais são exploratórias) e discussão para revisão de conformidade. Crucialmente,Câmaras, 2013 ). Para
obter um guia abrangente de relatórios registrados, consulte Chambers & Tzavella, (2022) .
Os relatórios registrados prometem reduzir os QRPs e o viés de publicação, pois os periódicos se comprometem a publicar
propostas de pesquisa apenas com base na importância da questão de pesquisa em questão, na qualidade do projeto experimental
e no rigor dos métodos propostos, em vez de focar em a significância estatística dos resultados. Os autores são, portanto,
incentivados a elaborar cuidadosamente suas hipóteses de pesquisa e executar o melhor estudo possível para testá-las, com a
ajuda do feedback da equipe de revisão, e o plano de estudo pré-aprovado elimina o incentivo de se envolver em QRPs para obter
significância estatística.
Desde a primeira oferta de relatórios registrados como formato de publicação científica em 2012 pelas revistas Cortex e
Perspectives on Psychological Science , mais de 300 revistas científicas agora convidam submissões no formato ( Chambers &
Tzavella, 2022 ). Indicações iniciais evidenciam que, em todos os campos, 60% dos relatórios registrados publicados incluem
resultados nulos, o que é aproximadamente cinco vezes mais do que as publicações de contrapartida de relatórios não registrados,
e um achado ainda mais pronunciado para publicações em Psicologia ( Allen & Mehler, 2019 , Scheel e outros, 2021). Além disso,
conforme julgado por um painel de revisores independentes, os relatórios registrados superam os relatórios não registrados em
características como importância, novidade, criatividade, inovação, rigor metodológico e qualidade geral do artigo ( Soderberg et
al., 2021 ) e recebem um número de citações semelhante aos relatórios não registrados ( Hummer et al., 2017 ). Desenvolver
comunidades de pesquisa on-line, não afiliadas a nenhum periódico, como Peer Community In Registered Reports (PCI RR; PCI
Registered Reports, 2023 ), reúne pesquisadores interessados em trabalhar em relatórios registrados, facilitando recomendações
livres e transparentes e pode ajudar de forma independente os formato de publicação do relatório.
Compartilhamento de dados e materiais. Quando um processo é totalmente transparente, os observadores não precisam
mais confiar na confiança para garantir que foi feito de forma honesta e correta. Em vez disso, qualquer pessoa pode, se estiver
disposta a se esforçar, realizar a devida diligência para determinar os méritos do processo - de acordo com todas as normas
mertonianas, mas particularmente promovendo o comunalismo e o ceticismo organizado. Historicamente, pesquisadores
valorosos passavam incontáveis horas entrando em contato com seus colegas para obter informações sobre estudos e se envolver
em tal diligência. Cavar os bastidores do trabalho publicado é um processo complicado e muitas vezes infrutífero (ou seja, quando
os autores não respondem ou compartilham seus dados; Conlisk, 2011). No entanto, olhando para trás, esses esforços foram um
grande serviço para nossas atividades científicas coletivas. Com práticas de ciência aberta, ou o compartilhamento transparente de
informações por trás de nossa pesquisa, os esforços para verificar, entender e melhorar nossos processos de pesquisa se tornam
mais fáceis. A ciência aberta disponibiliza análises secundárias, códigos, dados e qualquer outra informação relevante para os
interessados.
Repositórios de dados, como ResearchBox ( ResearchBox, 2023 ) e re3data ( Re3data.Org, 2023 ), oferecem métodos
relativamente fáceis para os pesquisadores armazenarem e compartilharem conteúdo científico, como dados, códigos, pré-
registros e materiais de estudo relacionados aos seus projetos. Quando os pesquisadores compartilham seu trabalho abertamente,
outros cientistas podem desenvolver isso e tornar seu trabalho mais eficiente, verificar os papéis em busca de erros não forçados,
tentar replicar resultados ou usar informações para uma meta-análise e aprofundar as descobertas com mais detalhes, conforme
necessário . Para obter uma visão geral das diretrizes e melhores práticas de compartilhamento de dados, consulte Alter &
Gonzalez (2018) .
Estudos de replicação.É claro que conduzir e publicar estudos de replicação pode ajudar o campo do Marketing a 1) entender o
estado geral de replicabilidade em nosso campo e 2) determinar quais efeitos se replicam e quais não/determinam a natureza de
estudos anteriormente insuficientes. Os estudos de replicação envolvem a repetição de um estudo publicado anteriormente com o
objetivo de avaliar a validade e generalização de suas descobertas, geralmente usando amostras de participantes
significativamente maiores, amostras de participantes mais diversas e vários laboratórios de pesquisa para conduzir o estudo. Ao
replicar estudos, os pesquisadores podem confirmar ou refutar descobertas anteriores e identificar possíveis erros ou vieses na
pesquisa original. Algumas revistas acadêmicas começaram a incentivar e priorizar estudos de replicação, estabelecendo seções
dedicadas à pesquisa de replicação ou oferecendo bônus de publicação para autores que conduzem e publicam estudos de
replicação. Por exemplo, muitos periódicos (por exemplo, Journal of Experimental Psychology) publicaram edições especiais com
artigos dedicados à pesquisa de replicação/confirmação. Da mesma forma, alguns periódicos agora têm seções designadas
dedicadas à replicação, o que incentiva a submissão de estudos que tentam replicar ou estender descobertas anteriores (por
exemplo,Cartas de Marketing ; Labroo et al., 2022 ).
A ciência de grandes equipes pode desempenhar um papel na promoção de estudos de replicação reunindo recursos e
conhecimentos para conduzir estudos de replicação em larga escala. Por exemplo, o projeto Many Labs, liderado por
pesquisadores da Universidade da Virgínia, reuniu mais de 100 pesquisadores de todo o mundo para replicar um conjunto de
estudos psicológicos em vários laboratórios. Este projeto ajudou a demonstrar a replicabilidade de algumas descobertas e
identificar possíveis problemas com outras ( Klein et al., 2014 , Klein et al., 2018 ). Fazer uma replicação corretamente é um
investimento de tempo significativo, muitas vezes exigindo grandes recursos financeiros e colaboração com vários
laboratórios/equipes de pesquisa, além de um grande serviço ao campo. Para obter um guia sobre a condução de um estudo de
replicação completo e eficaz, consulteBrandt et ai. (2014) .
Análise multiversal e curvas de especificação. A análise multiverso aumenta a transparência dos estágios de
processamento e análise de dados de um processo de pesquisa, realizando “ todas as análises em todo o conjunto de conjuntos de
dados processados alternativamente correspondentes a um grande conjunto de cenários razoáveis” ( Steegen et al., 2016). Uma
análise multiversal reconhece que, ao preparar e analisar dados, os pesquisadores tomam uma ampla gama de decisões (por
exemplo, critérios de exclusão de participantes, transformações de variáveis, categorização de variáveis, etc.) cujos resultados são
potencialmente justificáveis, fornecendo um terreno fértil para possíveis QRPs. Em vez de dar aos pesquisadores a flexibilidade
para tomar essas decisões, a análise de multiversos força os pesquisadores a considerar todas as análises justificáveis possíveis
(isto é, todas as combinações possíveis de resultados de decisões de design) e apresentá-las, para criar universos alternativos de
análises dos dados disponíveis. Apresentar um conjunto tão abrangente de análises permite que os leitores avaliem até que ponto
as conclusões de qualquer um dos autores dependem de escolhas analíticas específicas feitas. Desta forma, os resultados
apresentados contemplam um 'multiverso' de resultados possíveis, em vez de uma análise singular que pode incluir os vieses
inerentes e as escolhas arbitrárias feitas pelos pesquisadores durante o desenho do estudo, que se acumulam ao longo dos
preparativos tradicionais de pesquisa. A análise da curva de especificação consiste em etapas de processamento de dados
multiversos semelhantes, com a adição de visualizações de dados específicas e procedimentos estatísticos inferenciais, ou seja, um
gráfico de especificação (Simonsohn et al., 2019 ). Um guia prático para análises multiversais e semelhantes pode ser encontrado
em Del Giudice & Gangestad (2021) ou aqui ( Specification Curve Analysis: A Practical Guide, 2023 ), e existem pacotes R
disponíveis para conduzir análises multiversais ( Multiverso: um pacote R para criação de análise de multiverso, 2022 ).
4 . Um caminho a seguir
Até agora, delineamos as principais questões conhecidas no corpo atual da literatura publicada em ciências sociais e espera-se que
sejam encontradas também na literatura de Marketing, e pesquisamos as ferramentas mais proeminentes atualmente em uso para
abordá-las. Agora discutimos um caminho a seguir e refletimos sobre como vemos nosso campo resolvendo essas questões. Em
termos gerais, recomendamos mudar o escopo das soluções, de métodos aproximados que são implementados por pesquisadores
individuais, para soluções sistêmicas que realinham as estruturas de incentivo de periódicos e pesquisadores com os princípios do
método científico e promovem as normas mertonianas da ciência entre todos.
Reforma cultural de cima para baixo.Para facilitar a criação de uma base robusta de conhecimento em Marketing, devemos
conseguir criar sistemas que alinhem os incentivos de pesquisadores individuais com os valores da ciência. Tais reformas devem
vir de dentro de nosso campo e serem executadas por aqueles que detêm o poder sobre os processos que ditam nossos sistemas de
trabalho: chefes de departamento, professores envolvidos na tomada de decisões de contratação e promoção, presidentes de
sociedades e editores de jornais. Simplificando, apesar de um claro desejo de reforma por parte dos pesquisadores em início de
carreira, os riscos pessoais e as possíveis implicações de carreira para os pesquisadores em início de carreira são, infelizmente,
altos demais para que se espere que eles quebrem as normas de um sistema há muito estabelecido. Considerando que muitas das
mudanças culturais mais profundas da sociedade vêm de movimentos de base, de baixo para cima,
Liderança, tome uma posição. Se a integridade científica e a busca do conhecimento é um objetivo comum de nosso campo, é
essencial reconhecer que os QRPs geralmente não são o resultado de malícia ou intenção , mas sim um produto de atores humanos
operando dentro de um sistema profissional. Os líderes devem se posicionar e abrir o caminho, criando políticas que fomentem a
ciência rigorosa, sigam as normas mertonianas e desincentivem os QRPs. Essencialmente, os que estão no poder precisam ajustar
as regras do jogo para garantir que incentivemos melhores práticas científicas e que não haja necessidade de 'odiar o jogo'. Abaixo,
nossas recomendações dirigem-se aos editores de periódicos e ao corpo docente como os principais interessados e líderes que
detêm o poder de implementar mudanças sistêmicas em nosso campo.
• Os periódicos devem assumir a responsabilidade pelos trabalhos que publicam; se um periódico publica um artigo, deve
estimular trabalhos adicionais avaliando sua robustez e replicabilidade, de acordo com a norma mertoniana do ceticismo
organizado.
• Os periódicos não devem se coibir de publicar artigos que contenham resultados nulos ou mistos, e focar na qualidade da
questão de pesquisa e na adequação dos métodos para respondê-los (Nota: resultados nulos devem ser suportados por testes
de equivalência ou fatores de Bayes, como o ausência de evidência não é evidência de ausência).
• Diminuir a ênfase e o valor dos resultados “estatisticamente significativos” (ou seja, valores- p inferiores a um limite arbitrário;
McShane et al., 2019 ).
• No mínimo, os artigos com estudos não pré-cadastrados ou no formato de relatório registrado devem conter uma análise
multiverso ou curva de especificação.
• Implementar/ fasear o aumento do fator de Promoção de Transparência e Abertura (TOP) com base nas diretrizes TOP
para citação de dados, transparência de dados, transparência de código de análise, transparência de materiais, diretrizes de
relatórios de design e análise, pré-registro de estudo, pré-registro de plano de análise e replicação ( Fator TOP - Promoção de
Transparência e Abertura, 2023) .
• Ouça e apoie autores e revisores que incentivam o pré-registro de seus estudos ou submissões de relatórios registrados.
• Use a OSF “ Standard Reviewer Statement for Disclosure of Sample, Conditions, Measures, and Exclusions ” para solicitar
melhores práticas de dados e informações dos autores ( OSF | Standard Reviewer Statement for Disclosure of Sample,
Conditions, Measures, and Exclusions, 2023 ).
• Os revisores de um artigo devem ser restritos no número de citações que podem sugerir de seu próprio trabalho (sugerimos um
máximo de 3 citações, mas uma política de tolerância zero também pode ser justificada).
• Os editores de periódicos devem ser impedidos de sugerir citações de trabalhos publicados no periódico que estão editando e
de seus próprios trabalhos.
• Ofereça recompensas internas que incentivem pesquisadores/colegas a pré-registrar estudos, enviar relatórios de replicação e
se envolver em práticas de ciência aberta. Para obter exemplos, consulte a seção ' Visão de Reconhecimento e Recompensas '
do Guia de Ciência Aberta da Universidade de Utrecht ( Visão de Reconhecimento e Recompensas da Universidade de
Utrecht, 2023 ).
• Incentive os alunos de pós-graduação a explorar o envio de relatórios registrados no início de sua carreira de pesquisa.
• Incluir, discutir e valorizar as práticas de ciência aberta (por exemplo, compartilhamento de dados e materiais) nos requisitos
de posse.
• Promova trabalhos de pesquisa sustentáveis com melhor equilíbrio entre vida profissional e pessoal. Por exemplo, acomodar
trabalho híbrido de horários domésticos, planejamento familiar e restrições geográficas de pesquisadores.
• Faça tentativas para considerar a qualidade dos esforços de pesquisa sobre a quantidade (ou seja, contagem total de citações).
Por exemplo, ao avaliar o corpo docente, peça de 3 a 5 publicações exemplares a serem consideradas, em vez de um corpo
inteiro de trabalho.
5 . Conclusão
A forma como conduzimos a ciência está mudando para melhor, mas ainda há muito trabalho a ser feito. Neste artigo, propusemos
mudanças nas políticas que podem mudar a cultura de publicação acadêmica e acelerar o caminho para reduzir os QRPs e
reconstruir a confiança em nosso corpo de descobertas científicas. Vemos essas mudanças como necessárias, pois a confiança nos
processos e sistemas que orientam a forma como conduzimos empreendimentos científicos é essencial para construir uma cultura
de integridade acadêmica e atrair e reter pesquisadores de ponta na área de Marketing.
Reconhecimentos
Agradecemos à equipe editorial e aos revisores por seu tempo e comentários atenciosos; este trabalho foi aprimorado como
resultado de seus esforços.
Referências
Allen & Mehler, 2019 C. Allen , DMA Mehler
Desafios científicos abertos, benefícios e dicas no início da carreira e além
PLOS Biology , 17 ( 5 ) ( 2019 ) , p. e3000246
CrossRef Ver no Scopus Google Scholar
Aydogan et al., 2021 G. Aydogan , R. Daviet , R. Karlsson Linnér , TA Hare , JW Kable , HR Kranzler , ... , G. Nave
As bases genéticas do comportamento de risco estão relacionadas à neuroanatomia alterada
Nature Human Behaviour, 5 (6) (2021), pp. 787-794, 10.1038/s41562-020-01027-y
View in Scopus Google Scholar
Brandt et al., 2014 Brandt, M. J., IJzerman, H., Dijksterhuis, A., Farach, F. J., Geller, J., Giner-Sorolla, R., Grange, J. A., Perugini,
M., Spies, J. R., & van ’t Veer, A. (2014). The Replication Recipe: What makes for a convincing replication? Journal of
Experimental Social Psychology, 50(1), 217–224. https://doi-org.ez1.periodicos.capes.gov.br/10.1016/J.JESP.2013.10.005.
Google Scholar
Button et al., 2013 K.S. Button, J.P.A. Ioannidis, C. Mokrysz, B.A. Nosek, J. Flint, E. S.J. Robinson, et al.
Power failure: Why small sample size undermines the reliability of neuroscience
Nature Reviews Neuroscience, 14 (5) (2013), pp. 365-376, 10.1038/NRN3475
View in Scopus Google Scholar
Camerer et al., 2016 C.F. Camerer, A. Dreber, E. Forsell, T.H. Ho, J. Huber, M. Johannesson, et al.
Evaluating replicability of laboratory experiments in economics
Science, 351 (6280) (2016), pp. 1433-1436
CrossRef View in Scopus Google Scholar
Camerer et al., 2018 C.F. Camerer, A. Dreber, F. Holzmeister, T.H. Ho, J. Huber, M. Johannesson, …, H. Wu
Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015
Nature Human Behaviour, 2 (9) (2018), pp. 637-644, 10.1038/s41562-018-0399-z
View in Scopus Google Scholar
Ebersole et al., 2016 C.R. Ebersole, O.E. Atherton, A.L. Belanger, H.M. Skulborstad, J.M. Allen, J.B. Banks, et al.
Many Labs 3: Evaluating participant pool quality across the academic semester via replication
Journal of Experimental Social Psychology, 67 (2016), pp. 68-82, 10.1016/J.JESP.2015.10.012
View PDF View article View in Scopus Google Scholar
Grudniewicz et al., 2019 Grudniewicz, A., Moher, D., Cobey, K. D., Bryson, G. L., Cukier, S., Allen, K., Ardern, C., Balcom, L.,
Barros, T., Berger, M., Ciro, J. B., Cugusi, L., Donaldson, M. R., Egger, M., Graham, I. D., Hodgkinson, M., Khan, K. M.,
Mabizela, M., Manca, A., … Lalu, M. M. (2019). Predatory journals: No definition, no defence. Nature 2021 576:7786,
576(7786), 210–212. https://doi-org.ez1.periodicos.capes.gov.br/10.1038/d41586-019-03759-y .
Google Scholar
Hagger et al., 2016 M.S. Hagger, N.L.D. Chatzisarantis, H. Alberts, C.O. Anggono, C. Batailler, A.R. Birt, et al.
A Multilab Preregistered Replication of the Ego-Depletion Effect
Perspectives on Psychological Science, 11 (4) (2016), pp. 546-573,
10.1177/1745691616652873/ASSET/IMAGES/LARGE/10.1177_1745691616652873-FIG1.JPEG
View in Scopus Google Scholar
Head et al., 2015 M.L. Head, L. Holman, R. Lanfear, A.T. Kahn, M.D. Jennions
The Extent and Consequences of P-Hacking in Science. (2015), 10.1371/journal.pbio.1002106
Hummer et al., 2017 Hummer, L., Thorn, F. S., Nosek, B. A., & Errington, T. M. (2017). Evaluating Registered Reports: A
Naturalistic Comparative Study of Article Impact. https://doi-org.ez1.periodicos.capes.gov.br/10.31219/OSF.IO/5Y8W7
.
Google Scholar
Klein et al., 2022 R.A. Klein, C.L. Cook, C.R. Ebersole, C. Vitiello, B.A. Nosek, J. Hilgard, …, K.A. Ratliff
Many Labs 4: Failure to Replicate Mortality Salience Effect With and Without Original Author Involvement
Collabra: Psychology, 8 (1) (2022), 10.1525/COLLABRA.35271
Google Scholar
Klein et al., 2014 R.A. Klein, K.A. Ratliff, M. Vianello, R.B. Adams, Š. Bahník, M.J. Bernstein, et al.
Investigating variation in replicability: A “many labs” replication project
Social Psychology, 45 (3) (2014), p. 142, 10.1027/1864-9335/A000178
View in Scopus Google Scholar
Klein et al., 2018 R.A. Klein, M. Vianello, F. Hasselman, B.G. Adams, R.B. Adams, S. Alper, …, B.A. Nosek
Many Labs 2: Investigating Variation in Replicability Across Samples and Settings
Advances in Methods and Practices in Psychological Science, 1 (4) (2018), pp. 443-490, 10.1177/2515245918810225
View in Scopus Google Scholar
Labroo et al., 2022 Labroo, A. A., Mizik, N., Winer, R. S., Bradlow, E. T., Huber, J., Lehmann, D., Lynch, J. G., & Lehmann, D. R.
(2022). Marketing Letters encourages submissions to Replication Corner. Marketing Letters 2022 33:4, 33(4), 543–543.
https://doi-org.ez1.periodicos.capes.gov.br/10.1007/S11002-022-09653-4.
Google Scholar
McShane et al., 2019 McShane, B. B., Gal, D., Gelman, A., Robert, C., & Tackett, J. L. (2019). Abandon Statistical Significance.
Https://doi-org.ez1.periodicos.capes.gov.br/10.1080/00031305.2018.1527253, 73(sup1), 235–245. https://doi-
org.ez1.periodicos.capes.gov.br/10.1080/00031305.2018.1527253.
Google Scholar
Moher et al., 2018 D. Moher, F. Naudet, I.A. Cristea, F. Miedema, J.P.A. Ioannidis, S.N. Goodman
Assessing scientists for hiring, promotion, and tenure
PLOS Biology, 16 (3) (2018), p. e2004089
CrossRef View in Scopus Google Scholar
Multiverse: An R package for creating multiverse analysis, 2022 Multiverse: An R package for creating multiverse analysis.
(n.d.). Retrieved December 27, 2022, from https://cran.r-project.org/web/packages/multiverse/readme/README.html.
Google Scholar
Nosek et al., 2015 B.A. Nosek, G. Alter, G.C. Banks, D. Borsboom, S.D. Bowman, S.J. Breckler, et al.
Promoting an open research culture
Science, 348 (6242) (2015), pp. 1422-1425, 10.1126/SCIENCE.AAB2374
View in Scopus Google Scholar
Nosek et al., 2018 B.A. Nosek, C.R. Ebersole, A.C. DeHaven, D.T. Mellor
The preregistration revolution
Proceedings of the National Academy of Sciences, 115 (11) (2018), pp. 2600-2606, 10.1073/PNAS.1708274114
View in Scopus Google Scholar
Nosek et al., 2022 Nosek, B. A., Hardwicke, T. E., Moshontz, H., Allard, A., Corker, K. S., Dreber, A., Fidler, F., Hilgard, J., Kline
Struhl, M., Nuijten, M. grave le B., Rohrer, J. M., Romero, F., Scheel, A. M., Scherer, L. D., Schönbrodt, F. D., & Vazire, S.
(2022). Replicability, Robustness, and Reproducibility in Psychological Science. Https://doi-
org.ez1.periodicos.capes.gov.br/10.1146/Annurev-Psych-020821-114157, 73, 719–748. https://doi-
org.ez1.periodicos.capes.gov.br/10.1146/ANNUREV-PSYCH-020821-114157.
Google Scholar
Nuijten et al., 2016 M.B. Nuijten, C.H.J. Hartgerink, M.A.L.M. van Assen, S. Epskamp, J.M. Wicherts
The prevalence of statistical reporting errors in psychology (1985–2013)
Behavior Research Methods, 48 (4) (2016), pp. 1205-1226, 10.3758/S13428-015-0664-2/TABLES/8
View in Scopus Google Scholar
OSF, 2023 OSF. (2023). Retrieved December 21, 2022, from https://osf.io/ .
Google Scholar
OSF | Standard, 2023 OSF | Standard. (2023) Reviewer Statement for Disclosure of Sample, Conditions, Measures, and
Exclusions. Retrieved April 13, 2023, from https://osf.io/hadz3/ .
Google Scholar
Preregistration—OSF Support, 2023 Preregistration—OSF Support. (2023). Retrieved April 14, 2023, from
https://help.osf.io/article/145-preregistration#creating-a-preregistration-on-osf .
Google Scholar
Registered, 2023 PCI Registered Reports. (2023). Retrieved April 11, 2023, from https://rr.peercommunityin.org/ .
Google Scholar
Re3data.org., 2023 Re3data.org. (2023). Retrieved April 11, 2023, from https://www.re3data.org/ .
Google Scholar
ResearchBox, 2023 ResearchBox. (2023). Retrieved April 11, 2023, from https://researchbox.org/ .
Google Scholar
Ritchie, 2020 Ritchie, S. (Stuart J.). (2020). Science fictions: Exposing fraud, bias, negligence and hype in science. 353.
Google Scholar
Scheel et al., 2021 Scheel, A. M., Schijen, M. R. M. J., & Lakens, D. (2021). An Excess of Positive Results: Comparing the
Standard Psychology Literature With Registered Reports. Https://doi-
org.ez1.periodicos.capes.gov.br/10.1177/25152459211007467, 4(2). https://doi-
org.ez1.periodicos.capes.gov.br/10.1177/25152459211007467 .
Google Scholar
Shalvi et al., 2011 S. Shalvi, J. Dana, M.J.J. Handgraaf, C.K.W. De Dreu, S. Shalvi, J. Dana, et al.
Justified ethicality: Observing desired counterfactuals modifies ethical perceptions and behavior
Organizational Behavior and Human Decision Processes, 115 (2) (2011), pp. 181-190, 10.1016/j.obhdp.2011.02.001
View PDF View article View in Scopus Google Scholar
Shrout and Rodgers, 2018 Shrout, P. E., & Rodgers, J. L. (2018). Psychology, Science, and Knowledge Construction: Broadening
Perspectives from the Replication Crisis. Https://doi-org.ez1.periodicos.capes.gov.br/10.1146/Annurev-Psych-122216-
011845, 69, 487–510. https://doi-org.ez1.periodicos.capes.gov.br/10.1146/ANNUREV-PSYCH-122216-011845 .
Google Scholar
Soderberg et al., 2021 C.K. Soderberg, T.M. Errington, S.R. Schiavone, J. Bottesini, F.S. Thorn, S. Vazire, et al.
Initial evidence of research quality of registered reports compared with the standard publishing model
Nature Human Behaviour, 5 (8) (2021), pp. 990-997, 10.1038/S41562-021-01142-4
View in Scopus Google Scholar
Specification Curve Analysis: A practical guide, 2023 Specification Curve Analysis: A practical guide. (2022). Retrieved April 14,
2023, from https://dcosme.github.io/specification-curves/SCA_tutorial_inferential_presentation#1 .
Google Scholar
Statcheck, 2023 Statcheck // web. (2023). Retrieved April 11, 2023, from https://michelenuijten.shinyapps.io/statcheck-web/
.
Google Scholar
TOP Factor—Transparency and Openness, 2023 TOP Factor—Transparency and Openness Promotion. (2023). Retrieved April
14, 2023, from https://topfactor.org/summary .
Google Scholar
Utrecht University Recognition and Rewards, 2023 Utrecht University Recognition and Rewards Vision. (2023). Retrieved April
11, 2023 from https://www.uu.nl/sites/default/files/UU-Recognition-and-Rewards-Vision.pdf .
Google Scholar
van ’t Veer and Giner-Sorolla, 2016 van ’t Veer, A. E., & Giner-Sorolla, R. (2016). Pre-registration in social psychology—A
discussion and suggested template. Journal of Experimental Social Psychology, 67, 2–12. https://doi-
org.ez1.periodicos.capes.gov.br/10.1016/J.JESP.2016.03.004.
Google Scholar
Watts, Duncan, & Quan, 2018 Watts, T. W., Duncan, G. J., & Quan, H. (2018). Revisiting the Marshmallow Test: A
Conceptual Replication Investigating Links Between Early Delay of Gratification and Later Outcomes. Psychological
Science, 29(7), 1159–1177. https://doi-org.ez1.periodicos.capes.gov.br/10.1177/0956797618761661 .
Google Scholar
Wicherts et al., 2016 J.M. Wicherts, C.L.S. Veldkamp, H.E.M. Augusteijn, M. Bakker, R.C.M. van Aert, M.A.L.M. van Assen
Degrees of freedom in planning, running, analyzing, and reporting psychological studies: A checklist to avoid
P-hacking
Frontiers in Psychology, 7 (NOV) (2016), 10.3389/FPSYG.2016.01832/ABSTRACT
Google Scholar
Xie et al., 2021 Y. Xie, K. Wang, Y. Kong
Prevalence of Research Misconduct and Questionable Research Practices: A Systematic Review and Meta-
Analysis
Science and Engineering Ethics, 27 (4) (2021), p. 41, 10.1007/S11948-021-00314-9/METRICS
Google Scholar
Cited by (0)
1 Ironically, non-replicable publications tend to receive more citations than replicable ones (Serra-Garcia & Gneezy, 2021).
3 Further, some institutions receive government research funds based on performance-based allocations. Most practices used to improve
replicability focus on quality instead of quantity of research output, which may lead to fewer publications, and potentially less funding if
performance metrics emphasize quantity; this makes adoption of such practices a prisoner's dilemma.
4 In studies using primary data, preregistration is typically done before data collection. When using secondary data, preregistration should be
done before analyzing the data.
View Abstract