counter Os experimentos bizarros que marcaram a história da ciência da nutrição – Forsething

Os experimentos bizarros que marcaram a história da ciência da nutrição

Acredito que todos já tenham se deparado, ao menos uma vez, com a seguinte crítica aos estudos que utilizam metodologia observacional: embora sejam importantes para a construção do conhecimento, não conseguem inferir causalidade, apenas identificar correlações entre uma variável estudada e determinado desfecho. Além disso, mesmo com o uso de inúmeros modelos estatísticos para controlar variáveis de confusão, elas permanecem.

Por mais que isso seja verdadeiro, é importante evitar cair na chamada methodolatry — termo que conheci em 2022, no artigo “Evidence-based medicine vs. basic science in medical school”, de David Gorski —, definida como “a adoração profana do ensaio clínico randomizado como o único método válido de investigação”.

Obviamente, assumir de forma automática que a única maneira de investigar qualquer aspecto da saúde é por meio dos RCTs representa uma lógica equivocada. Se a radicalizássemos, ainda acreditaríamos que cigarros não aumentam o risco de câncer de pulmão, entre outros problemas, simplesmente porque jamais se conduziu um ensaio no qual metade dos participantes recebesse cigarros e a outra metade, não.

Se isso não fosse o suficiente, há outras limitações adicionais dos RCT, como apontam os artigos Rethinking the pros and cons of randomized controlled trials and observational studies in the era of big data and advanced methods: A panel discussione Strengths and limitations of RCTs”. Embora os RCTs sejam considerados o padrão-ouro por controlarem confundimento e demonstrarem a eficácia de intervenções médicas, eles nem sempre são viáveis. O custo é elevado, a execução é demorada e, em muitos casos, há barreiras éticas intransponíveis.

Além disso, existem limitações práticas: a duração de um estudo pode não ser suficiente para capturar efeitos de longo prazo ou eventos raros, e os resultados obtidos em condições controladas podem não se replicar no mundo real ou em populações diferentes da amostra original.

No campo da nutrição, a questão é ainda mais complexa. Por um lado, há evidências consistentes, provenientes de estudos epidemiológicos e outras linhas de investigação, de que o consumo de frutas, verduras, legumes, grãos integrais, proteínas magras e gorduras insaturadas constitui a base de qualquer dieta saudável. Por outro, também é preciso admitir que, em função de interpretações equivocadas de estudos observacionais, algumas diretrizes — por exemplo, nos Estados Unidos — acabaram mal formuladas.

Um exemplo emblemático, a meu ver, foi a adoção da ideia de que “a gordura, independentemente do tipo, seria a principal responsável pelo ganho de peso e pelas doenças cardiovasculares”. Essa noção, sustentada por evidências observacionais, fomentou o mercado de alimentos low-fat e levou muitas empresas a reformular seus produtos para versões com menos gordura, mas ricas em açúcar e calorias, perpetuando os mesmos problemas de saúde.

Continua após a publicidade

Quem está familiarizado com esse tipo de pesquisa reconhece as limitações que ajudam a explicar esses desencontros: variáveis de confusão residual, uso de métricas autorrelatadas, perda de participantes ao longo do tempo, alta heterogeneidade das amostras, etc.

Na prática, na nutrição, aprendemos a lidar com isso de duas maneiras. A primeira é por meio de revisões sistemáticas com meta-análises de estudos observacionais, em que a consistência dos achados e a avaliação crítica da qualidade permitem dar o devido peso a cada  evidência. A segunda é através de ensaios clínicos randomizados, seja em contexto de mundo real — quando os participantes seguem a dieta prescrita em suas rotinas diárias —, seja em ambientes altamente controlados, como alas hospitalares ou centros de pesquisa.

Ainda assim, esses estudos também apresentam limitações importantes: número reduzido de participantes, curta duração e que não existem variáveis externas interferindo nos resultados, o que nem sempre é verdadeiro.

Para mitigar esses problemas, uma solução hipotética seria encarcerar voluntários, controlando quase todas as variáveis e observando diretamente os efeitos da dieta. Mas isso, felizmente, nunca foi e nunca seria aprovado. Certo? Spoiler: errado.

O experimento da fome

Se você nunca ouviu falar deste experimento, vale destacar que ele se tornou um marco controverso da pesquisa científica. Foi crucial para compreender os efeitos físicos e psicológicos da semi-inanição, assim como os problemas da realimentação em civis que sofreram fome durante a guerra. Mas o estudo causou impactos graves nos participantes.

Continua após a publicidade

Para contextualizar esta seção, utilizarei como base o artigo They Starved So That Others Be Better Fed: Remembering Ancel Keys and the Minnesota Experiment” e o capítulo The Minnesota Starvation Study do livro Twenty-Four Stories From Psychology.

Aproximando-se do fim da Segunda Guerra Mundial, uma dúvida constante entre os cientistas era compreender como os longos períodos de inanição afetariam as condições físicas e psicológicas das pessoas que viviam em zonas devastadas pelo conflito. Também se buscava determinar o melhor tratamento para restaurar a normalidade.

O Exército americano recorreu ao fisiologista Ancel Keys, conhecido por contribuições como a investigação de deficiências vitamínicas e o auxílio no desenvolvimento das rações K — um kit de três refeições práticas, fáceis de transportar e capazes de fornecer calorias e nutrientes suficientes usado pelos militares na guerra.

O estudo idealizado por Keys foi dividido em três fases. Nos primeiros três meses, os voluntários seguiram uma dieta regular, durante a qual suas necessidades calóricas foram avaliadas e o peso normal foi determinado. Na segunda fase, com duração de seis meses, os participantes receberam uma dieta individualizada com aproximadamente metade da ingestão calórica habitual, com o objetivo de reduzir o peso em cerca de 25%. Por fim, a terceira fase, de recuperação, durou três meses.

Além disso, os voluntários foram divididos em grupos e alimentados segundo diferentes protocolos, com variações nos níveis de calorias e nutrientes, para determinar qual método de recuperação produziria os melhores resultados.

Continua após a publicidade

Eles se reuniram para o início do experimento na Universidade de Minnesota, em meados de novembro de 1944, e passaram pelo período de padronização com uma dieta diária de 3.200 kcal, dividida em três refeições.

Três meses depois, em 12 de fevereiro de 1945, iniciou-se o período de semi-inanição, durante o qual os participantes passaram a receber uma dieta de 1.800 kcal — ou 1.500 kcal, dependendo da referência consultada — dividida em duas refeições diárias, semelhante àquela consumida nas áreas da Europa devastadas pela guerra: batatas, repolho, nabos, pão escuro e macarrão. Era permitido o consumo à vontade de café preto e água, além de uma cota diária de cigarros.

Em teoria, o objetivo dessa fase era que os participantes perdessem 1,1 kg por semana; caso a meta não fosse cumprida, poderia ocorrer uma redução ainda maior nas calorias consumidas.

Os participantes também realizavam diversas tarefas domésticas e administrativas no laboratório — local onde também dormiam — e podiam participar de aulas e atividades da universidade. Além disso, esperava-se que caminhassem 35,4 km por semana, gastassem 3.009 kcal por dia e mantivessem um diário pessoal durante o experimento.

Dentre os achados surpreendentes, verificou-se, nas primeiras semanas da segunda etapa, uma diminuição abrupta de peso e leve perda de força. Entretanto, o humor dos participantes em geral permaneceu bom.

Continua após a publicidade

As diferenças individuais, porém, eram significativas. Um participante, por exemplo, começou a trapacear na dieta poucas semanas após o início da segunda fase e apresentou sinais de comportamento psicótico, o que levou à sua exclusão do estudo.

Os voluntários restantes passaram a ser vigiados mais de perto para evitar trapaças. Os participantes foram proibidos de ir sozinhos a qualquer atividade, independentemente de se tratar de uma aula na universidade ou de um encontro social.

A situação piorou à medida que o tempo avançava. A privação de comida tornou-se uma obsessão para os participantes, que passaram a ter sonhos relacionados a alimentos, desenvolveram padrões alimentares estranhos (como lamber os pratos), perderam o interesse por aulas e atividades culturais, namoro e qualquer atividade sexual, além de apresentarem irritabilidade crescente.

Na segunda metade da fase de inanição, surgiram outros sintomas físicos. Os participantes sentiam frio constantemente, enquanto a temperatura corporal e a frequência cardíaca caíam. Atividades simples, como sentar, tornavam-se extremamente desagradáveis, e resistir aos impulsos relacionados à comida era uma batalha constante.

Além disso, mais quatro voluntários foram retirados da análise: dois por suspeita de trapaça, já que não perderam o peso esperado seguindo a dieta; e outros dois por terem admitido ter trapaceado. Um deles relatou que parava em diversas lojas para tomar sundaes e milk-shake e depois roubou e comeu vários nabos crus; o outro consumiu enormes quantidades de chiclete (quase 40 ao dia) e ingeriu restos de comida de latas de lixo. Ambos foram internados por breves períodos na ala psiquiátrica.

Continua após a publicidade

No final de julho de 1945, teve início a fase de reabilitação, na qual os participantes foram aleatoriamente designados para um dos quatro grupos de ingestão energética, que variavam tanto na quantidade de calorias quanto na proporção de macro e micronutrientes. O grupo com menor aumento recebeu 200 kcal extras por dia, enquanto o grupo com maior aumento recebeu 800 kcal adicionais.

Esse período mostrou-se tão difícil — ou até mais — do que a fase de inanição. Apesar do aumento calórico, as mudanças foram modestas e o ganho de peso ocorria de forma lenta.

A situação atingiu um ponto crítico quando um dos voluntários decepou três dedos enquanto cortava lenha e, tragicamente, não conseguiu explicar se o ato havia sido intencional. Keys então aumentou a quantidade calórica de todas as dietas, o que trouxe algumas melhorias leves, como redução da tontura, apatia e letargia, mas não solucionou totalmente a perda de libido, a fraqueza, o cansaço e a “obsessão” por comida. Esses sintomas só começaram a regredir algum tempo após o término do experimento.

Após o fim do estudo, Keys ganhou ainda mais notoriedade e conduziu inúmeras pesquisas sobre as causas das doenças cardíacas; o psicólogo Josef Brožek, seu colega na condução do experimento, tornou-se professor universitário; e os voluntários retomaram suas vidas — alguns, inclusive, afirmando que, se pudessem voltar no tempo, tomariam a mesma decisão e participariam do estudo novamente.

Graças aos modernos comitês de ética, experimentos com essas características e objetivos não seriam aceitos atualmente. Mas, como veremos, esse não foi um caso isolado.

O estudo da pelagra

A pelagra é uma deficiência nutricional decorrente da baixa ingestão de vitamina B3 (niacina) ou do aminoácido essencial triptofano, caracterizada pela possível ocorrência de dermatite, diarreia, demência e morte — os chamados “4 Ds”. Ela foi descrita pela primeira vez em 1735 pelo médico espanhol Don Gaspar Casál, que a observou entre camponeses.

Por volta de 1900, estudos epidemiológicos observaram que, em certas instituições, a pelagra era epidêmica entre os pacientes, mas não afetava enfermeiras e assistentes — embora todos vivessem no mesmo ambiente e sob condições semelhantes. A partir disso, levantou-se a hipótese de que a explicação poderia estar relacionada à dieta.

Para testar essa hipótese — e considerando que a pelagra não acometia indivíduos de classes mais abastadas, que consumiam mais alimentos frescos e de origem animal —, Joseph Goldberger e colegas conduziram uma série de estudos de campo. Três se destacam: os conduzidos em orfanatos, o do sanatório e o da prisão.

Nos orfanatos de Jackson, Mississippi, o primeiro (“M.J.”) havia registrado 79 casos de pelagra até 15 de setembro de 1914, e o segundo (“B.J.”), 130. Ambos apresentavam condições sanitárias precárias, superlotação e dietas pobres em alimentos de origem animal. A principal diferença era o sistema de esgoto: um conectado à rede pública, e o outro dependente de fossas superficiais.

A partir de meados de setembro, por recomendação dos pesquisadores, a alimentação passou a incluir maior quantidade de proteínas animais e leguminosas, sem mudança nas condições sanitárias.

Como resultado, no M.J., 67 dos 79 casos não apresentaram recaídas após um ano, e entre 99 novos residentes, nenhum desenvolveu a doença. No B.J., 105 dos 130 casos permaneceram sem recorrência, e entre 69 indivíduos acompanhados por pelo menos um ano, não houve reaparecimento.

Em comparação com os dados de um orfanato da Carolina do Sul, cuja taxa anual de recorrência variava entre 58% e 76%, houve apenas um caso registrado em dois anos nas instituições com dieta modificada.

O estudo conduzido no Sanatório Estadual da Geórgia avaliou o efeito da dieta em dois alojamentos — um de mulheres negras e outro de brancas — com cerca de 40 pacientes que haviam tido pelagra em 1914. A maioria era de baixa renda e apresentava distúrbios mentais; poucas exibiam sintomas ativos, embora muitas mostrassem sinais recentes da doença.

A dieta prescrita, semelhante à aplicada nos orfanatos, foi supervisionada por enfermeiras. Entre 72 mulheres (36 negras e 36 brancas) acompanhadas de 31 de dezembro de 1914 a 1º de outubro de 1915, nenhuma apresentou recorrência — incluindo 18 com histórico de múltiplos episódios.

O grupo controle — apesar de não planejado inicialmente —  foi composto por 32 mulheres mantidas na dieta habitual. Nelas, a pelagra recorreu em 15 casos.

Por fim, o estudo conduzido na prisão — intitulado Experimental Pellagra in White Male Convicts — teve como objetivo testar a possibilidade de induzir pelagra em homens previamente saudáveis por meio de uma dieta monótona e baseada em cereais. O experimento foi realizado em uma fazenda da penitenciária do Mississippi, apenas com prisioneiros brancos do sexo masculino que se voluntariaram para participar, e teve duração de seis meses e meio, entre 19 de abril e 31 de outubro de 1915.

Ao todo, 12 detentos, com idades entre 24 e 50 anos, se voluntariaram para receber a dieta indutora de pelagra. Onze completaram o experimento. Paralelamente, outros 35 prisioneiros sem histórico da doença, que permaneceram na instituição por um período comparável, serviram como grupo controle.

Entre as diferenças observadas entre o grupo controle e o grupo intervenção, destacava-se a higiene: os alojamentos do grupo controle eram, em sua maioria, sujos e infestados por pragas, enquanto a higiene pessoal ficava a critério de cada prisioneiro. Em contraste, os alojamentos dos voluntários eram limpos regularmente, e sua higiene pessoal era rigidamente supervisionada — os participantes eram obrigados a lavar as mãos e o rosto antes de cada refeição e a tomar banho pelo menos três vezes por semana.

Em relação à alimentação, verificou-se que a dieta do grupo controle, embora relativamente rica em gordura, estava dentro de padrões considerados razoáveis.

Observou-se que o primeiro sintoma relevante foi registrado quase um mês após o início da dieta, em 2 de maio, quando um dos voluntários relatou fraqueza e tontura. Até 20 de junho, todos os onze homens já haviam apresentado algum tipo de queixa. Os sintomas iniciais mais comuns foram fraqueza, seguida por desconforto ou dor abdominal. Todos os voluntários perderam peso, com variação de 6% a 22,6%, sendo a perda mais acentuada nas quatro últimas semanas do experimento.

A presença de dermatite foi observada em seis voluntários, sendo que a manifestação mais precoce ocorreu em 12 de setembro, aproximadamente ao final do quinto mês da dieta. Contudo, para certificar-se de que se tratava de casos de pelagra — e não de alguma outra dermatose —, solicitou-se a avaliação de especialistas. As análises foram inequívocas: todos os casos apresentavam sinais claros e característicos de pelagra.

Como conclusão, os autores salientaram que este experimento, em conjunto com outras evidências relacionadas ao problema, apontava de forma consistente que a dieta era um fator determinante tanto na causa quanto na prevenção da doença.

Hoje em dia esse tipo de pesquisa não seria aprovado por comitês de ética — e com razão, visto que o objetivo, mesmo indiretamente, era desenvolver uma enfermidade nos detentos, o que comprometeria suas funções físicas e mentais.

O estudo das cáries

Por mais que hoje saibamos que a cárie dentária consiste na destruição dos tecidos calcificados do dente pelos ácidos produzidos por bactérias presentes na boca — processo potencializado pelo consumo excessivo de açúcar e pela falta de higiene bucal —, essa compreensão demorou a chegar.

Foi apenas no final do século 19 que se reconheceu que a cárie dentária é uma condição complexa e multifatorial. Entre os estudos sobre o tema, destaca-se The Vipeholm Dental Caries Study: The Effect of Different Levels of Carbohydrate Intake on Caries Activity in 436 Individuals Observed for Five Years, conduzido no hospital Vipeholm, na Suécia. O estudo foi realizado em uma instituição para pessoas com deficiência intelectual. Os pacientes eram examinados ao menos uma vez por ano. Antes dessa etapa, entre 1946 e 1947, haviam participado de uma pesquisa sobre vitaminas e minerais, que mostrou baixa incidência de cárie e alta resistência à doença. A partir desses resultados, foram desenvolvidos o “Estudo de Carboidratos I” (1947–1949), com dieta pobre em carboidratos e rica em gordura, e o “Estudo de Carboidratos II” (1949–1951), que utilizou como controle uma dieta semelhante à da população sueca.

Na primeira fase, minimizou-se o uso de açúcar refinado. Na segunda, foram criados grupos com diferentes formas e frequências de ingestão de carboidratos: (1) dieta básica sem carboidratos adicionais e com gordura extra (controle); (2) adição de sacarose nas refeições; (3) açúcar incorporado ao pão; e (4) doces consumidos entre as refeições, incluindo toffees (8 ou 24 unidades diárias), chocolate e caramelo.

Como resultado, verificou-se que a atividade de cárie foi alta nos grupos que receberam açúcar na forma de doces entre as refeições, enquanto nos demais grupos a atividade permaneceu baixa.

Ao analisar o grupo que recebeu a ração de caramelos, acrescida de 200 g de sacarose, constatou-se que a atividade de cárie havia, sem dúvida, aumentado. Por conta disso, a sacarose foi substituída por uma quantidade isocalórica de gordura durante o restante do Estudo de Carboidratos II, o que resultou na redução da atividade de cárie aos níveis anteriores.

Nos grupos que receberam 8 e 24 toffees diárias, a atividade de cárie aumentou progressivamente, atingindo o pico após dois a três anos; ao retornar à dieta comum, os níveis voltaram ao normal.

Mais uma vez, é impossível ignorar a relevância desses resultados, que não apenas demonstram os malefícios do açúcar para a saúde dental, mas também destacam o papel das variações genéticas na potencialização ou mitigação do aparecimento de cáries.

Entretanto, é inegável que a maneira como o estudo foi estruturado e conduzido não seria aprovada por nenhum comitê de ética atual e viola diversos princípios do Código de Nuremberg. Entre eles: “O consentimento voluntário do ser humano é absolutamente essencial. Isso significa que as pessoas submetidas ao experimento devem ser legalmente capazes de dar consentimento”.

Também há conflitos com a Declaração de Helsinque, especialmente no décimo sétimo princípio: “toda a investigação médica que envolva participantes humanos tem de ser precedida de uma avaliação cuidadosa dos riscos e incômodos previsíveis para os indivíduos e grupos envolvidos na investigação, em comparação com os benefícios previsíveis para si e para outros indivíduos ou grupos afetados pela condição sob investigação. Têm de ser adotadas medidas para minimizar os riscos e inconvenientes”.

Mas, para não encerrarmos este artigo em tom negativo, é importante destacar que existem abordagens éticas e mais rigorosas — ainda que também com limitações — para conduzir ensaios clínicos na área de nutrição.

O padrão-ouro em nutrição 

O primeiro caso, e talvez o mais rigoroso, mas menos factível para uma grande parcela de desfechos, é a metodologia empregada no Calorie Restriction in Biosphere 2: Alterations in Physiologic, Hematologic, Hormonal, and Biochemical Parameters in Humans Restricted for a 2-Year Period, no qual quatro mulheres e quatro homens de uma “tripulação” — incluindo dois dos autores do estudo —, com idades entre 27 e 67 anos, foram selados dentro da Biosfera 2, um espaço hermeticamente fechado que continha réplicas dos ecossistemas da Terra.

Durante 638 dias, os participantes consumiram uma dieta hipocalórica e rica em nutrientes, composta por vegetais, frutas, nozes, grãos e leguminosas, com pequenas quantidades de laticínios, ovos e carne. Como resultado, apresentaram perda de peso acentuada e sustentada, ocorrendo principalmente nos primeiros oito meses.

Foram coletadas amostras de sangue antes da entrada no ambiente hermético, em diversos momentos durante a estadia e quatro vezes ao longo dos 30 meses após a saída, quando retornaram a uma dieta livre. Os dados mostraram alterações fisiológicas — como redução de 19% do IMC nos homens e 13% nas mulheres —, hormonais, bioquímicas e diversas outras.

Com base nesses achados, os autores concluíram que humanos saudáveis e não obesos, submetidos a uma dieta hipocalórica e rica em nutrientes, apresentam diversas alterações. Quanto à saúde dos participantes, constatou-se que, apesar da restrição calórica e seletiva de alimentos e da perda de peso acentuada, todos permaneceram em excelente estado de saúde e mantiveram alto nível de atividade física e mental durante os dois anos de estudo.

Como podemos ver, esse seria o verdadeiro padrão-ouro das pesquisas científicas no campo da nutrição. Nessa abordagem, os voluntários permanecem em instalações controladas, nas quais diferentes variáveis de confusão são rigorosamente monitoradas. Eles recebem prescrições de padrões dietéticos distintos para observar os efeitos.

Contudo, como esses estudos são extremamente complexos de realizar, existem duas alternativas um pouco mais viáveis: as enfermarias metabólicas (metabolic wards) e os ensaios clínicos randomizados e/ou do tipo cross-over.

Enfermarias metabólicas são locais onde os voluntários permanecem confinados por um período determinado e recebem uma rotina diária detalhada a ser cumprida, incluindo horários de acordar, refeições, pesagem e prática de exercícios físicos. Toda a alimentação segue rigorosamente o cardápio definido pelos pesquisadores.

Embora essas instalações consigam mitigar diversos potenciais fatores de confusão, apresentam desafios próprios. Entre eles, a dificuldade em recrutar voluntários dispostos a permanecer confinados por longos períodos; o custo elevado, que pode chegar a milhões de dólares; e, por fim, a limitação na extrapolação dos resultados para o ambiente não controlado, o chamado “mundo real”.

O segundo caso são os ensaios clínicos cross-over — um desenho metodológico no qual os participantes do grupo controle passam para o grupo de intervenção e vice-versa. Esses estudos podem ser conduzidos no mundo real e são mais atraentes para os voluntários, que, na maioria das vezes, precisam apenas comparecer a algumas sessões de medição ou recebem a intervenção em seu próprio domicílio ou nas instalações do estudo por um período mais curto.

Além disso, conseguem mitigar alguns vieses observados em estudos epidemiológicos, como aqueles decorrentes da falta de cegamento (quando pesquisadores ou participantes sabem qual intervenção está sendo administrada, o que pode influenciar os resultados). Embora mais rigorosos do que estudos observacionais, ainda apresentam limitações, como a presença de variáveis de confusão não controladas, dificuldade em garantir a adesão à intervenção e a influência de outros alimentos e hábitos sobre os desfechos observados.

No entanto, é importante ressaltar que um único estudo, por mais bem conduzido que seja, não é suficiente para alterar diretrizes ou criar novas recomendações. Para isso, seus resultados precisam ser replicados por outros pesquisadores, e suas limitações, quando identificadas, abordadas em pesquisas futuras.

Além disso, como vimos anteriormente, nem sempre é ético introduzir intervenções que possam prejudicar a saúde dos participantes. Por exemplo, não seria aceitável permitir que um grupo consumisse exclusivamente ultraprocessados apenas para verificar se isso causaria algum problema de saúde, mesmo que a ingestão calórica estivesse adequada e todos os nutrientes fossem supridos.

Dadas as circunstâncias reais e as limitações no campo da nutrição, o melhor que podemos fazer, até o momento, é reconhecer que diferentes desfechos e questões de pesquisa exigem metodologias distintas, desde que atendam aos critérios adequados.

É imprescindível considerar as limitações de cada estudo, avaliar a robustez de seus achados e, sobretudo, compreender que resultados obtidos a partir de pesquisas menos rigorosas devem ser desafiados por novos estudos. Dependendo desses resultados, eles podem ser posteriormente integrados em revisões sistemáticas e meta-análises, permitindo avaliar se há, de fato, algum efeito e qual é a sua magnitude.

Mauro Proença é nutricionista

Publicidade

About admin