Quem ausculta os nossos dados? 0 190

As pressões sobre os sistemas de saúde são várias e frequentemente deparamo-nos com falta de pessoal médico especializado e longos tempos de espera. Será que a ciência de dados e a inteligência artificial podem ajudar? A resposta é o clássico “sim, mas …”

Os dados de saúde que podem ser facilmente recolhidos em formato digital são múltiplos e o modo como a tecnologia pode melhorar a nossa saúde passa por vários níveis, das possíveis vantagens da centralização de dados à utilização de sensores e aplicações (que medem o número de passos que damos, o número de horas que dormimos [1] e nos lembram quando tomar medicação).

A um nível, mais complexo, existem também ferramentas de diagnóstico que analisam imagens de raio-X, fotografias de lesões de pele, sequências de ADN, etc., e sugerem se o doente tem ou não um problema. Finalmente, conseguem-se extrair dados epidemiológicos a partir do tipo de pesquisas que são feitas na internet e estados de saúde individuais do que é escrito (ou do que não é escrito) nas redes sociais. Esta informação, dada muitas vezes de forma inconsciente, permite antecipar picos de gripe, inferir estados depressivos, obesidade ou até estudar possíveis efeitos secundários de medicamentos.

Estas ferramentas serão, no futuro, indispensáveis na prevenção, diagnóstico e tratamento atempado de doenças. No entanto, toda esta informação é talvez a mais íntima que pode existir. O que pode ser feito com ela? Isto leva-nos ao “mas”.

A principal questão que se coloca é quem tem (ou deve ter) acesso a estes dados. Se estivermos a falar de dados de diagnóstico nas mãos dos hospitais e profissionais de saúde, o problema não é diferente do atual. Embora tenham havido alguns problemas [2], existem várias maneiras de assegurar a anonimização e a segurança dos dados. Neste caso, o  importante é que todas as entidades, especialmente as governamentais, conheçam os riscos e a necessidade de absoluta anonimização da informação e a garantam.

O problema maior está nos dados dispersos por várias plataformas, como é o caso dos  telemóveis, ou dados que podem não ser considerados sensíveis, como pesquisas no Google. Quando usamos o Google para procurar os nossos sintomas, estamos a dar uma indicação de possíveis doenças que temos. Esta informação é atualmente usada para fazer epidemiologia digital, quer pela própria Google, quer por cientistas, como é o caso do grupo onde me insiro na Nova SBE [3]. Esta informação é fundamental para os serviços de saúde se prepararem antecipadamente, mas também pode ser muito útil para farmacêuticas ou supermercados desenharem publicidade dirigida.

A captura de informação médica, quer a nível pessoal quer a nível populacional pode ser ainda mais subtil. Consegue-se, por exemplo, diagnosticar depressão através de posts no Facebook [4], ou através do modo como interagimos com o teclado [5]. Apesar de existir legislação anti-discriminação e de protecção de dados, neste momento não temos mecanismos que impeçam uma companhia de seguros de alterar prémios ou um empregador de excluir candidatos em função de diagnósticos feitos por inteligência artificial.

E se houver um diagnóstico errado, quem é responsável? O médico que seguiu a recomendação do algoritmo ou o programador que o escreveu? Muitos destes algoritmos são “caixas negras”, mesmo para quem os programa. Isto quer dizer que aceitam dados de entrada (ex. imagens de ecografias) e devolvem um resultado (ex. risco de enfarte). Como é que aquele número foi calculado? Muitas vezes ninguém sabe.

Para além disso, estes sistemas de inteligência artificial baseiam-se em dados agregados de milhares ou milhões de pessoas, que tentam depois prever riscos ou comportamentos individuais. Se o algoritmo foi testado na população americana, por exemplo, qual a probabilidade de se adequar à portuguesa? Isto pode levar a graves desigualdades na qualidade dos cuidados prestados. O mesmo se pode dizer das aplicações de telemóvel que nos recomendam fazer uma pausa, ou dar 10 000 passos por dia. Em que se baseiam essas recomendações? Será que são mesmo benéficas para mim, individualmente? Os algoritmos que nos dão recomendações, especialmente os da saúde, devem ser interpretáveis. Ou seja, devemos conseguir explicá-los aos utilizadores de modo a serem eles a tomar as suas decisões. Eu sei que não posso comer fast food todos os dias, mas se calhar tenho de fazê-lo de modo a ter tempo para brincar com os meus filhos. São escolhas que fazemos e que dependem de muito mais do que do impacto esperado na nossa saúde.

Isto leva-nos a uma última questão importante: as tentações de optimização não só a nível individual mas também societal. Combinando  informação sobre os nossos hábitos, começam a existir aplicações que nos dão recomendações (“está na hora da sua medicação”), sensores que confirmam o nosso comportamento (“ainda não tomou a sua medicação” [6]) e que podem facilmente evoluir para sistemas de penalização [7], muito tentadores.

Na verdade, aceitamos como sociedade que exista imposto sobre o tabaco, em parte porque fumadores serão tendencialmente mais caros ao sistema nacional de saúde. Tendo informação sobre comportamentos individuais devemos taxar mais alguém que não dê pelo menos os tais 10 000 passos por dia? E se sim, estes sistemas não irão penalizar ainda mais famílias pobres, para quem comer bem e ter tempo para fazer desporto é um verdadeiro luxo?

Mais uma vez, informação e recomendações podem  ser extremamente úteis para nós e para os profissionais que nos acompanham, mas até que ponto desejamos que estejam fora do controlo individual e possam ser utilizados como um sistema de controlo social?

Precisamos de criar mecanismos de controlo dos “mas”, minimizando-os sem que percamos as inúmeras vantagens dos “sim”.

Lília Perfeito
(A coluna Notas da Nova é uma contribuição para a reflexão na área da saúde, pelos membros do centro de conhecimento Nova SBE Health Economics & Management. São artigos de opinião da inteira responsabilidade dos autores.)

Esta crónica foi adaptada de uma análise mais longa publicada pelo jornal Público a 22 de Abril de 2019

Referências:
[1] https://www.publico.pt/2019/03/18/tecnologia/noticia/estudo-apple-watch-stanford-eua-1865847
[2] Como o ataque do vírus Wannacry que obrigou o sistema de saúde do Reino Unido (NHS) a cancelar consultas e redirecionar doentes.
[3] https://www.publico.pt/2017/02/08/ciencia/noticia/um-metodo-matematico-para-prever-ainda-melhor-quando-comeca-a-epoca-de-gripe-1761278
[4] https://www.pnas.org/content/115/44/11203
[5] https://www.publico.pt/2018/04/08/tecnologia/noticia/dizme-como-teclas-dirteei-como-te-sentes-1809358
[6] https://www.theverge.com/2017/11/14/16648166/fda-digital-pill-abilify-otsuka-proteus
[7] Como por exemplo imaginado no episódio Nosedive da série britânica Black Mirror https://www.imdb.com/title/tt5497778/

Envie este conteúdo a outra pessoa