banner
Centro de notícias
A certificação ISO é parte integrante do nosso modelo de negócios.

Grande modelo de linguagem prevê a readmissão do paciente

Jul 24, 2023

Receber alta do hospital é um marco importante para os pacientes - mas, às vezes, não é o fim do caminho para a recuperação. Quase 15% dos pacientes hospitalares nos EUA são readmitidos dentro de 30 dias após a alta inicial, o que geralmente está associado a piores resultados e custos mais altos para pacientes e hospitais.

Pesquisadores da NYU Langone Health, o centro médico acadêmico da Universidade de Nova York, colaboraram com especialistas da NVIDIA para desenvolver um modelo de linguagem grande (LLM) que prevê o risco de reinternação em 30 dias de um paciente, bem como outros resultados clínicos.

Implantado nas seis instalações de internação do sistema de saúde, o modelo NYUTron – apresentado hoje na revista científica Nature – fornece aos médicos insights orientados por IA que podem ajudá-los a identificar pacientes que precisam de uma intervenção clínica para reduzir a probabilidade de readmissão.

"Quando você dá alta a um paciente do hospital, não espera que ele precise retornar, ou provavelmente deveria tê-lo mantido no hospital por mais tempo", disse o Dr. Eric Oermann, professor assistente de radiologia e neurocirurgia na NYU Grossman School. of Medicine e um dos principais colaboradores do NYUTron. “Usando a análise do modelo de IA, em breve poderemos capacitar os médicos a prevenir ou corrigir situações que colocam os pacientes em maior risco de readmissão”.

Até agora, o modelo foi aplicado a mais de 50.000 pacientes que tiveram alta no sistema de saúde da NYU, onde ele compartilha previsões de risco de readmissão com médicos por meio de notificações por e-mail. A equipe de Oermann está planejando um ensaio clínico para testar se as intervenções baseadas nas análises do NYUTron reduzem as taxas de reinternação.

O governo dos EUA rastreia as taxas de readmissão em 30 dias como um indicador da qualidade dos cuidados que os hospitais estão oferecendo. Instituições médicas com altas taxas são multadas – um nível de escrutínio que incentiva os hospitais a melhorar seu processo de alta.

Existem muitas razões pelas quais um paciente recém-alta pode precisar ser readmitido no hospital – entre elas, infecção, prescrição excessiva de antibióticos, drenos cirúrgicos que foram removidos muito cedo. Se esses fatores de risco puderem ser detectados mais cedo, os médicos poderão intervir ajustando os planos de tratamento ou monitorando os pacientes no hospital por mais tempo.

“Embora existam modelos computacionais para prever a readmissão de pacientes desde a década de 1980, estamos tratando isso como uma tarefa de processamento de linguagem natural que requer um corpus de texto clínico em escala de sistema de saúde”, disse Oermann. "Treinamos nosso LLM nos dados não estruturados de registros eletrônicos de saúde para ver se ele poderia capturar informações que as pessoas não haviam considerado antes".

NYUTron foi pré-treinado em 10 anos de registros de saúde da NYU Langone Health: mais de 4 bilhões de palavras de notas clínicas representando quase 400.000 pacientes. O modelo obteve uma melhoria de precisão de mais de 10% em relação a um modelo de aprendizado de máquina de última geração para prever a readmissão.

Depois que o LLM foi treinado para o caso de uso inicial de readmissão de 30 dias, a equipe conseguiu desenvolver quatro outros algoritmos preditivos em cerca de uma semana. Isso inclui prever a duração da internação de um paciente, a probabilidade de mortalidade intra-hospitalar e as chances de os pedidos de seguro de um paciente serem negados.

"Administrar um hospital é, de certa forma, como administrar um hotel", disse Oermann. "Insights que ajudam os hospitais a operar com mais eficiência significam mais leitos e melhor atendimento para um número maior de pacientes".

O NYUTron é um LLM com centenas de milhões de parâmetros, treinado usando a estrutura NVIDIA NeMo Megatron em um grande cluster de GPUs NVIDIA A100 Tensor Core.

“Grande parte da conversa sobre modelos de linguagem agora é sobre modelos gigantescos de uso geral com bilhões de parâmetros, treinados em conjuntos de dados confusos usando centenas ou milhares de GPUs”, disse Oermann. “Em vez disso, estamos usando modelos de tamanho médio treinados em dados altamente refinados para realizar tarefas específicas de saúde”.