Ir direto para menu de acessibilidade.
Início do conteúdo da página

O impacto das inteligências artificiais na tomada de decisões médicas

Publicado: Terça, 04 de Junho de 2024, 09h56 | Última atualização em Quarta, 05 de Junho de 2024, 09h56 | Acessos: 895

Como os grandes modelos de linguagem estão transformando diagnósticos, tratamentos e cuidados, enquanto enfrentam desafios éticos e de precisão

A revista médica The New England Journal of Medicine recentemente publicou um artigo que aborda a integração de inteligências artificiais (IA) na tomada de decisões médicas. O estudo destaca a importância de considerar os valores humanos em modelos de linguagem artificial (LLMs), que podem influenciar significativamente as decisões médicas.

O que são LLMs?

LLMs são modelos de linguagem treinados com grandes conjuntos de dados, capazes de gerar texto original e responder a perguntas. Eles são usados em diversas aplicações, incluindo a interpretação de imagens médicas e a classificação de doenças.

Valores humanos em jogo

O artigo destaca que os valores humanos são incorporados nos LLMs desde o início do treinamento. Isso ocorre porque os dados utilizados para treinar os modelos refletem os valores e preconceitos da sociedade. Além disso, a forma como os modelos são treinados e fine-tunados* também pode influenciar os valores que eles refletem.

Exemplos de valores incorporados

O estudo apresenta vários exemplos de como os valores humanos são incorporados nos LLMs. Por exemplo, um modelo de diagnóstico de doenças pode ser treinado com dados que incluem informações sobre a raça dos pacientes, o que pode influenciar a precisão do diagnóstico. Outro exemplo é o uso de modelos de linguagem para gerar mensagens empáticas para pacientes, o que pode refletir valores humanos como a empatia e a compaixão.

Desafios e perspectivas

O artigo destaca que a integração de LLMs na tomada de decisões médicas apresenta desafios significativos. Além de considerar os valores humanos, é necessário garantir que os modelos sejam seguros e não perpetuem preconceitos. Ainda, é fundamental que os médicos e outros profissionais de saúde sejam treinados para trabalhar com esses modelos e entender como eles podem influenciar as decisões médicas.

O artigo conclui que a integração de LLMs na tomada de decisões médicas é um passo importante para melhorar a qualidade da atenção médica. No entanto, é fundamental que os valores humanos sejam considerados ao longo do desenvolvimento e uso desses modelos. A conscientização sobre a influência dos valores humanos nos LLMs é crucial para garantir que esses modelos sejam usados de forma ética e segura.

Exemplos de Uso de LLMs em Medicina

O artigo apresenta vários exemplos de como os LLMs são usados em medicina. Por exemplo, um modelo de linguagem pode ser treinado para gerar mensagens empáticas para pacientes, o que pode refletir valores humanos como a empatia e a compaixão. Outro exemplo é o uso de modelos de linguagem para ajudar a diagnosticar doenças, como a classificação de doenças de pele.

No artigo também há  destaque para a integração de LLMs na tomada de decisões médicas apresenta desafios significativos. Além de considerar os valores humanos, é necessário garantir que os modelos sejam seguros e não perpetuem preconceitos. Ainda, é fundamental que os médicos e outros profissionais de saúde sejam treinados para trabalhar com esses modelos e entender como eles podem influenciar as decisões médicas.

O que é fine-tuning?

Fine-tuning é um processo de ajustamento e refinamento de modelos de linguagem artificial (LLMs) para melhorar sua performance e precisão em tarefas específicas. Este ajustamento é feito com base em dados de treinamento adicionais e feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.O fine-tuning é uma fase importante no desenvolvimento de LLMs, pois permite que o modelo seja adaptado para diferentes contextos e aplicações. Isso é especialmente útil quando o modelo precisa ser ajustado para atender a necessidades específicas de um determinado setor ou indústria, como a medicina, por exemplo.Durante o fine-tuning, os modelos são submetidos a uma série de ajustes e refinamentos, incluindo:

  1. Supervisionado fine-tuning: Nesse método, os modelos são treinados com dados de treinamento adicionais e feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.
  2. Reinforcement learning from human feedback: Nesse método, os modelos são treinados com feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.

Esses ajustes e refinamentos permitem que os modelos sejam adaptados para diferentes contextos e aplicações, tornando-os mais precisos e eficazes em suas tarefas específicas.

 

Autoria: Msc. Andrea Pereira Simões Pelogi
Revisão: Prof. Dra. João Brainer Clares de Andrade

 

Referências

  1. Yu, K.-H., Healey, E., Leong, T.-Y., Kohane, I. S., & Manrai, A. K. (2024). Medical Artificial Intelligence and Human Values. The New England Journal of Medicine, 390(20), 1895-1904. DOI: 10.1056/NEJMra2214183



 

 

Estrela inativaEstrela inativaEstrela inativaEstrela inativaEstrela inativa
 
Categoria:

Insegurança alimentar atinge 12,5% da população em São Paulo

Inquérito conduzido por docentes da Unifesp revela disparidades socioeconômicas e destaca a...

As inscrições para as Chamadas de 2024 do CNPq estão abertas

Prezados(as) pesquisadores(as), A Assessoria de Pesquisa, Parceria e Inovação da Escola Paulista de...

Redução de morte súbita em pacientes com doença de Chagas com uso de CDI

Pesquisa publicada no JAMA Cardiology, com participação do docente da Unifesp Angelo Amato de...

Fim do conteúdo da página