O impacto das inteligências artificiais na tomada de decisões médicas
Como os grandes modelos de linguagem estão transformando diagnósticos, tratamentos e cuidados, enquanto enfrentam desafios éticos e de precisão
A revista médica The New England Journal of Medicine recentemente publicou um artigo que aborda a integração de inteligências artificiais (IA) na tomada de decisões médicas. O estudo destaca a importância de considerar os valores humanos em modelos de linguagem artificial (LLMs), que podem influenciar significativamente as decisões médicas.
O que são LLMs?
LLMs são modelos de linguagem treinados com grandes conjuntos de dados, capazes de gerar texto original e responder a perguntas. Eles são usados em diversas aplicações, incluindo a interpretação de imagens médicas e a classificação de doenças.
Valores humanos em jogo
O artigo destaca que os valores humanos são incorporados nos LLMs desde o início do treinamento. Isso ocorre porque os dados utilizados para treinar os modelos refletem os valores e preconceitos da sociedade. Além disso, a forma como os modelos são treinados e fine-tunados* também pode influenciar os valores que eles refletem.
Exemplos de valores incorporados
O estudo apresenta vários exemplos de como os valores humanos são incorporados nos LLMs. Por exemplo, um modelo de diagnóstico de doenças pode ser treinado com dados que incluem informações sobre a raça dos pacientes, o que pode influenciar a precisão do diagnóstico. Outro exemplo é o uso de modelos de linguagem para gerar mensagens empáticas para pacientes, o que pode refletir valores humanos como a empatia e a compaixão.
Desafios e perspectivas
O artigo destaca que a integração de LLMs na tomada de decisões médicas apresenta desafios significativos. Além de considerar os valores humanos, é necessário garantir que os modelos sejam seguros e não perpetuem preconceitos. Ainda, é fundamental que os médicos e outros profissionais de saúde sejam treinados para trabalhar com esses modelos e entender como eles podem influenciar as decisões médicas.
O artigo conclui que a integração de LLMs na tomada de decisões médicas é um passo importante para melhorar a qualidade da atenção médica. No entanto, é fundamental que os valores humanos sejam considerados ao longo do desenvolvimento e uso desses modelos. A conscientização sobre a influência dos valores humanos nos LLMs é crucial para garantir que esses modelos sejam usados de forma ética e segura.
Exemplos de Uso de LLMs em Medicina
O artigo apresenta vários exemplos de como os LLMs são usados em medicina. Por exemplo, um modelo de linguagem pode ser treinado para gerar mensagens empáticas para pacientes, o que pode refletir valores humanos como a empatia e a compaixão. Outro exemplo é o uso de modelos de linguagem para ajudar a diagnosticar doenças, como a classificação de doenças de pele.
No artigo também há destaque para a integração de LLMs na tomada de decisões médicas apresenta desafios significativos. Além de considerar os valores humanos, é necessário garantir que os modelos sejam seguros e não perpetuem preconceitos. Ainda, é fundamental que os médicos e outros profissionais de saúde sejam treinados para trabalhar com esses modelos e entender como eles podem influenciar as decisões médicas.
O que é fine-tuning?
Fine-tuning é um processo de ajustamento e refinamento de modelos de linguagem artificial (LLMs) para melhorar sua performance e precisão em tarefas específicas. Este ajustamento é feito com base em dados de treinamento adicionais e feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.O fine-tuning é uma fase importante no desenvolvimento de LLMs, pois permite que o modelo seja adaptado para diferentes contextos e aplicações. Isso é especialmente útil quando o modelo precisa ser ajustado para atender a necessidades específicas de um determinado setor ou indústria, como a medicina, por exemplo.Durante o fine-tuning, os modelos são submetidos a uma série de ajustes e refinamentos, incluindo:
- Supervisionado fine-tuning: Nesse método, os modelos são treinados com dados de treinamento adicionais e feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.
- Reinforcement learning from human feedback: Nesse método, os modelos são treinados com feedback humanos, que permitem que o modelo aprenda a melhorar sua resposta para perguntas e tarefas específicas.
Esses ajustes e refinamentos permitem que os modelos sejam adaptados para diferentes contextos e aplicações, tornando-os mais precisos e eficazes em suas tarefas específicas.
Autoria: Msc. Andrea Pereira Simões Pelogi
Revisão: Prof. Dra. João Brainer Clares de Andrade
Referências
-
Insegurança alimentar atinge 12,5% da população em São Paulo
07/11/2024
Inquérito conduzido por docentes da Unifesp revela disparidades socioeconômicas e destaca a...
-
Redução de morte súbita em pacientes com doença de Chagas com uso de CDI
22/10/2024
Pesquisa publicada no JAMA Cardiology, com participação do docente da Unifesp Angelo Amato de...
-
Mortalidade por câncer supera a de doenças cardiovasculares em 727 municípios no Brasil
14/10/2024
Pesquisa revela mudança nas principais causas de mortalidade no Brasil entre 2000 e 2019,...
-
Estudo revela novos fatores de risco para demência e abre caminhos para prevenção no Brasil
26/08/2024
Publicado na revista The Lancet, estudo elaborado por uma comissão da qual a pesquisadora Cleusa Ferri da...