A inteligência artificial está se consolidando como uma aliada promissora na prática radiológica. Um estudo publicado recentemente na revista Radiology avaliou e quantificou os avanços da IA em grandes modelos de linguagem multimodais (LLMs) na interpretação de Casos do Dia (usados nos Congressos da RSNA de 2024 e 2023), examinando conteúdo de imagem e texto ao longo de um ano.
A conclusão diz que os LLMs demonstraram avanços substanciais, com os modelos mais recentes do OpenAI superando os do Google e do Meta e – talvez o mais assustador? – não houve evidência de diferença estatisticamente significativa entre a acurácia do OpenAI e a acurácia dos dois radiologistas.
Convidamos o Dr. Felipe Kitamura, radiologista e entusiasta da inteligência artificial, para comentar os principais achados do artigo e refletir sobre os impactos para a prática médica, o papel da IA como ferramenta de apoio e possíveis conexões com iniciativas, como o Desafio de IA promovido pela nossa sociedade.
Confira a seguir a entrevista.
No caso de quiz, que pode ter um conteúdo simplificado, a IA se equiparou de vez aos profissionais? Isso é perda de mercado pela máquina?
O estudo mostrou que, em um quiz de múltipla escolha (o Case of the Day da RSNA, que é uma atividade educacional e não prática clínica real), o modelo mais avançado da OpenAI (o o1) obteve 59% de acerto, valor muito próximo ao de dois radiologistas experientes, que tiveram 58% e 66% de acerto. Porém, isso não significa que a máquina substitui o radiologista!
O quiz é um ambiente controlado, simplificado, sem contexto clínico completo, sem interação com equipe, paciente, prontuário ou comparação com exames prévios. Na prática, esses fatores são cruciais. O quiz também contém casos com dificuldade muito peculiares, que não refletem o dia a dia da maioria dos radiologistas. Portanto, não é “perda de mercado”, é um sinal de que a IA está evoluindo e pode se tornar uma ferramenta de apoio poderosa, mas ainda não tem a capacidade de assumir integralmente a função do médico.
Poderia explicar um pouco sobre os LLMs multimodais, como funcionam?
LLMs (Large Language Models) multimodais são modelos de IA treinados para lidar com diferentes tipos de dados ao mesmo tempo, como texto e imagem. Em termos simples: enquanto um modelo tradicional de IA só “lê” texto, um multimodal consegue “ler” texto e “olhar” imagens, combinando as duas fontes de informação. É por isso que começam a ser comparados a radiologistas, que também usam texto (história clínica) e imagens para chegar a um diagnóstico.
Tentando olhar por uma perspectiva otimista, que lição ou resultado podemos tirar deste estudo? Que tipo de “braço” o médico radiologista ganha com esta constatação?
A grande lição é que os modelos estão avançando rapidamente e já conseguem alcançar desempenho comparável a especialistas em tarefas específicas. Ao mesmo tempo que podem servir como um “braço” a mais para nos lembrar de diagnósticos diferenciais em casos difíceis, é importante não nos esquecermos que esses modelos ainda erram com bastante frequência na análise de imagens médicas, pois não foram treinados especificamente para essa tarefa ainda.
Podemos recomendar um uso específico do Chat GPT aos médicos radiologistas, a partir do que foi verificado neste estudo?
O ChatGPT (e ferramentas semelhantes) já está sendo utilizado por colegas radiologistas com frequência. É importante lembrar que o nosso julgamento clínico é imperativo. A ferramenta certamente pode ajudar em muitos casos, mas sem o julgamento clínico corremos o risco de erro grosseiro. É importante reconhecer que essas ferramentas são altamente persuasivas mesmo nos casos em que elas estão erradas.
Há alguma forma de linkarmos nosso “Desafio de IA da SPR” com o que foi feito no estudo?
Há um paralelo, uma intersecção, no desenvolvimento dele e do que pedimos aos concorrentes do Desafio. A interseção está no espírito educacional e científico: mostrar os limites e avanços das IAs, estimular a discussão crítica e preparar a comunidade médica para lidar com essas ferramentas.