Atividades — Agentes de Inteligência Artificial na Medicina

Este conjunto de atividades foi elaborado para que você consolide, aprofunde e aplique os conceitos estudados no material deste módulo. Leia cada enunciado com atenção antes de iniciar a resolução. As atividades devem ser respondidas de forma dissertativa e fundamentada, com base exclusivamente no conteúdo do material didático. O que se espera de você não é uma listagem de tópicos memorizados, mas a demonstração de que você compreendeu os mecanismos, soube aplicá-los a situações novas e é capaz de raciocinar com propriedade sobre as implicações clínicas e éticas dos sistemas apresentados.


Atividade 1 — Identificando e classificando agentes de IA em cenários clínicos

Contexto

O departamento de tecnologia de um hospital universitário de grande porte conduziu uma auditoria interna de todos os sistemas computacionais que de alguma forma participam do cuidado ao paciente. Ao final, quatro sistemas foram destacados para revisão por apresentarem características que os tornam relevantes para a discussão sobre inteligência artificial em saúde. Cada sistema está descrito a seguir com o suficiente detalhe para que você possa analisá-lo tecnicamente.

Sistema Alfa — Unidade de Emergência: Desenvolvido internamente pela equipe de TI do hospital, o Sistema Alfa monitora continuamente os sinais vitais de todos os pacientes em atendimento na emergência. Sempre que a frequência cardíaca ultrapassa 120 bpm ou a saturação periférica de oxigênio cai abaixo de 92%, o sistema aciona um alerta sonoro e visual no painel central de enfermagem. Ele não registra histórico de alertas, não considera o contexto clínico do paciente e emite o alerta da mesma forma independentemente de o paciente estar em crise convulsiva, realizando esforço físico ou simplesmente com o sensor mal posicionado.

Sistema Beta — UTI Adulto: O Sistema Beta, adquirido de um fornecedor externo, acompanha continuamente um conjunto de 28 variáveis fisiológicas e laboratoriais de cada paciente internado na UTI. Ele mantém um modelo interno do estado de cada paciente desde a admissão, rastreia tendências ao longo do tempo e, quando identifica um padrão de deterioração progressiva nos últimos 90 minutos — como queda sustentada de pressão arterial média combinada a aumento de lactato e piora da diurese — envia ao médico plantonista, de forma autônoma, uma mensagem por WhatsApp com o resumo das alterações observadas e a recomendação de avaliação imediata. O sistema não propõe condutas, apenas alerta e resume a situação clínica.

Sistema Gama — Ambulatório de Diabetes: O Sistema Gama é uma interface integrada ao prontuário eletrônico que, quando o médico abre o registro de um paciente diabético tipo 2, exibe na lateral da tela o último valor de hemoglobina glicada, a média glicêmica dos últimos 14 dias pelo monitor contínuo e um gráfico de variabilidade glicêmica. Ele não gera alertas, não envia mensagens e não toma nenhuma ação por conta própria. Só exibe as informações quando o médico acessa o prontuário manualmente.

Sistema Delta — Clínica Oncológica: O Sistema Delta é um assistente autônomo integrado ao prontuário eletrônico da clínica oncológica. Ao identificar que um paciente em quimioterapia recebeu prescrição de um novo medicamento, ele consulta automaticamente uma base de dados de interações oncológicas, verifica se a combinação prescrita apresenta risco de toxicidade documentada, acessa o histórico de efeitos adversos anteriores do paciente, consulta as diretrizes vigentes para aquela combinação específica de agentes e, caso identifique risco, gera uma notificação ao médico prescritor com o risco identificado, as evidências que o embasam e as alternativas sugeridas pelas diretrizes — tudo antes que a farmácia libere a medicação.

O que você deve fazer

Analise cada um dos quatro sistemas descritos acima sob dois critérios distintos. O primeiro é a distinção fundamental discutida no início do material deste módulo: o sistema é um modelo de IA passivo ou um agente de IA? Justifique sua resposta identificando, no próprio enunciado, os elementos que levaram a essa classificação — perceba que essa distinção não depende da sofisticação do algoritmo interno, mas do padrão de funcionamento no ambiente. O segundo critério é a taxonomia de Russell e Norvig: para os sistemas que você classificar como agentes, identifique a qual tipo de agente cada um pertence — reativo simples, reativo com estado interno (baseado em modelo), baseado em objetivos, baseado em utilidade ou de aprendizado — e justifique detalhadamente por que as características descritas no enunciado correspondem àquele tipo e não a outro da mesma taxonomia. Para os sistemas que você classificar como modelos passivos, explique o que precisaria mudar em seu funcionamento para que ele se tornasse um agente reativo simples. Responda de forma dissertativa e integrada, sem tratar cada sistema de forma isolada.


Atividade 2 — Analisando um agente com function calling em contexto clínico

Contexto

Uma empresa de HealthTech está em fase final de desenvolvimento de um agente de IA destinado ao suporte à decisão terapêutica em pacientes com insuficiência cardíaca descompensada internados em enfermaria de cardiologia. O agente foi concebido para operar de forma contínua, monitorando o estado clínico dos pacientes e gerando recomendações de ajuste de terapia diurética com base em parâmetros de hidratação, função renal e equilíbrio eletrolítico.

A equipe de desenvolvimento descreveu o comportamento esperado do agente da seguinte forma:

Quando o agente identifica que um paciente com diagnóstico de insuficiência cardíaca descompensada internado há mais de 12 horas ainda apresenta sinais persistentes de congestão — como ausência de redução na creatinina, ausência de melhora do balanço hídrico ou persistência de pressão venosa jugular elevada nos registros de enfermagem —, ele inicia automaticamente um ciclo de avaliação. Nesse ciclo, o agente consulta os exames laboratoriais mais recentes do paciente no sistema de resultados do hospital, verifica os medicamentos diuréticos prescritos na dose atual e na história de doses anteriores nessa internação, acessa um repositório de diretrizes da Sociedade Brasileira de Cardiologia sobre manejo da insuficiência cardíaca aguda, e calcula a taxa de resposta diurética definida como a relação entre a diurese das últimas 6 horas e a dose total de furosemida administrada nesse período. Com base em todos esses dados integrados, o agente gera uma recomendação ao cardiologista responsável, sugerindo manutenção, aumento ou mudança de estratégia diurética, com o respectivo fundamento clínico e a referência às diretrizes consultadas. O agente não prescreve: apenas recomenda, e a recomendação fica registrada no prontuário eletrônico com identificação clara de que foi gerada por um sistema automatizado.

Após a apresentação do produto, um dos cardiologistas da equipe clínica fez o seguinte comentário: “O sistema parece útil, mas tenho dúvidas sobre o que acontece quando os dados estão incompletos. E me preocupa também a questão de o sistema consultar as diretrizes como se elas fossem verdade absoluta, sem levar em conta o contexto do paciente individual.”

O que você deve fazer

Sua tarefa é realizar uma análise técnica e clínica deste agente com base no conteúdo do material. Comece identificando e nomeando as ferramentas que o agente utiliza em seu ciclo de avaliação, explicando o papel de cada uma dentro da arquitetura de function calling descrita no material — distinguindo o que corresponde à busca de dados específicos do paciente e o que corresponde à busca de conhecimento generalista. Em seguida, aplique o conceito de RAG ao componente de consulta às diretrizes: explique por que essa escolha arquitetural é superior, neste contexto, a depender apenas do conhecimento que o LLM adquiriu durante o treinamento, e quais são as vantagens e os riscos dessa abordagem. Depois, responda ao cardiologista: como o material discute o problema de dados incompletos ou ausentes em agentes clínicos? O que o agente deveria fazer quando um dos dados que precisa consultar não está disponível no prontuário? Por fim, avalie a preocupação do cardiologista sobre a consulta às diretrizes: o agente como descrito usa as diretrizes de forma adequada ou há uma limitação arquitetural relevante nesse ponto? Fundamente todas as respostas exclusivamente no conteúdo do material deste módulo.


Atividade 3 — Responsabilidade, autonomia e consequências: um caso para análise ética e jurídica

Contexto

Leia com atenção o caso hipotético a seguir. Ele foi construído para representar uma situação com múltiplas dimensões clínicas, técnicas e éticas que se inter-relacionam.

Um hospital de médio porte do interior de São Paulo implantou, há oito meses, um agente de IA para suporte ao manejo de anticoagulação em pacientes com fibrilação atrial internados em enfermaria de clínica médica. O agente foi adquirido de uma empresa nacional e opera de forma autônoma: a cada seis horas, ele acessa o prontuário eletrônico de cada paciente elegível, consulta os resultados de coagulação mais recentes, verifica os medicamentos prescritos e o histórico de eventos tromboembólicos ou hemorrágicos, calcula o escore CHA₂DS₂-VASc e o HAS-BLED de cada paciente com base nos dados disponíveis, e então gera uma notificação ao médico responsável com a recomendação de anticoagulação — manter, ajustar dose ou suspender.

O protocolo de implantação previa que as recomendações do agente seriam apenas sugestivas e que o médico responsável deveria revisá-las antes de qualquer alteração de prescrição. No entanto, após os primeiros três meses de uso, a equipe médica — sobrecarregada com a alta ocupação da enfermaria — passou a aceitar as recomendações do agente sem revisão crítica sistemática, em especial nos períodos noturnos, quando há apenas um plantonista para trinta e dois leitos.

Na noite de uma sexta-feira, o agente avaliou uma paciente de setenta e quatro anos com histórico de fibrilação atrial, hipertensão controlada e função renal limítrofe — creatinina de 1,4 mg/dL. O exame de coagulação mais recente no prontuário eletrônico tinha 72 horas e mostrava INR dentro da faixa terapêutica para uso de varfarina. O agente não identificou que, nas últimas 24 horas, a paciente havia recebido dois dias de azitromicina prescrita por um clínico de outro setor em uma consulta intercorrente — a prescrição estava em outro módulo do sistema hospitalar, fora do escopo de acesso do agente. Com base nos dados a que tinha acesso, o agente calculou o HAS-BLED como moderado e recomendou manutenção da dose de varfarina. O médico plantonista aceitou a recomendação sem revisar manualmente o prontuário completo. Na manhã seguinte, a paciente foi encontrada com hematoma subdural espontâneo, subsequentemente confirmado como evento hemorrágico grave relacionado a supracoagulação — a interação entre varfarina e azitromicina havia elevado o INR para valores supraterapeêuticos.

A família da paciente ingressou com ação judicial contra o hospital, o médico plantonista e a empresa desenvolvedora do agente.

Este caso envolve dimensões que se interpenetram: arquitetural, clínica, ética, jurídica e de processo de implantação. Responda de forma integrada, como se estivesse elaborando um parecer técnico para o conselho de administração do hospital.

O que você deve fazer

Sua análise deve percorrer quatro dimensões, de forma dissertativa e coesa, como se fossem partes de um único documento analítico.

A primeira dimensão é arquitetural: identifique a limitação estrutural do agente que contribuiu diretamente para o evento adverso. Com base nos conceitos de percepção e de escopo de acesso discutidos no material, explique por que essa limitação não é apenas um bug corrigível, mas uma consequência de uma decisão arquitetural sobre o que o agente percebe em seu ambiente. Aplique o conceito de ambiente parcialmente observável ao caso e explique por que um agente que opera em ambiente de observabilidade parcial requer estratégias especiais de gestão de incerteza.

A segunda dimensão é o espectro de autonomia: o material deste módulo apresenta diferentes níveis de autonomia de agentes clínicos, desde sistemas que apenas sugerem com interação humana obrigatória até sistemas que atuam de forma completamente autônoma. Posicione o agente descrito no caso nesse espectro tanto como foi projetado quanto como estava sendo usado na prática. Discuta se o nível de autonomia de operação prática era compatível com o perfil de risco das decisões que o agente apoiava, fundamentando sua resposta nos critérios discutidos no material.

A terceira dimensão é a responsabilidade jurídica e ética: o material discute a questão de quem é responsável quando um agente de IA comete um erro que prejudica um paciente. Aplique essa discussão ao caso, identificando as responsabilidades do médico plantonista, do hospital e da empresa desenvolvedora. Discuta especificamente o que o material diz sobre o papel da supervisão humana como condição para responsabilização médica e como a prática de aceitação sistemática sem revisão crítica altera essa equação.

A quarta dimensão é a prevenção: com base em tudo o que o material apresenta sobre design seguro de agentes, supervisão humana e gestão de falhas, proponha três mudanças concretas — uma arquitetural, uma de processo de implantação e uma de protocolo clínico — que, se implementadas antes do evento, poderiam ter prevenido o desfecho adverso. Justifique cada mudança com os conceitos do material.