Enquanto as figuras políticas e o público em geral debatem se a inteligência artificial é uma ameaça aos valores sociais, uma realidade mais prática e urgente está a revelar-se: A IA já está a ser integrada no tecido da vida quotidiana.
O discurso actual, exemplificado pelos recentes avisos de figuras como o senador Bernie Sanders, centra-se fortemente nos riscos da IA – que vão desde a deslocação de empregos até à desinformação. No entanto, este enquadramento baseado no medo corre o risco de criar uma paralisia perigosa. Para sectores críticos como a saúde pública, o perigo real não é a tecnologia em si, mas a decisão de “ficar de fora”.
O Paradoxo da Adoção e Confiança
Há uma contradição impressionante na forma como os americanos interagem com a IA. Embora o ceticismo seja alto, o uso é generalizado:
– Uso generalizado: Mais da metade dos americanos usam IA para pesquisa, redação e análise profissional.
– Baixa confiança: Apenas cerca de uma em cada cinco pessoas relata confiar em informações geradas por IA na maior parte do tempo.
Isto sugere que não estamos rejeitando a tecnologia; em vez disso, estamos a experimentar uma “adoção com hesitação”. Se esta hesitação não for gerida através de um envolvimento ativo, provavelmente transformar-se-á num desligamento total, deixando as decisões mais importantes a serem tomadas por aqueles que não partilham as mesmas prioridades éticas ou de segurança.
O risco da herança passiva
No campo da saúde pública, a cautela é uma virtude. Os riscos envolvem dados sensíveis e vidas humanas. No entanto, existe uma linha tênue entre ser cauteloso e evitar.
Enquanto os profissionais de saúde pública debatem a ética abstracta da IA, outros sectores já a estão a implementar para impulsionar a tomada de decisões e a entrega de informações. Se o sector da saúde pública esperar pela certeza absoluta antes de agir, perderá a sua capacidade de moldar a tecnologia. Em vez de liderar, esses profissionais serão forçados a herdar sistemas que não projetaram.
IA como ferramenta de extensão, não de substituição
A IA já está realizando tarefas que as agências de saúde pública muitas vezes têm dificuldade para escalar. Não é um substituto da experiência humana, mas uma extensão dela. As aplicações atuais incluem:
– Simplificando a comunicação: Traduzindo orientações médicas complexas em uma linguagem simples e acessível.
– Adaptação do público: Adaptação de mensagens de saúde pública para diversos grupos demográficos.
– Resposta rápida: Geração de rascunhos e comunicações iniciais durante crises de saúde em rápida evolução.
– Reconhecimento de padrões: identificação de tendências no feedback público que os analistas humanos podem perder.
Numa indústria que carece cronicamente de recursos, estas capacidades oferecem uma forma de amplificar o impacto do pessoal existente.
Guarda-corpos vs. Paredes: uma distinção estratégica
O debate muitas vezes fica preso sobre a possibilidade de regulamentar ou rejeitar a IA. Para avançar, devemos distinguir entre duas abordagens diferentes:
- Construindo barreiras de proteção: Estabelecendo regras para supervisão humana, privacidade de dados e integridade científica. É isto que agências como o CDC estão a começar a fazer – passando do estudo da IA para a sua utilização responsável.
- Construir muros: Criar barreiras que atrasam totalmente o envolvimento.
O objetivo deve ser construir guarda-corpos, não paredes. Os Guardrails definem como uma tecnologia pode ser usada com segurança; as paredes simplesmente garantem que, quando você estiver pronto para entrar, as regras já tenham sido escritas por outra pessoa.
Abordando o Elemento Humano: Empregos e Treinamento
O medo de que a IA reduza as oportunidades de emprego é partilhado por 70% dos americanos. Embora esta seja uma preocupação legítima, a história mostra que as novas ferramentas tendem a remodelar o trabalho em vez de simplesmente eliminá-lo.
A questão crítica para a liderança não é se a IA mudará os empregos, mas como a força de trabalho está sendo preparada. As agências estão investindo em treinamento? Há espaço para experimentação? Ou estará a cultura institucional a sinalizar que é “mais seguro” ignorar a tecnologia?
A escolha para a saúde pública não é entre a aceitação e a rejeição, mas entre moldar a tecnologia e ser forçado a adaptar-se a ela mais tarde.
Conclusão
A profissão de saúde pública encontra-se numa encruzilhada. Em vez de permitirem que o medo dite uma política de evitação, os líderes devem avançar para um envolvimento activo e responsável. Ao ajudar a definir agora os limites éticos e práticos da IA, podem garantir que a tecnologia serve o bem público em vez de o ditar.
