Terapias Alívio da Dor & Outros - by dorcronica.blog.br

O lado negro da inteligência artificial na área da saúde

O lado negro da inteligência artificial na área da saúde

Um novo tipo de tecnologia de inteligência artificial está se espalhando rapidamente pela área médica, à medida que os cientistas desenvolvem sistemas que podem identificar sinais de doenças e enfermidades em uma ampla variedade de imagens, de radiografias dos pulmões a varreduras do cérebro. Esses sistemas prometem ajudar os médicos a avaliar os pacientes de maneira mais eficiente e menos dispendiosa do que no passado. Os cientistas temem, todavia, que com apenas pequenos ajustes nos dados, as redes neurais possam ser enganadas e cometer “ataques adversários” capazes de enganar em vez de ajudar. Detectando doenças inexistentes, por exemplo.

“A Inteligência Artificial pode ser o maior acontecimento da história da humanidade. Ou também o último, a menos que aprendamos como evitar os riscos.”

– Stephen Hawking

Autores: Cade Metz e Craig S. Smith

Em 2018, o FDA (Food and Drug Administration) Estados Unidos aprovou um dispositivo que pode capturar uma imagem da sua retina e detectar automaticamente sinais de cegueira diabética.

É provável que formas semelhantes de inteligência artificial ultrapassem os hospitais e cheguem aos sistemas informáticos utilizados pelos reguladores dos cuidados de saúde, empresas de faturamento e pelos prestadores de seguros. Assim como a IA ajudará os médicos a verificar seus olhos, pulmões e outros órgãos, ajudará as seguradoras a determinar pagamentos de reembolso e taxas de apólices.

Idealmente, tais sistemas melhorariam a eficiência do sistema de saúde. Mas podem ter consequências indesejadas, disse um grupo de pesquisadores de Harvard e do M.I.T.

Um artigo recentemente publicado na revista Science, levanta a possibilidade de “ataques adversários” – manipulações que podem mudar o comportamento da sistemas de IA que usam pequenos pedaços de dados digitais. Ao alterar alguns pixels em uma tomografia pulmonar, por exemplo, alguém poderia enganar um sistema de IA para ver uma doença que não existe realmente, ou não ver uma que existe.

Os desenvolvedores de software e reguladores devem considerar tais cenários, à medida que constroem e avaliam tecnologias de IA nos próximos anos, argumentam os autores. A preocupação é menor que os hackers possam fazer com que os pacientes sejam diagnosticados incorretamente, embora esse potencial exista. O mais provável é que médicos, hospitais e outras organizações possam manipular a inteligência artificial embarcada em softwares de cobrança ou seguro, em um esforço para maximizar o dinheiro que chega até eles.

Samuel Finlayson, pesquisador da Harvard Medical School e do M.I.T. e um dos autores do artigo, alertaram que, devido ao fato de tanto dinheiro mudar de mãos no setor dos cuidados de saúde, as partes interessadas atualmente já tentam enganar o sistema, alterando sutilmente os códigos de faturamento e outros dados nos sistemas informáticos que rastreiam as visitas aos cuidados de saúde. A IA poderia agravar o problema. “A ambiguidade inerente à informação médica, juntamente com incentivos financeiros muitas vezes concorrentes, permite que decisões de alto risco dependam de informações muito sutis”, disse ele.

O novo artigo aumenta o sentimento crescente de preocupação com a possibilidade de tais ataques, que poderiam ser direcionados a tudo, desde serviços de reconhecimento facial e carros sem motorista para leitores de íris e impressões digitais.

Um ataque adversário explora um aspecto fundamental da forma como muitos dos sistemas de IA são projetados e construídos. Cada vez mais, a inteligência artificial é impulsionada por redes neurais, sistemas matemáticos complexos que aprendem tarefas em grande parte por conta própria, analisando grandes quantidades de dados.

Ao analisar milhares de exames oftalmológicos, por exemplo, uma rede neural pode aprender a detectar sinais de cegueira diabética. Esse “aprendizado de máquina” acontece em uma escala tão enorme – o comportamento humano é definido por inúmeros dados díspares – que pode produzir seu próprio comportamento inesperado.

“Ao resumir fatos, a tecnologia ChatGPT inventa coisas cerca de 3% das vezes. Num estudo, a taxa do sistema Google foi de 27%.”

Em 2016, uma equipe da Carnegie Mellon usou padrões impressos em armações de óculos para enganar os sistemas de reconhecimento facial e fazê-los pensar que os usuários eram celebridades. Quando os pesquisadores usaram as armações, os sistemas as confundiram com pessoas famosas, incluindo Milla Jovovich e John Malkovich.

Um grupo de pesquisadores chineses utilizou um truque semelhante ao projetar luz infravermelha da parte inferior da aba de um chapéu no rosto de quem usava o chapéu. A luz era invisível para o usuário, mas poderia enganar um sistema de reconhecimento facial fazendo-o pensar que o usuário era uma pessoa caucasiana, e não uma asiática.

Os pesquisadores também alertaram que “ataques adversários” podem enganar os carros autônomos, fazendo-os ver coisas que não existem. Ao fazer pequenas alterações nos sinais de trânsito, eles enganaram os carros para que detectassem outro sinal que não de pare.

No final do ano passado, engenheiros da New York University criaram impressões digitais virtuais capazes de enganar os leitores de impressões digitais 22% das vezes. Em outras palavras, 22% de todos os telefones ou PCs que usavam esses leitores poderiam ser potencialmente desbloqueados.

As implicações são profundas, dada a crescente prevalência de dispositivos de segurança biométricos e outras tecnologias de sistemas de IA. A Índia Índia implementou o maior sistema de identidade baseado em impressões digitais do mundo, para distribuir subsídios e serviços governamentais. Os bancos estão introduzindo acesso de reconhecimento facial aos caixas eletrônicos. Empresas como a Waymo, que pertence à mesma controladora do Google, estão testando carros autônomos em vias públicas.

Agora, Finlayson e seus colegas deram o mesmo alarme na área médica: à medida que reguladores, seguradoras e empresas de cobrança começam a usar inteligência artificial em seus sistemas de software, as empresas podem aprender a manipular os algoritmos subjacentes.

Se uma seguradora usar IA para avaliar exames médicos, por exemplo, um hospital poderia manipular os exames num esforço para aumentar os pagamentos. Se os reguladores construírem sistemas de IA para avaliar novas tecnologias, os fabricantes de dispositivos poderiam alterar imagens e outros dados em um esforço para enganar o sistema e fazer com que este conceda aprovação regulatória.

No seu artigo, os pesquisadores demonstraram que, ao alterar um pequeno número de pixels numa imagem de uma lesão cutânea benigna, um sistema de IA de diagnóstico poderia ser enganado para identificar a lesão como maligna. Simplesmente girar a imagem também poderia ter o mesmo efeito, descobriram eles.

Pequenas alterações nas descrições escritas da condição de um paciente também podem alterar o diagnóstico: “Abuso de álcool” pode produzir um diagnóstico diferente de “dependência de álcool” e “lumbago” pode produzir um diagnóstico diferente de “dor nas costas”.

Por sua vez, alterar esses diagnósticos de uma forma ou de outra poderia beneficiar prontamente as seguradoras e as agências de cuidados de saúde que, em última análise, lucram com eles. Uma vez que a IA está profundamente enraizada no sistema de saúde, argumentam os pesquisadores, as empresas adotarão gradualmente um comportamento que gere mais dinheiro.

O resultado final pode prejudicar os pacientes, disse Finlayson. Mudanças que os médicos fazem em exames médicos ou outros dados de pacientes em um esforço para satisfazer a IA usados ​​pelas companhias de seguros podem acabar no registro permanente do paciente e afetar decisões futuras.

Médicos, hospitais e outras organizações às vezes manipulam os sistemas de software que controlam os bilhões de dólares movimentados pela indústria. Os médicos, por exemplo, alteraram sutilmente os códigos de cobrança – por exemplo, descrevendo um simples raio X como uma varredura mais complicada – em um esforço para aumentar os pagamentos.

Hamsa Bastani, professor assistente da Wharton Business School da Universidade da Pensilvânia Estados Unidos, que estudou a manipulação dos sistemas de saúde, acredita que se trata de um problema significativo. “Alguns dos comportamentos não são intencionais, mas nem todos”, disse ela.

Como especialista em sistemas de aprendizado de máquina, ela questionou se a introdução da IA piorará o problema. Realizar um “ataque adversário” no mundo real é difícil e ainda não está claro se os reguladores e as companhias de seguros adotarão os tipos de algoritmo de aprendizagem automática que são vulneráveis ​​a tais ataques.

Mas, acrescentou ela, vale a pena ficar de olho. “Sempre há consequências não intencionais, especialmente na área de cuidados de saúde”, disse ela.

Cadastre-se E receba nosso newsletter

Veja outros posts relacionados…

nenhum

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

CONHEÇA FIBRODOR, UM SITE EXCLUSIVO SOBRE FIBROMIALGIA
CLIQUE AQUI