Terapias Alívio da Dor & Outros - by dorcronica.blog.br

O impacto da inteligência artificial na relação médico-paciente – Parte 2

O impacto da inteligência artificial na relação médico-paciente – Parte 2

Esta segunda parte da postagem que resume os destaques do artigo “O impacto da inteligência artificial na relação médico-paciente centrada na pessoa”, focaliza dois aspectos dessa relação e depois finaliza resumindo suas conclusões. O primeiro aspecto se refere a suspeita de que um sistema de saúde assistido por IA, despreze as competências humanas dos profissionais da saúde se os pacientes e os sistemas de saúde começarem a valorizar a maior precisão e eficácia das ferramentas de IA em detrimento de valores sociais humanos. A segunda questão é se o impacto da IA na relação médico-paciente influenciará e será influenciado pela educação dos profissionais médicos.

Autores: Aurelia Sauerbrei, Angeliki Kerasidou, Federica Lucivero e Nina Hallowell

Os médicos podem ter mais tempo para conversar com os pacientes, mas se não forem capazes de fornecer as explicações necessárias sobre certas decisões/prognósticos e/ou diagnósticos de tratamento sugeridos pela IA, os benefícios do tempo extra podem ser limitados.7 Em resumo, a literatura emergente está dividida sobre se a IA irá melhorar a relação médico-paciente, incentivando a tomada de decisões partilhada através do aumento da autonomia do paciente, ou criar uma nova forma de paternalismo, ao impedir a pluralidade de valores.

A tensão entre relações médico-paciente

Bauchat et al. argumentam que a empatia constitui a pedra angular do cuidado centrado na pessoa.64,65,66,67 A empatia pode ser descrita como “…a capacidade de compreender o ponto de vista de uma pessoa, a sua experiência de doença e, através desta ressonância cognitiva, sentir-se motivado para ajudá-la…”.68 A empatia facilita a compreensão dos médicos sobre a doença do ponto de vista do paciente, bem como dos valores e objetivos individuais dos pacientes.15 No entanto, médicos e pacientes devem ser capazes de participar de discussões significativas para que os médicos possam apreciar e compreender o ponto de vista do paciente. A prática da empatia, portanto, requer tempo.26, 69

Já existem algumas evidências que sugerem que a IA pode poupar o tempo dos médicos. Printz explica que a ferramenta de IA Watson for Oncology precisa de 40 segundos para capturar e analisar dados e, em seguida, gerar recomendações de tratamento com base nos dados disponíveis.49 Em comparação, a coleta e análise manual dos dados leva em média 20 minutos, diminuindo para 12 minutos quando os oncologistas se tornam mais familiarizados com os casos.49

Não está claro, entretanto, se esse tempo economizado será usado para melhorar a relação médico-paciente.

Sparrow e Hatherley23, por outro lado, sugerem que a economia dos cuidados de saúde, especialmente em ambientes com fins lucrativos, mas também no setor público, fará com que mais pacientes passem pelo sistema e mais tarefas sejam assumidas pelos pacientes. Eles argumentam que não há razão para acreditar que o tempo economizado pelo uso da IA ​​resultará em relações médico-paciente mais empáticas, mas sim permitirá um maior rendimento dos pacientes.

“A maioria dos médicos tem que se apressar nas consultas, para desgosto dos pacientes. Portanto, não é nenhuma surpresa que 71% dos entrevistados em uma nova pesquisa sobre interações médico-paciente relataram que sentiram falta de compaixão ao falar com um profissional médico, e 73% disseram que sempre ou frequentemente se sentem apressados pelo seu médico.”

As ferramentas de IA podem ser vistas como um novo terceiro ator na relação bidirecional médico-paciente. Tal como a relação médico-paciente se baseia na confiança72, tanto os pacientes como os médicos devem ser capazes de desenvolver uma relação de confiança com a ferramenta de IA que utilizam. No caso da IA, isto pode exigir características como explicabilidade, mas as ferramentas de IA não são necessariamente construídas para serem transparentes.30, 34 A busca contínua por maior precisão muitas vezes compromete a explicabilidade da IA. Triberti et al. argumentam que a falta de explicabilidade pode levar a um fenômeno de “paralisia de decisão” devido aos problemas de confiança dos usuários da ferramenta de IA, gerados pela falta de explicabilidade.53

Mesmo nos casos em que os resultados das ferramentas de IA não são diretamente explicáveis, os médicos podem ser capazes de justificar diagnósticos e explicar procedimentos de uma forma compreensível para os pacientes, mesmo que estes não estejam familiarizados com o jargão estatístico. Da mesma forma, os pacientes podem ficar satisfeitos por desenvolver uma relação de confiança com as ferramentas de IA que utilizam como parte da sua autogestão e manter uma relação de confiança com o seu médico, com base nas explicações de probabilidades e estatísticas fornecidas pelo médico. Isto dependerá da mudança da educação médica.

Kerasidou sugere que, num sistema de saúde assistido por IA, pode haver um afastamento das competências humanas específicas se os pacientes e os sistemas de saúde começarem a valorizar a maior precisão e eficácia das ferramentas de IA em detrimento de valores relacionais, como a confiança interpessoal.74 Neste contexto, poder-se-ia argumentar que as ferramentas de IA não necessitam necessariamente de ser explicáveis (ou transparentes) para melhorar a relação médico-paciente, especialmente se superarem sistematicamente o desempenho dos médicos humanos. Pacientes e médicos podem começar a perceber a confiabilidade com base no nível de certeza ou precisão oferecido pelas ferramentas de IA, em oposição a um alto nível de transparência.

Muitos observaram que o impacto da IA nos cuidados centrados na pessoa depende provavelmente do papel que ocupa nos contextos clínicos; ajudar versus substituir profissionais humanos. O papel ideal da IA nos cuidados de saúde ainda não está claro.53

“Apesar das desvantagens de recorrer à inteligência artificial na medicina, alguns médicos acham que o ChatGPT melhora a sua capacidade de comunicar empaticamente com os pacientes.”

Vários estudos no campo da saúde mental apoiam a visão de que a IA só pode ter um impacto positivo na relação médico-paciente num papel de assistência, melhorando a abertura, a comunicação e evitando potenciais complicações nas relações interpessoais.32, 51, 52 Por exemplo, apoiando a visão de que a IA só pode impactar positivamente a relação médico-paciente em um papel de assistência, Szalai argumenta que a terapia adicional baseada em IA para pacientes com transtorno de personalidade limítrofe pode ser benéfica.51 Isso é feito por meio de algoritmos capazes de identificar o tom emocional de uma narrativa e emoções refinadas. Os pacientes podem estar mais dispostos a divulgar informações à IA do que ao médico humano, mesmo quando sabem que o médico humano pode aceder às informações. Por outro lado, Luxton alerta para o risco de as ferramentas de IA substituírem os médicos humanos, argumentando que a imperfeição do psicoterapeuta é uma parte essencial do processo de cura.

Quais são as necessidades educacionais dos profissionais médicos num sistema baseado em IA?

O impacto positivo ou negativo da IA na relação médico-paciente depende dos aspectos estruturais do sistema de saúde no qual a IA está sendo implantada. Por exemplo, para que a IA ajude a promover relações empáticas entre médico e paciente, ela precisa ser implantada dentro de um sistema que já apoie a empatia como um valor central da saúde.38 Isto provavelmente começa com a definição de currículos médicos apropriados. Tripti e Lalitbhushan sugerem que é importante que os médicos aprendam como interagir com sistemas de IA e grandes conjuntos de dados e, ao mesmo tempo, fornecer cuidados humanos e compassivos.54 Estas competências relacionais definirão o seu papel nos cuidados de saúde futuros, uma vez que os sistemas de IA provavelmente assumirão alguns dos aspectos de conhecimento do seu trabalho.43, 54 Em outras palavras, eles argumentam que as ferramentas de IA provavelmente superarão cognitivamente os humanos, tornando necessário que os fornecedores humanos se adaptem para trabalhar em conjunto com as ferramentas de IA.54 Kolanska et al. vai além, argumentando que o papel do médico deve evoluir para estar mais próximo de um engenheiro, ou seja, com compreensão de big data e ciência da computação.40

No contexto da psiquiatria, Kim et al. explicam que a maioria das escolas médicas ficou para trás nas mudanças provocadas pelo uso crescente da tecnologia. Dado que a IA provavelmente ajudará os psiquiatras, Kim et al. argumentam que a educação médica deve refletir esse papel recém-definido tanto para os médicos quanto para a IA na prestação de cuidados de saúde.39

Outra abordagem para preservar a relação médico-paciente na era da IA é aumentar o foco nas habilidades interpessoais no currículo médico.18, 36 Além da importância da alfabetização em IA, Wartman et al. também sugerem que a empatia e a compaixão são habilidades que devem ser cultivadas ou ensinadas ao longo do currículo e ativamente mantidas no centro da prática médica.55, 56 Lagrew e Jenkins explicam que além da importância do estudo de novas tecnologias, os melhores médicos serão aqueles que entendem como “se sente” ser um paciente.42 Chen observa que o conhecimento e as competências técnicas já não são domínio exclusivo da profissão médica, uma vez que o conhecimento é agora facilmente acessível ao público e a IA está desenvolvendo competências de diagnóstico. Assim, outras competências relevantes devem ser desenvolvidas, como a capacidade de saber quando e como aplicar o conhecimento para melhor ajudar o paciente de forma compassiva.9

Conclusões

A literatura mostra que a IA tem o potencial de perturbar as relações médico-paciente centradas na pessoa. As ferramentas de IA poderiam apoiar a prática da tomada de decisões partilhada, aumentando a autonomia dos pacientes. Alternativamente, as ferramentas de IA poderiam prejudicar a tomada de decisões partilhadas, criando uma nova forma de paternalismo devido à sua falta de pluralidade de valores. Da mesma forma, as ferramentas de IA têm o potencial de melhorar a prática do cuidado empático, economizando tempo.

No entanto, não está claro se o tempo economizado será usado para praticar cuidados empáticos ou para outras atividades, incluindo empurrar mais pacientes através do sistema.

Relacionamentos confiáveis também podem ser afetados pelo uso de ferramentas de IA. Geralmente, as ferramentas de IA explicáveis são consideradas ferramentas valiosas para apoiar relações de confiança, dada a sua natureza transparente. As ferramentas Blackbox AI, no entanto, podem impactar negativamente as relações de confiança devido à sua complexidade inerente.

A literatura propõe vários caminhos a seguir para garantir que as ferramentas de IA apoiem, em vez de dificultar, as relações médico-paciente centradas na pessoa. Alguns estudos sugerem que quando a IA é utilizada como ferramenta de apoio, isto pode ter um impacto positivo na relação médico-paciente (por exemplo, Eysenbach et al.; Szalai). No entanto, argumenta-se que é pouco provável que os pacientes e os médicos aceitem uma mudança para cuidados médicos liderados pela IA, e que tal mudança poderia prejudicar a relação médico-paciente, uma vez que as ferramentas de IA são incapazes de reproduzir qualidades inerentemente humanas de empatia e compaixão. A longo prazo, o debate ainda está aberto no que diz respeito à forma como irão evoluir as preferências humanas pelos cuidados de saúde liderados pela IA. Tanto os pacientes como os médicos podem começar a favorecer o aumento da precisão dos cuidados conduzidos pela IA. Contudo, as evidências atuais relativas à preferência humana apontam para o fato de que este ainda não é o caso.

Existe um amplo consenso na literatura de que o impacto da IA na relação médico-paciente influenciará e será influenciado pela educação dos profissionais médicos. A maioria dos autores parece sugerir que a educação médica deve centrar-se na literacia em IA e na inteligência emocional, com alguns a enfatizar a importância de uma em detrimento da outra. Esta combinação sublinha a importância de defender o cuidado empático e ao mesmo tempo garantir que os pacientes compreendam as ferramentas utilizadas pelo médico, contribuindo assim para o desenvolvimento de relações de confiança.

Não deixe de ver a Parte 1.

Tradução livre de trechos de “The impact of artificial intelligence on the person-centred, doctor-patient relationship: some problems and solutions”, de Aurelia Sauerbrei, Angeliki Kerasidou, Federica Lucivero e Nina Hallowell, em BMC Medical Informatics and Decision Making.

Referências:

  1. Bohr A, Memarzadeh K. Artificial intelligence in healthcare data. Amsterdam: Academic Press; 2020.
  2. BMA. NHS backlog data analysis 2022. Available from: https://www.bma.org.uk/advice-and-support/nhs-delivery-and-workforce/pressures/nhs-backlog-data-analysis.
  3. Davenport T, Kalakota R. The potential for artificial intelligence in healthcare. Future Healthc J. 2019;6(2):94–8.
  4. Ho A. Deep ethical learning: taking the interplay of human and artificial intelligence seriously. (Author abstract). Hastings Center Rep. 2019;49(1):36.
  5. Yaghy AMS, Jerry A, Shields, Carol L. Representing communication, compassion, and competence in the era of AI. AMA J Ethics. 2019;21(11):1009–13.
  6. Oran DP, Topol EJ. The rise of the virtualist. Lancet (British edition). 2019;394(10192):17.
  7. Carter SM, Rogers W, Win KT, Frazer H, Richards B, Houssami N. The ethical, legal and social implications of using artificial intelligence systems in breast cancer care. Breast (Edinburgh). 2020;49:25–32.
  8. Aminololama-Shakeri S, López JE. The Doctor-Patient Relationship With Artificial Intelligence. AJR Am J Roentgenol. 2019;212(2):308.
  9. Chen J. Playing to our human strengths to prepare medical students for the future. Kor J Med Educ. 2017;29(3):193–7.
  10. Nelson CA, Pérez-Chada LM, Creadore A, Li SJ, Lo K, Manjaly P, et al. Patient perspectives on the use of artificial intelligence for skin cancer screening: a qualitative study. JAMA Dermatol (Chicago, Ill). 2020;156(5):501–12.
  11. Steinhubl SR, Topol EJ. Moving from digitalization to digitization in cardiovascular care: why is it important, and what could it mean for patients and providers? J Am Coll Cardiol. 2015;66(13):1489.
  12. Topol EJ. The Topol Review: Preparing the healthcare workforce to deliver the digital future. Health Educ England; 2019.
  13. England NHE. Person-centred care 2022. Available from: https://www.hee.nhs.uk/our-work/person-centred-care.
  14. Bauchat JR, Seropian M, Jeffries PR. Communication and empathy in the patient-centered care model—why simulation-based training is not optional. Clin Simul Nurs. 2016;12(8):356–9.
  15. Spiro H. Commentary: The practice of empathy. Acad Med. 2009;84(9):1177.
  16. Singer T, Klimecki OM. Empathy and compassion. Curr Biol. 2014;24(18):R875–8.
  17. Jeffrey D. Empathy, sympathy and compassion in healthcare: Is there a problem? Is there a difference? Does it matter? J R Soc Med. 2016;109(12):446–52.
  18. Fogel AL, Kvedar JC. Artificial intelligence powers digital medicine. NPJ Digit Med. 2018;1(1):1–4.
  19. Ward P. Trust and communication in a doctor-patient relationship: a literature review. Arch Med. 2018;3(3):36.
  20. Friedberg MW, Chen PG, Van Busum KR, Aunon FM, Brook RH, Caloyeras JP, et al. Factors affecting physician professional satisfaction and their implications for patient care, health systems, and health policy. Santa Monica: RAND Corporation; 2013.
  21. Davis N. Cardiologist Eric Topol: ‘AI can restore the care in healthcare’. The Guardian. 2019.
  22. Niel O, Bastard P. Artificial intelligence in nephrology: core concepts, clinical applications, and perspectives. Am J Kidney Dis. 2019;74(6):803–10.
  23. Sparrow R, Hatherley J. High hopes for “Deep Medicine”? AI, Economics, and the Future of Care. Hastings Cent Rep. 2020;50(1):14–7.
  24. McDougall RJ. Computer knows best? The need for value-flexibility in medical AI. J Med Ethics. 2019;45(3):156.
  25. Jotterand F, Bosco C. Keeping the “Human in the Loop” in the Age of Artificial Intelligence : Accompanying Commentary for “Correcting the Brain?” by Rainey and Erden. Sci Eng Ethics. 2020;26(5):2455.
  26. Alrassi J, Peter J, Chandran L. Technology can augment, but not replace, critical human skills needed for patient care. Acad Med. 2021;96(1):37–43.
  27. Amann J, Blasimme A, Vayena E, Frey D, Madai VI. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 2020;20(1):310.
  28. Arnold MH. Teasing out artificial intelligence in medicine: an ethical critique of artificial intelligence and machine learning in medicine. J Bioethic Inquiry. 2021:1–19.
  29. Banja J. Welcoming the “Intel-ethicist.” Hastings Center Rep. 2019;49(1):33–6.
  30. Bjerring J, Busch J. Artificial intelligence and patient-centered decision-making. Philos Technol. 2021;34(2):349–71.
  31. Dagher L, Shi H, Zhao Y, Marrouche NF. Wearables in cardiology: Here to stay. Heart Rhythm. 2020;17(5 Pt B):889.
  32. Eysenbach G, Wright J, del Pozo Banos M, Gabashvili I, Fulmer R, Joerin A, et al. Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: randomized controlled trial. JMIR Mental Health. 2018;5(4).
  33. Grote T, Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020;46(3):205–11.
  34. Hagendorff T, Wezel K. 15 challenges for AI: or what AI (currently) can’t do. AI Soc. 2019;35(2).
  35. Hung AJ, Chen AB, Cacciamani GE, Gill IS. Artificial intelligence will (MAY) make doctors expendable (IN GOOD WAYS): pro. Eur Urol Focus. 2021.
  36. Johnston SC. Anticipating and training the physician of the future: the importance of caring in an age of artificial intelligence. Acad Med. 2018;93(8):1105.
  37. Karches K. Against the iDoctor: why artificial intelligence should not replace physician judgment. Philos Med Res Pract. 2018;39(2):91–110.
  38. Kerasidou ea, Bærøe K, Berger Z, Brown AEC. The need for empathetic healthcare systems. J Med Ethics. 2020;ahead of print.
  39. Kim J, Jones K, D’Angelo E. How to prepare prospective psychiatrists in the era of artificial intelligence. Acad Psychiatry. 2019;43(3):337–9.
  40. Kolanska K, Chabbert-Buffet N, Daraï E, Antoine J-M. Artificial intelligence in medicine: A matter of joy or concern? J Gynecol Obstetr Human Reprod. 2021;50(1).
  41. Kool T, Laranjo L, Boeldt D, Chaudhry B, Blease C, Kaptchuk TJ, et al. Artificial intelligence and the future of primary care: exploratory qualitative study of UK general practitioners’ views. J Med Internet Res. 2019;21(3).
  42. Lagrew DC, Jenkins TR. The future of obstetrics/gynecology in 2020: a clearer vision. Transformational forces and thriving in the new system. Am J Obstetr Gynecol. 2015;212(1):28-33.e1.
  43. Liu X, Keane PA, Denniston AK. Time to regenerate: the doctor in the age of artificial intelligence. J R Soc Med. 2018;111(4):113–6.
  44. Luxton DD. Recommendations for the ethical use and design of artificial intelligent care providers. Artif Intell Med. 2014;62(1):1–10.
  45. Mabillard V, Demartines N, Joliat G-R. How can reasoned transparency enhance co-creation in healthcare and remedy the pitfalls of digitization in doctor-patient relationships? Int J Health Policy Manage. 2021.
  46. Manrique de Lara A, Peláez-Ballestas I. Big data and data processing in rheumatology: bioethical perspectives. Clin Rheumatol. 2020;39(4):1007.
  47. Mihai N. Aiming AI at a moving target: health (or disease). AI & Soc. 2019;35:841–9.
  48. Molnár-Gábor F. Artificial intelligence in healthcare: doctors, patients and liabilities. In: Wischmeyer T., T. R, editors. Regulating artificial intelligence: Springer; 2020.
  49. Printz C. Artificial intelligence platform for oncology could assist in treatment decisions. Cancer. 2017;123(6):905.
  50. Rainey S, Erden YJ. Correcting the brain? the convergence of neuroscience, neurotechnology, psychiatry, and artificial intelligence. Sci Eng Ethics. 2020;26(5):2439.
  51. Szalai J. The potential use of artificial intelligence in the therapy of borderline personality disorder. J Eval Clin Pract. 2020.
  52. Trachsel M, Gaab J, Biller-Andorno N, Tekin Ş, Sadler JZ, Manríquez Roa T. The Oxford handbook of psychotherapy ethics. 1st ed: Oxford University Press.
  53. Triberti S, Durosini I, Pravettoni G. A “Third Wheel” effect in health decision making involving artificial entities: a psychological perspective. Front Public Health. 2020;8:117.
  54. Tripti KS, Lalitbhushan W. Implications of Artificial Intelligence (AI) on Dynamics of Medical Education and Care: A Perspective. J Clin Diagnostic Res. 2020;14(3):JI01-JI2.
  55. Wartman SA. The empirical challenge of 21st-century medical education. Acad Med. 2019;94(10):1412.
  56. Wartman SA, Combs CD. Reimagining Medical Education in the Age of AI. AMA J Ethics. 2019;1.
  57. Young AT, Amara D, Bhattacharya A, Wei ML. Patient and general public attitudes towards clinical artificial intelligence: a mixed methods systematic review. Lancet Digit Health. 2021;3(9):e599–611.
  58. Yun JH, Lee EJ, Kim DH. Behavioral and neural evidence on consumer responses to human doctors and medical artificial intelligence. Psychol Mark. 2021;38(4):610–25.
  59. Žaliauskaitė M. Role of ruler or intruder? Patient’s right to autonomy in the age of innovation and technologies. AI & Soc. 2020.
  60. Rycroft-Malone JO. Evidence-informed practice: from individual to context. J Nurs Manag. 2008;16(4):404–8.
  61. Greenhalgh T, Thorne S, Malterud K. Time to challenge the spurious hierarchy of systematic over narrative reviews? Eur J Clin Invest. 2018;48(6):e12931.
  62. Kilbride MK, Joffe S. The new age of patient autonomy: implications for the patient-physician relationship. JAMA. 2018;320(19):1973–4.
  63. Elwyn G, Frosch D, Thomson R, Joseph-Williams N, Lloyd A, Kinnersley P, et al. Shared decision making: a model for clinical practice. J Gen Intern Med. 2012;27(10):1361–7.
  64. Moss J, Roberts MB, Shea L, Jones CW, Kilgannon H, Edmondson DE, et al. Healthcare provider compassion is associated with lower PTSD symptoms among patients with life-threatening medical emergencies: a prospective cohort study. Intensive Care Med. 2019;45(6):815–22.
  65. Kim SS, Kaplowitz S, Johnston MV. The effects of physician empathy on patient satisfaction and compliance. Eval Health Prof. 2004;27(3):237–51.
  66. Hojat M, Louis DZ, Markham FW, Wender R, Rabinowitz C, Gonnella JS. Physicians’ empathy and clinical outcomes for diabetic patients. Acad Med. 2011;86(3):359–64.
  67. Mercer SW, Neumann M, Wirtz M, Fitzpatrick B, Vojt G. General practitioner empathy, patient enablement, and patient-reported outcomes in primary care in an area of high socio-economic deprivation in Scotland—A pilot prospective study using structural equation modeling. Patient Educ Couns. 2008;73(2):240–5.
  68. Kerasidou A, Horn R. Empathy in healthcare: the limits and scope of empathy in public and private systems. In: Feiler T, Hordern J, Papanikitas A, editors. Routledge; 2018.
  69. Foster AE, Yaseen ZS. Teaching empathy in healthcare : building a new core competency. Cham: Springer; 2019.
  70. Topol EJ. Deep medicine : how artificial intelligence can make healthcare human again. New York: Basic Books; 2019.
  71. O’Connor A. How artificial intelligence could transform medicine. New York Times. 2019.
  72. Chin JJ. Doctor-patient relationship: a covenant of trust. Singapore Med J. 2001;42(12):579.
  73. HLEG) H-legoaisubtECA. Ethics guidelines for trustworthy AI. Brussels: European Commission; 2019.
  74. Kerasidou A. Artificial intelligence and the ongoing need for empathy, compassion and trust in healthcare. Bull World Health Organ. 2020;98(4):245–50.
Ver Referências →
Cadastre-se E receba nosso newsletter

Veja outros posts relacionados…

nenhum

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

CONHEÇA FIBRODOR, UM SITE EXCLUSIVO SOBRE FIBROMIALGIA
CLIQUE AQUI