Terapias Alívio da Dor & Outros - by dorcronica.blog.br

O impacto da inteligência artificial na relação médico-paciente – Parte 1

O impacto da inteligência artificial na relação médico-paciente – Parte 1

A inteligência artificial (IA) é tida como uma possível solução para os problemas atuais enfrentados pelos sistemas de saúde. Especificamente, libertar tempo para os médicos praticarem “medicina centrada na pessoa”. No entanto, há poucas evidências concretas sobre essa possibilidade. Um artigo recente examina o que a literatura diz sobre como a IA poderia impactar dois aspectos do cuidado centrado na pessoa: a empatia e a compaixão. Além disso, a tomada de decisões compartilhada e as relações de confiança emergiram como valores-chave nos artigos revisados. Por fim, foi considerado desejável que as ferramentas de IA visem assistir o médico ao invés de substituí-lo e, também que elas sejam incorporadas à educação médica. A postagem a seguir reproduz trechos selecionados do artigo antes mencionado.

Autores: Aurelia Sauerbrei, Angeliki Kerasidou, Federica Lucivero e Nina Hallowell

No mundo ocidental, a procura por profissionais de saúde está aumentando e a população está envelhecendo.1 Como resultado, a carga de trabalho é elevada e os sistemas de saúde sofrem com pressões de custos e atrasos cada vez maiores.1 Neste contexto, são bem-vindas novas tecnologias que possam contribuir para melhorar a eficiência e, em última análise, melhorar os cuidados. Ferramentas de inteligência artificial hoje estão à frente dessa categoria.1,3

Grandes esperanças são depositadas na tecnologia de IA para melhorar todos os aspectos dos cuidados de saúde, incluindo economia de tempo.1,3,4,5,6,7,8,9,10,11 Espera-se que o tempo que a inteligência artificial pode economizar melhore o relacionamento médico-paciente tornando-o mais centrado na pessoa12, uma perspectiva que visa garantir que “as preferências, necessidades e valores das pessoas orientem as decisões clínicas”.13 O cuidado centrado na pessoa, aliás, é considerado o “padrão ouro” para as relações médico-paciente.1 Além de melhorar a satisfação, diminuir a negligência e melhorar as taxas de retenção de funcionários, tal abordagem melhora os resultados de saúde.2

Empatia

A empatia constitui a pedra angular do cuidado centrado na pessoa.14 Este valor é necessário para formar parcerias e a comunicação eficaz que é fundamental para o cuidado centrado na pessoa.14 Além disso, chegar a um consenso através de uma tomada de decisão partilhada sem compreender o mundo do ponto de vista de outra pessoa (ou seja, sem empatia com o outro) é uma tarefa difícil.15

Compaixão

A empatia também é importante na medida em que desencadeia a compaixão, que pode ser caracterizada como “sentimentos de carinho, preocupação e cuidado pelo outro, bem como uma forte motivação para melhorar o bem-estar do outro”.16

Conforme argumentado por Jeffrey, a empatia é uma resposta qualificada, enquanto a compaixão é uma resposta reativa.17 Portanto, a empatia é útil na medida em que atua como um precursor da compaixão que permite aos médicos agirem no melhor interesse dos seus pacientes.

O problema

O tempo é muitas vezes insuficiente para os médicos desenvolverem o tipo de relacionamento empático e compassivo com os seus pacientes que é necessário para um cuidado centrado na pessoa.18,19,20

Argumenta-se que ferramentas de inteligência artificial que terceirizam certas tarefas do médico permitiriam a ele cultivar “… o precioso vínculo inter-humano, baseado na confiança, presença clínica, empatia e comunicação”.12

A ideia, porém, é atraente somente em teoria.22

Os céticos argumentam que a IA pode desumanizar ainda mais a prática da medicina.23 As ferramentas de inteligência artificial que carecem de pluralidade de valores podem encorajar um caminho de volta ao paternalismo, só que desta vez, imposto pela IA, e não pelo praticante humano.24,25 Por exemplo, o papel do IBM Watson é classificar as opções de tratamento com base em estatísticas de resultados apresentadas em termos de “sobrevivência livre de doença” e mostrar uma síntese das evidências publicadas relevantes para a situação clínica. Essa classificação, todavia, não é orientada pelas preferências individuais do paciente.24

Outros especulam que a busca pela eficiência econômica nos cuidados de saúde ditará que o tempo poupado pela utilização da inteligência artificial ​​será utilizado para empurrar mais pacientes através do sistema, em vez de melhorar os cuidados centrados na pessoa.23

Como são tomadas as decisões nas relações médico-paciente?

O envolvimento do paciente na tomada de decisões é um aspecto central do cuidado centrado na pessoa.24 Aumentar a autonomia do paciente, incentivando o seu envolvimento nos processos de tomada de decisão, é poderoso retrocesso contra o ultrapassado modelo paternalista de cuidados.62

Algumas ferramentas de inteligência artificial podem ter o potencial de aumentar a autonomia do paciente e, portanto, a prática de tomada de decisão compartilhada.59 Tecnologias como aplicativos móveis usados ​​pelos pacientes para automonitoramento (coleta de qualquer forma de dados de saúde) podem aumentar a autonomia e, na melhor das hipóteses, mudar a relação médico-paciente para um formato de atendimento ao cliente, onde ambos os lados têm uma distribuição equilibrada de direitos e responsabilidades e, portanto, coparticipam no processo de tomada de decisão.59 No entanto, pode-se argumentar que é questionável se uma distribuição equilibrada de direitos e responsabilidades é viável numa relação médico-paciente que é comumente caracterizada pela vulnerabilidade do paciente em relação ao médico e por desequilíbrios epistêmicos. Além disso, parece existir o risco de que tal relação se torne puramente transacional e sujeita a pressões de mercado.

Um problema mais fundamental surge quando se considera o tipo de autonomia do paciente que uma ferramenta de inteligência artificial pode apoiar num quadro de tomada de decisão partilhada. Não está claro como um algoritmo poderia levar em consideração as preferências de diferentes pessoas (por exemplo, em relação aos objetivos do tratamento).24 Isto poderia dar origem a uma nova forma de paternalismo em que a inteligência artificial toma decisões em nome dos pacientes e dos médicos. A diferença com a antiga forma de paternalismo é que, desta vez, a relação paternalista seria em relação à inteligência artificial, não ao médico. Em outras palavras, “o médico sabe melhor – mas o computador sabe mais e comete menos erros”.24,28 Esta nova forma de paternalismo estaria fundamentalmente em conflito com o princípio da tomada de decisões partilhada.

McDougall usa o IBM Watson como exemplo para argumentar que as máquinas de inteligência artificial devem ser concebidas e construídas de uma forma que permita a pluralidade de valores, nomeadamente a capacidade de ter em conta as preferências e prioridades dos diferentes pacientes. O papel do IBM Watson é classificar as opções de tratamento com base nas estatísticas de resultados apresentadas em termos de “sobrevivência livre de doença” e mostrar uma síntese das evidências publicadas relevantes para a situação clínica.24 No entanto, McDougall argumenta que esta classificação deve ser orientada pelas preferências individuais do paciente24 (por exemplo, um paciente pode escolher tratamento adicional, enquanto outro pode escolher paliação). Sem levar em conta a pluralidade de valores, existe um risco real de as decisões da inteligência artificial ​​prejudicarem a autonomia do paciente.24

As ferramentas de inteligência artificial de caixa preta são indiscutivelmente particularmente ameaçadoras para a tomada de decisão partilhada, uma vez que a ausência de explicabilidade pode prejudicar a autonomia do paciente, impedindo-o de tomar decisões informadas.48

“Os modelos de ‘IA de caixa preta’ chegam a conclusões ou decisões sem fornecer quaisquer explicações sobre como foram alcançadas. Nos modelos de caixa negra, redes profundas de neurônios artificiais dispersam dados e tomadas de decisão por dezenas de milhares de neurônios, resultando numa complexidade que pode ser tão difícil de compreender como a do cérebro humano. Em suma, os mecanismos internos e os fatores que contribuem para a ‘IA de caixa preta’ permanecem desconhecidos.”

Tradução livre de trechos de “The impact of artificial intelligence on the person-centred, doctor-patient relationship: some problems and solutions”, de Aurelia Sauerbrei, Angeliki Kerasidou, Federica Lucivero e Nina Hallowell, em BMC Medical Informatics and Decision Making.

Referências:

  1. Bohr A, Memarzadeh K. Artificial intelligence in healthcare data. Amsterdam: Academic Press; 2020.
  2. BMA. NHS backlog data analysis 2022 [Available from: https://www.bma.org.uk/advice-and-support/nhs-delivery-and-workforce/pressures/nhs-backlog-data-analysis.
  3. Davenport T, Kalakota R. The potential for artificial intelligence in healthcare. Future Healthc J. 2019;6(2):94–8.
  4. Ho A. Deep ethical learning: taking the interplay of human and artificial intelligence seriously. (Author abstract). Hastings Center Rep. 2019;49(1):36.
  5. Yaghy AMS, Jerry A, Shields, Carol L. Representing communication, compassion, and competence in the era of AI. AMA J Ethics. 2019;21(11):1009–13.
  6. Oran DP, Topol EJ. The rise of the virtualist. Lancet (British edition). 2019;394(10192):17.
  7. Carter SM, Rogers W, Win KT, Frazer H, Richards B, Houssami N. The ethical, legal and social implications of using artificial intelligence systems in breast cancer care. Breast (Edinburgh). 2020;49:25–32.
  8. Aminololama-Shakeri S, López JE. The Doctor-Patient Relationship With Artificial Intelligence. AJR Am J Roentgenol. 2019;212(2):308.
  9. Chen J. Playing to our human strengths to prepare medical students for the future. Kor J Med Educ. 2017;29(3):193–7.
  10. Nelson CA, Pérez-Chada LM, Creadore A, Li SJ, Lo K, Manjaly P, et al. Patient perspectives on the use of artificial intelligence for skin cancer screening: a qualitative study. JAMA Dermatol (Chicago, Ill). 2020;156(5):501–12.
  11. Steinhubl SR, Topol EJ. Moving from digitalization to digitization in cardiovascular care: why is it important, and what could it mean for patients and providers? J Am Coll Cardiol. 2015;66(13):1489.
  12. Topol EJ. The Topol Review: Preparing the healthcare workforce to deliver the digital future. Health Educ England; 2019.
  13. England NHE. Person-centred care 2022 [Available from: https://www.hee.nhs.uk/our-work/person-centred-care.
  14. Bauchat JR, Seropian M, Jeffries PR. Communication and empathy in the patient-centered care model—why simulation-based training is not optional. Clin Simul Nurs. 2016;12(8):356–9.
  15. Spiro H. Commentary: The practice of empathy. Acad Med. 2009;84(9):1177.
  16. Singer T, Klimecki OM. Empathy and compassion. Curr Biol. 2014;24(18):R875–8.
  17. Jeffrey D. Empathy, sympathy and compassion in healthcare: Is there a problem? Is there a difference? Does it matter? J R Soc Med. 2016;109(12):446–52.
  18. Fogel AL, Kvedar JC. Artificial intelligence powers digital medicine. NPJ Digit Med. 2018;1(1):1–4.
  19. Ward P. Trust and communication in a doctor-patient relationship: a literature review. Arch Med. 2018;3(3):36.
  20. Friedberg MW, Chen PG, Van Busum KR, Aunon FM, Brook RH, Caloyeras JP, et al. Factors affecting physician professional satisfaction and their implications for patient care, health systems, and health policy. Santa Monica: RAND Corporation; 2013.
  21. Davis N. Cardiologist Eric Topol: ‘AI can restore the care in healthcare’. The Guardian. 2019.
  22. Niel O, Bastard P. Artificial intelligence in nephrology: core concepts, clinical applications, and perspectives. Am J Kidney Dis. 2019;74(6):803–10.
  23. Sparrow R, Hatherley J. High hopes for “Deep Medicine”? AI, Economics, and the Future of Care. Hastings Cent Rep. 2020;50(1):14–7.
  24. McDougall RJ. Computer knows best? The need for value-flexibility in medical AI. J Med Ethics. 2019;45(3):156.
  25. Jotterand F, Bosco C. Keeping the “Human in the Loop” in the Age of Artificial Intelligence : Accompanying Commentary for “Correcting the Brain?” by Rainey and Erden. Sci Eng Ethics. 2020;26(5):2455.
  26. Alrassi J, Peter J, Chandran L. Technology can augment, but not replace, critical human skills needed for patient care. Acad Med. 2021;96(1):37–43.
  27. Amann J, Blasimme A, Vayena E, Frey D, Madai VI. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 2020;20(1):310.
  28. Arnold MH. Teasing out artificial intelligence in medicine: an ethical critique of artificial intelligence and machine learning in medicine. J Bioethic Inquiry. 2021:1–19.
  29. Banja J. Welcoming the “Intel-ethicist.” Hastings Center Rep. 2019;49(1):33–6.
  30. Bjerring J, Busch J. Artificial intelligence and patient-centered decision-making. Philos Technol. 2021;34(2):349–71.
  31. Dagher L, Shi H, Zhao Y, Marrouche NF. Wearables in cardiology: Here to stay. Heart Rhythm. 2020;17(5 Pt B):889.
  32. Eysenbach G, Wright J, del Pozo Banos M, Gabashvili I, Fulmer R, Joerin A, et al. Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: randomized controlled trial. JMIR Mental Health. 2018;5(4).
  33. Grote T, Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020;46(3):205–11.
  34. Hagendorff T, Wezel K. 15 challenges for AI: or what AI (currently) can’t do. AI Soc. 2019;35(2).
  35. Hung AJ, Chen AB, Cacciamani GE, Gill IS. Artificial intelligence will (MAY) make doctors expendable (IN GOOD WAYS): pro. Eur Urol Focus. 2021.
  36. Johnston SC. Anticipating and training the physician of the future: the importance of caring in an age of artificial intelligence. Acad Med. 2018;93(8):1105.
  37. Karches K. Against the iDoctor: why artificial intelligence should not replace physician judgment. Philos Med Res Pract. 2018;39(2):91–110.
  38. Kerasidou ea, Bærøe K, Berger Z, Brown AEC. The need for empathetic healthcare systems. J Med Ethics. 2020;ahead of print.
  39. Kim J, Jones K, D’Angelo E. How to prepare prospective psychiatrists in the era of artificial intelligence. Acad Psychiatry. 2019;43(3):337–9.
  40. Kolanska K, Chabbert-Buffet N, Daraï E, Antoine J-M. Artificial intelligence in medicine: A matter of joy or concern? J Gynecol Obstetr Human Reprod. 2021;50(1).
  41. Kool T, Laranjo L, Boeldt D, Chaudhry B, Blease C, Kaptchuk TJ, et al. Artificial intelligence and the future of primary care: exploratory qualitative study of UK general practitioners’ views. J Med Internet Res. 2019;21(3).
  42. Lagrew DC, Jenkins TR. The future of obstetrics/gynecology in 2020: a clearer vision. Transformational forces and thriving in the new system. Am J Obstetr Gynecol. 2015;212(1):28-33.e1.
  43. Liu X, Keane PA, Denniston AK. Time to regenerate: the doctor in the age of artificial intelligence. J R Soc Med. 2018;111(4):113–6.
  44. Luxton DD. Recommendations for the ethical use and design of artificial intelligent care providers. Artif Intell Med. 2014;62(1):1–10.
  45. Mabillard V, Demartines N, Joliat G-R. How can reasoned transparency enhance co-creation in healthcare and remedy the pitfalls of digitization in doctor-patient relationships? Int J Health Policy Manage. 2021.
  46. Manrique de Lara A, Peláez-Ballestas I. Big data and data processing in rheumatology: bioethical perspectives. Clin Rheumatol. 2020;39(4):1007.
  47. Mihai N. Aiming AI at a moving target: health (or disease). AI & Soc. 2019;35:841–9.
  48. Molnár-Gábor F. Artificial intelligence in healthcare: doctors, patients and liabilities. In: Wischmeyer T., T. R, editors. Regulating artificial intelligence: Springer; 2020.
  49. Printz C. Artificial intelligence platform for oncology could assist in treatment decisions. Cancer. 2017;123(6):905.
  50. Rainey S, Erden YJ. Correcting the brain? the convergence of neuroscience, neurotechnology, psychiatry, and artificial intelligence. Sci Eng Ethics. 2020;26(5):2439.
  51. Szalai J. The potential use of artificial intelligence in the therapy of borderline personality disorder. J Eval Clin Pract. 2020.
  52. Trachsel M, Gaab J, Biller-Andorno N, Tekin Ş, Sadler JZ, Manríquez Roa T. The Oxford handbook of psychotherapy ethics. 1st ed: Oxford University Press.
  53. Triberti S, Durosini I, Pravettoni G. A “Third Wheel” effect in health decision making involving artificial entities: a psychological perspective. Front Public Health. 2020;8:117.
  54. Tripti KS, Lalitbhushan W. Implications of Artificial Intelligence (AI) on Dynamics of Medical Education and Care: A Perspective. J Clin Diagnostic Res. 2020;14(3):JI01-JI2.
  55. Wartman SA. The empirical challenge of 21st-century medical education. Acad Med. 2019;94(10):1412.
  56. Wartman SA, Combs CD. Reimagining Medical Education in the Age of AI. AMA J Ethics. 2019;1.
  57. Young AT, Amara D, Bhattacharya A, Wei ML. Patient and general public attitudes towards clinical artificial intelligence: a mixed methods systematic review. Lancet Digit Health. 2021;3(9):e599–611.
  58. Yun JH, Lee EJ, Kim DH. Behavioral and neural evidence on consumer responses to human doctors and medical artificial intelligence. Psychol Mark. 2021;38(4):610–25.
  59. Žaliauskaitė M. Role of ruler or intruder? Patient’s right to autonomy in the age of innovation and technologies. AI & Soc. 2020.
  60. Rycroft-Malone JO. Evidence-informed practice: from individual to context. J Nurs Manag. 2008;16(4):404–8.
  61. Greenhalgh T, Thorne S, Malterud K. Time to challenge the spurious hierarchy of systematic over narrative reviews? Eur J Clin Invest. 2018;48(6):e12931.
  62. Kilbride MK, Joffe S. The new age of patient autonomy: implications for the patient-physician relationship. JAMA. 2018;320(19):1973–4.
  63. Elwyn G, Frosch D, Thomson R, Joseph-Williams N, Lloyd A, Kinnersley P, et al. Shared decision making: a model for clinical practice. J Gen Intern Med. 2012;27(10):1361–7.
  64. Moss J, Roberts MB, Shea L, Jones CW, Kilgannon H, Edmondson DE, et al. Healthcare provider compassion is associated with lower PTSD symptoms among patients with life-threatening medical emergencies: a prospective cohort study. Intensive Care Med. 2019;45(6):815–22.
  65. Kim SS, Kaplowitz S, Johnston MV. The effects of physician empathy on patient satisfaction and compliance. Eval Health Prof. 2004;27(3):237–51.
  66. Hojat M, Louis DZ, Markham FW, Wender R, Rabinowitz C, Gonnella JS. Physicians’ empathy and clinical outcomes for diabetic patients. Acad Med. 2011;86(3):359–64.
  67. Mercer SW, Neumann M, Wirtz M, Fitzpatrick B, Vojt G. General practitioner empathy, patient enablement, and patient-reported outcomes in primary care in an area of high socio-economic deprivation in Scotland—A pilot prospective study using structural equation modeling. Patient Educ Couns. 2008;73(2):240–5.
  68. Kerasidou A, Horn R. Empathy in healthcare: the limits and scope of empathy in public and private systems. In: Feiler T, Hordern J, Papanikitas A, editors. Routledge; 2018.
  69. Foster AE, Yaseen ZS. Teaching empathy in healthcare : building a new core competency. Cham: Springer; 2019.
  70. Topol EJ. Deep medicine : how artificial intelligence can make healthcare human again. New York: Basic Books; 2019.
  71. O’Connor A. How artificial intelligence could transform medicine. New York Times. 2019.
  72. Chin JJ. Doctor-patient relationship: a covenant of trust. Singapore Med J. 2001;42(12):579.
  73. HLEG) H-legoaisubtECA. Ethics guidelines for trustworthy AI. Brussels: European Commission; 2019.
  74. Kerasidou A. Artificial intelligence and the ongoing need for empathy, compassion and trust in healthcare. Bull World Health Organ. 2020;98(4):245–50.
Ver Referências →
Cadastre-se E receba nosso newsletter

Veja outros posts relacionados…

nenhum

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

CONHEÇA FIBRODOR, UM SITE EXCLUSIVO SOBRE FIBROMIALGIA
CLIQUE AQUI