fbpx

Riesgos de la inteligencia artificial: los médicos pueden heredar sus sesgos

COMPARTIR EN REDES

Una reciente investigación publicada en la prestigiosa revista científica Nature ha encendido las alarmas sobre los riesgos de utilizar la Inteligencia Artificial (IA) en el ámbito médico. El estudio, dirigido por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto, revela que los profesionales de la salud pueden heredar y reproducir los sesgos de la IA, incluso al tomar decisiones sin asistencia tecnológica.

Hasta el momento, el principal temor alrededor de la IA era que pudiese mostrar sesgos en sus decisiones derivados de algoritmos humanos erróneos. Estos sesgos son amplificados por la IA, lo que ha motivado investigaciones y soluciones al respecto. Sin embargo, la preocupación ha alcanzado un nuevo nivel con este descubrimiento.

El estudio se basó en tres experimentos en los que participantes, estudiantes de psicología, llevaron a cabo tareas de clasificación médica, en algunos casos asistidos por una IA sesgada. Los resultados mostraron que, después de trabajar con la IA, los participantes tendían a imitar y replicar los sesgos de la IA incluso cuando ya no estaban siendo asistidos por la misma.

Íñigo de Miguel Beriain, destacado investigador de la UPV/EHU y miembro del Comité de Bioética de España, resalta la gravedad de este hallazgo: “Esta investigación demuestra que los humanos que trabajan en contacto con la IA terminan adquiriendo el sesgo, integrándolo en sus propios procesos mentales. Esto condiciona sus decisiones y hace que se adecuen más al comportamiento de la IA, especialmente si confían en su utilidad y veracidad”.

Ante este panorama, la interrogante es cómo abordar y corregir estos sesgos. De Miguel sugiere que se requerirá una supervisión que tome en cuenta la relación psicológica entre la IA y los humanos, más que simplemente monitorizar los fallos de la IA. Es imperativo considerar los aspectos psicológicos de esta relación para garantizar que la tecnología beneficie y no perjudique la calidad del diagnóstico y atención médica.

Este estudio recalca la importancia de una regulación y supervisión adecuada del uso de la IA en el ámbito sanitario y, más ampliamente, en cualquier sector donde las decisiones de la IA puedan influir en el comportamiento humano.

Se requerirá una supervisión que tome en cuenta la relación psicológica entre la IA y los humanos, más que simplemente monitorizar los fallos de la IA. Share on X

¿Te ha gustado el artículo?

Ayúdanos con 1€ para seguir haciendo noticias como esta

Donar 1€
NOTICIAS RELACIONADAS

2 Comentarios. Dejar nuevo

  • Mejor que la riesgosa medicina asistida por IA, sería alimentar la IA con todos los códigos de Derecho del país, toda la jurisprudencia, toda la la doctrina y conceptos jurídicos.
    Para dejar las sentencias en manos de la IA e ir deshaciéndonos de tanto juez que actúa según sus intereses particulares (políticos, económicos, tendencias sociales, descriterios personales, etc.) y causa tanta injusticia.

    Responder
  • Messerschmidt
    11 octubre, 2023 13:36

    Creer que el ser humano es capaz de crear una «inteligencia» con capacidad igual o superior a la propia es caer en una soberbia monstruosa y a la vez inmensamente estúpida y autodestructiva. Someterse a las decisiones de tales artilugios técnicos es de lo más irracional que puede haber. De este modo, el ser humano renuncia a su libertad y a su responsabilidad y muestra una radical y patológica desconfianza hacia sí mismo, capitula incondicionalmente, renuncia a su propia condición humana, a su propia naturaleza para someterse al arbitrio de un aparato sin consciencia, sin vida, sin sentido moral y sin responsabilidad. Una pesadilla a la que que nos resignamos pasivamente, por comodidad, por pereza, por miedo… Vamos muy descarriados.

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Rellena este campo
Rellena este campo
Por favor, introduce una dirección de correo electrónico válida.

El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.