¿Puede la IA dar un paso al frente para ofrecer ayuda donde los humanos no pueden?

Si se aplica de manera inapropiada, la inteligencia artificial (IA) puede traer más daño que bien. Pero puede ofrecer una mano amiga muy necesaria cuando los humanos no pueden encontrar consuelo en los de su propia especie.

La IA no siempre ha tenido una buena reputación. Ha sido acusado de reemplazar los roles humanos, quitarle el sustento a una persona y amenazar los derechos humanos.

Sin embargo, con los controles y equilibrios correctos, pocos pueden negar el potencial de la IA para mejorar las operaciones comerciales y mejorar la vida.

Otros han aprovechado la IA para ayudar a salvar vidas.

La Fundación Chopra en septiembre de 2020 presentó un chatbot, denominado Piwi, para proporcionar una «solución impulsada por la comunidad» que tiene como objetivo prevenir el suicidio. La plataforma impulsada por IA está capacitada por «expertos» y, en función de las interacciones en línea, conectará a los usuarios con 5000 consejeros que están en espera.

El director ejecutivo de la fundación, Poonacha Machaiah, dijo: «Con Piwi, estamos brindando a las personas acceso a la IA emocional para aprender, interpretar y responder a las emociones humanas. Al reconocer los signos de ansiedad y cambios de humor, podemos mejorar la autoconciencia y aumentar las habilidades de afrontamiento, incluyendo pasos para reducir el estrés y prevenir el suicidio mediante asistencia e intervención oportunas en tiempo real».

Piwi ha reducido más de 6000 intentos de suicidio y ha manejado 11 millones de conversaciones a través de mensajes de texto, según el fundador de la Fundación Chopra, Deepak Chopra, un autor indio-estadounidense famoso por su defensa de la medicina alternativa. Describió a Piwi como una plataforma de «IA ética» entrenada con salvaguardas integradas en el sistema, y ​​agregó que siempre había humanos en el backend para brindar apoyo cuando fuera necesario.

Los jóvenes, en particular, se sintieron atraídos por el chatbot, dijo Chopra. Al señalar que el suicidio era la segunda causa más común de muerte entre los adolescentes, dijo que a los jóvenes les encantaba hablar con Piwi porque no se sentían juzgados. «Se sienten más cómodos hablando con una máquina que con humanos», dijo en una entrevista de marzo de 2022 en El programa diario.

en Singapur, el suicidio es la principal causa de muerte entre las personas de entre 10 y 29 años. También fue cinco veces más mortal que los accidentes de tráfico en 2020, cuando se registró el mayor número de casos de suicidio en la ciudad-estado desde 2012. La causa de muerte supuso 8,88 por cada 100.000 habitantes ese año, frente a 8 en 2019.

También se observaron aumentos en todos los grupos de edad, en particular en los mayores de 60 años, donde el número de personas que murieron por suicidio alcanzó un nuevo máximo de 154, un 26 % más que en 2019. Los observadores de la industria atribuyeron el aumento en las cifras a la COVID-19. pandemia, durante la cual lo más probable es que haya enfrentado aislamiento social y problemas financieros.

Se estima que cada suicidio en Singapur afecta al menos a seis seres queridos.

Yo también he perdido seres queridos por enfermedades mentales. En los años transcurridos desde entonces, a menudo me he preguntado qué más se podría haber hecho para evitar su pérdida. Todos tenían acceso a profesionales de la salud, pero claramente eso resultó insuficiente o ineficaz.

¿No lograron obtener ayuda cuando más la necesitaban en su última hora porque, a diferencia de los chatbots, los profesionales de la salud humanos no siempre estaban disponibles las 24 horas del día, los 7 días de la semana? ¿O no pudieron expresar completamente cómo se sentían a otro ser humano porque se sintieron juzgados?

¿Una plataforma impulsada por IA como Piwi los habría convencido de reconsiderar sus opciones durante ese fatídico momento antes de tomar su decisión final?

He tenido fuertes reservas sobre el uso de la IA en algunas áreas, particularmente en la aplicación de la ley y los vehículos autónomos, pero creo que su aplicación en soluciones como Piwi es prometedora.

Si bien ciertamente no puede reemplazar a los especialistas en atención médica humana, puede resultar vital cuando los humanos no se consideran opciones viables. Solo mire los 6,000 intentos de suicidio que se dice que Piwi ha reducido. ¿Cuántas vidas entre estas podrían haberse perdido de otro modo?

Y hay mucho más espacio para aprovechar la innovación de la IA para mejorar la prestación de atención médica.

Hace casi una década, planteé la posibilidad de un dispensador de píldoras conectado a la web que pudiera dispensar automáticamente la medicación prescrita de un paciente. Esto sería especialmente útil para las personas mayores que tenían dificultades para recordar las numerosas píldoras y suplementos que necesitaban diariamente o semanalmente. También podría mitigar el riesgo de sobredosis accidental o consumo indebido.

Ha habido avances tecnológicos significativos desde que escribí esa publicación que pueden mejorar aún más la precisión y la seguridad del dispensador de pastillas. Las herramientas de reconocimiento visual impulsadas por IA se pueden integrar para identificar y garantizar que se dispense el medicamento correcto. La máquina también puede contener el perfil actualizado de cada medicamento, como cuánto pesa cada pastilla y sus características únicas, para determinar aún más si se han dispensado los medicamentos correctos.

Las clínicas y farmacias pueden emitir la medicación prescrita de cada paciente en un cartucho, recargable cada pocos meses y protegido con las características de seguridad necesarias. Los datos médicos relevantes se almacenan en el cartucho, incluidas las instrucciones de dispensación a las que se puede acceder cuando se inserta en la máquina en casa. El cartucho también puede activar una alerta cuando se necesita una recarga y enviar automáticamente una orden a la clínica para que se entregue un cartucho nuevo en el hogar, si el paciente no puede hacer el viaje.

El dispensador de píldoras se puede integrar aún más con otras funciones de atención médica, como la capacidad de analizar la sangre de los pacientes diabéticos, así como las capacidades de telemedicina para que los médicos puedan marcar para controlar a los pacientes en caso de que los datos enviados indiquen una anomalía.

Las soluciones impulsadas por IA, como el dispensador de píldoras, serán esenciales en países con una población que envejece, como Singapur y Japón. Pueden respaldar un sistema de salud más distribuido, en el que la red central central de hospitales y clínicas no esté demasiado gravada.

Con la innovación y las garantías adecuadas, la IA seguramente puede ayudar donde los humanos no pueden.

Por ejemplo, el 66 % de los encuestados en Asia-Pacífico cree que los bots lograrán el éxito donde los humanos han fallado con respecto a la sostenibilidad y el progreso social, según un estudio publicado por Oracle, que encuestó a 4000 encuestados en esta región, incluidos Singapur, China, India, Japón y Australia.

Además, el 89 % piensa que la IA ayudará a las empresas a avanzar más hacia la sostenibilidad y los objetivos sociales. Alrededor del 75 % expresa su frustración por la falta de progreso, hasta la fecha, por parte de las empresas y el 91 % quiere que las organizaciones tomen medidas concretas sobre cómo están priorizando los problemas ESG (ambientales, sociales y de gobernanza), en lugar de ofrecer meras palabras de apoyo.

Al igual que la Fundación Chopra, CallCabinet también cree que la IA puede ayudar a los agentes de servicio al cliente a lidiar con el estrés mental de lidiar con los casos. El proveedor de software de análisis de voz con sede en el Reino Unido argumenta que las herramientas impulsadas por IA con algoritmos acústicos avanzados pueden procesar frases clave y evaluar el ritmo de la voz, así como el volumen y la tonalidad. Estos permiten a las organizaciones determinar las emociones detrás de las palabras y evaluar el sentimiento de cada interacción.

CallCabinet sugiere que estos pueden permitir a los gerentes monitorear las llamadas de servicio e identificar patrones que señalen posibles problemas de salud mental, como interacciones negativas con los clientes, voces elevadas y blasfemias dirigidas a los agentes.

Porque cuando los humanos no pueden brindar consuelo a quienes lo necesitan, ¿quizás la IA pueda hacerlo?

COBERTURA RELACIONADA

Deja un comentario