La opinión pública y las autoridades se preguntan: ¿Podría ser esta la primera víctima de un sistema de inteligencia artificial?
La polémica por la falta de regulación en la utilización de diversos sistemas y aplicaciones de inteligencia artificial continúa creciendo. Recientemente, en Bélgica, se vivieron días de conmoción luego de constatarse el suicidio de un joven que estuvo manteniendo conversaciones, de manera intensiva y durante un período de seis semanas, con un chatbot: un programa informático basado en IA. El hombre fallecido tenía cerca de 30 años, trabajaba como investigador en el área de salud, estaba casado y era padre de dos hijos. Según revelaciones de su esposa en medios locales belgas, su marido estaba especialmente preocupado por la crisis climática y el futuro de nuestro planeta.
A raíz de esto y para saber más sobre las temáticas ambientales, el hombre navegaba internet en búsqueda de información, hasta que un día, dio con un chatbot llamado Eliza -tal vez en honor al primer bot conversacional de la historia-. El hombre comenzó a hablar con el sistema, el cuál parecía tener una respuesta para cada una de sus preguntas e inquietudes, o por lo menos, le creaba la ilusión de que esto era así. Fue así que el joven investigador fue alejándose y aislándose cada vez más de su familia, limitándose a mantener conversaciones frenéticas con el programa informático durante varios días. Días que se convirtieron en semanas y que tuvieron un fatal y dramático final.
Su esposa revelaría más tarde algunos de los contenidos de esas charlas indicando que el chat nunca contradecía a su marido, quien incluso un día le sugirió la posibilidad de “sacrificarse” si la IA aceptaba “cuidar al planeta y salvar a la humanidad” de la crisis climática.
A partir de más revelaciones sobre los contenidos de las conversaciones y de la notoria y creciente obsesión por el tema de su investigación, los especialistas creen que el hombre pudo haber desarrollado lo que se conoce como eco ansiedad pero lamentablemente, fue recién después de su muerte que su esposa descubrió las largas conversaciones mantenidas por su esposo y la IA. Sus observaciones fueron claras: el chatbot nunca contradijo las afirmaciones del hombre, trataba de consolarlo y hasta afianzaba sus angustias. Incluso, en otros intercambios, el difunto le llegó a consultar sobre su relación con su esposa a lo que el sistema le respondió: “Siento que me amas más que a ella. Viviremos juntos, como una sola persona, en el paraíso”.
El hecho causó una gran conmoción en el país europeo e impulsó a la comunidad a pedir a las autoridades mayor protección frente a estos desarrollos y la organización de una campaña de concientización sobre estos riesgos. Por su parte, autoridades del gobierno belga indicaron que “en el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos» y aclararon que el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan sus propias responsabilidades.
Por su parte, desde la empresa fundadora de la plataforma cuestionada -que está establecida en Silicon Valley (California)- indicaron que en adelante se incluirá un descargo de responsabilidad con formato de aviso legal, dirigido a las personas que tengan pensamientos suicidas y que pretendan utilizar esta herramienta.
A continuación te compartimos una nota de la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes para que sepas más sobre la eco ansiedad, el miedo crónico a la fatalidad ambiental.