Inteligencia artificial y patentes de chatbots para “conversar” con fallecidos: ¿hora de fijar límites?. A cargo de Michelle Azuaje.

nteligencia artificial y patentes de chatbots para “conversar” con fallecidos: ¿hora de fijar límites?

Michelle Azuaje Pirela[1]

Hace poco se dio a conocer por Microsoft su patente registrada ante la Oficina de Patentes y Marcas de Estados Unidos (USPTO), Número US010853717, denominada “Creating a conversational chat bot of a specific person” (Creando un chatbot conversacional de una persona específica).[2] La noticia ha dado la vuelta al mundo destacando entre otras cosas que, cual episodio sacado de la serie Black Mirror[3] se refiere a un chatbot conversacional que combina una serie de tecnologías para “hablar” -en principio- con personas fallecidas.

En ese sentido, un chatbot conversacional es en general, un programa de computador que imita conversaciones humanas algo que si se quiere no es del todo nuevo. Ahora bien, según se deduce del contenido de la patente, entre las funcionalidades de éste en particular, destaca que su tecnología ofrece la posibilidad de crear una especie de alter ego digital, a partir de datos tales como imágenes, publicaciones en redes sociales, mensajes, datos de voz y comunicaciones redactadas por la “persona elegida.”

Estos insumos se utilizarían para entrenar al chatbot y extraer ciertos rasgos de la personalidad que crearían nuevas frases para hacer posible la idea de “conversar e interactuar” con ella. Incluso, en algunos casos, la herramienta podría usarse para aplicar algoritmos de reconocimiento facial y grabaciones de voz o videos para crear una voz y un modelo 2D o 3D de la persona para mejorar el chatbot.

Dejando de lado eventuales problemas derivados de la falta de armonización a nivel internacional en cuanto a la protección jurídica de los chatbots -en tanto que programas computacionales-, a primera vista saltan dos grandes preguntas: ¿No será demasiado? ¿Es hora fijar nuevos límites?

Aunque no es primera vez que se conoce de tecnologías de este tipo (por ejemplo, ya en 2018 se daba a conocer la historia de Roman Mazurenko quien fue “reconstruido digitalmente” por su mejor amiga a través de “Replika”),[4] la noticia de que sea ahora el gigante tecnológico Microsoft quien la propone, reabre la puerta a un sinnúmero de debates éticos y jurídicos sobre su eventual comercialización. Los que, por cierto, no deberían perderse de vista, no obstante, se supone que, a pesar de la patente, por el momento no está previsto comercializarse.[5]

Eventuales problemas ético-jurídicos del uso de estas tecnologías

De forma muy similar a lo que ocurre con los dilemas ético-jurídicos de los deepfakes -a algunos de ellos se ha hecho referencia en otra oportunidad-[6], desde que se dio a conocer el mencionado chatbot, muchos ven escandalizados la posibilidad de “revivir digitalmente” a personas fallecidas a través de medios tecnológicos. Además, considerando que una patente concede derechos exclusivos para utilizar y explotar una invención e impedir que terceros la utilicen sin su consentimiento, jurídicamente habría que hacerse preguntas que tal vez resultan básicas, pero son necesarias: ¿de verdad podemos o debemos permitir este tipo de tecnologías?, ¿por qué?, ¿para qué?, ¿para servir a quién?

Pues bien, por una parte, se argumenta que una herramienta de esta naturaleza puede ser utilizada para combatir la depresión y ayudar a parientes a sobrellevar de mejor manera la pérdida de un ser querido. De hecho, fue esto lo que inspiró la creación de “Replika”. Desde ese punto de vista, en principio muy loable, no tendría nada de malo valerse de cualquier mecanismo que permita a los seres humanos “no estar tan solos” o remediar de alguna forma algo tan doloroso e inevitable en algún momento de la vida como el duelo.

Sin embargo, -sin pretender ir mucho más allá del derecho que es de lo que sabemos- cabe preguntarse si esto de verdad es un mecanismo para lograrlo o si, por el contrario, puede terminar por afectar la salud mental de las personas que la utilicen porque, de alguna forma, podría crear dependencia e incluso afectar su percepción de la realidad. Bajo ese escenario cabe cuestionarse también si el derecho debe intervenir. ¿Sería suficiente contar con el consentimiento informado de quien desee servirse de esta herramienta para permitir su comercialización? o, ¿deben hacerse algunos estudios previos para permitirlo?, ¿deben fijarse límites etarios?

Por otra parte, los que hemos llamado antes “insumos” utilizados para alimentar al chatbot generan ciertas dudas de privacidad. Entre otras cosas, porque se refieren a datos compartidos en redes sociales o por otros mecanismos públicos y privados (por ejemplo, mensajes de texto o de WhatsApp y cartas) que es probable que la persona “en vida” no hubiese querido fuesen utilizados por quien solicita este “servicio”, aunque no lo haya dicho o prohibido expresamente.

¿Tiene derechos alguien que ha fallecido?

Si bien es cierto que, para el derecho la muerte implica “el fin de la personalidad”, a las personas fallecidas les sobreviven ciertas tutelas “post mortem”, derivadas de lo que en doctrina se conoce como la “personalidad pretérita”, que podrían eventualmente verse afectadas por una realidad que hoy en día es resuelta por un derecho que fue pensado para otras épocas y otros tipos de problemas. Al menos en el caso de Chile, Andrés Bello no habría podido dimensionar jamás que su Código Civil podría llegar a aplicarse a unas eventuales “personalidades virtuales”, avatares y “bienes digitales.”[7]

Sin embargo, tradicionalmente el legislador ha dispuesto que, más allá del límite temporal de la existencia de su titular, se protejan ciertos derechos extrapatrimoniales de éste; por ejemplo, su fama, buen nombre, reputación y estimación personal y social; también ciertos derechos morales de propiedad intelectual -como los de paternidad e integridad-, e incluso ahora se prevén algunas disposiciones en cuanto a la protección de los datos personales de los fallecidos (estas últimas fundamentalmente relacionadas con ciertos supuestos de acceso a los datos personales de aquellos y, en su caso, a solicitudes de rectificación o supresión de dichos datos frente a los responsables de su tratamiento).[8] Tales derechos existen entre otras cosas porque, como diría Leiva Fernández: “No es lo mismo estar muerto que no haber vivido.”[9]

Pero, frente al nuevo contexto planteado, como mínimo debe pensarse en: ¿cómo deben entenderse estos derechos ante la posibilidad de la ulterior disposición de los datos que ha dejado el fallecido para la creación de una nueva “personalidad robótica o digital”? ¿Deben hacerse referencias a supuestos puntuales para, por ejemplo, designar por ley al nuevo titular de esa “vida digital” que se crearía a pesar del fallecimiento? ¿Son aplicables las normas tradicionales sobre sucesiones contenidas en los Códigos Civiles? O, ¿lo resuelven adecuada y suficientemente las normas existentes sobre protección de datos personales de las personas fallecidas?

Este tipo de problemas, por cierto, van más allá de un supuesto meramente teórico o hipotético, y es por esa y otras razones que algunas redes sociales como Facebook, han dado algunos pasos para permitir la designación de un “legado” o “contacto” que se encargará de las “cuentas conmemorativas”, es decir, de las cuentas de personas fallecidas.

Y por si lo dicho fuera poco, a esas y otras preocupaciones se añade una que ha sido poco observada al analizar algunas de las implicaciones del chatbot de Microsoft o una eventual mejora de este. Y es que por muy perturbador que pueda parecer, en el fondo también existen personas que no descartan la idea de poder “revivir” a un ser querido. De ahí que se haga “popular” esa vertiente de la discusión. Pero, hay que considerar que la patente describe la simulación de los rasgos de la personalidad de una “persona específica”, lo que no se refiere literalmente a “personas fallecidas”, y esto hace pensar en eventuales supuestos de creación de modelos virtuales de personas reales “presentes” o “pasadas.” (amigos, parientes, celebridades, personajes históricos, etc.).[10] ¿Qué no quiere atender una reunión? ¡Deléguesela a su “clon virtual”!

Este riesgo no es del todo hipotético porque, por ejemplo, es conocido el caso de una empresa energética del Reino Unido, que perdió 220.000 euros debido al empleo de un audio falso en el que se había utilizado inteligencia artificial para copiar la voz de uno de sus ejecutivos.[11]

Así que, si ya era complejo el panorama este otro escenario abre un nuevo mundo de posibilidades, ya que si se admite su comercialización: ¿Se generan nuevos riesgos de usurpación de identidades y ciberataques?[12] (lo que preocupa considerando que todavía no sabemos muy bien cómo resolver los que tenemos) ¿Estaríamos permitiendo ahora sí los “clones virtuales”? ¿Cómo y para qué tipo de fines podrían utilizarse -o no-? ¿Pueden presentarse supuestos en los que un interlocutor no esté en capacidad de diferenciar si está interactuando con la versión virtual de otro?

Entonces: ¿Qué hacer?

Las anteriores no son sino unas pocas de las muchas preguntas que se generan al visualizar el uso de una tecnología como la descrita, de forma masiva y libre en la práctica. Aunque existen voces que abogan por no regular, hay otras que apuntan a una regulación urgente. Las primeras se fundamentan especialmente en que los intentos de regulación podrían ser precoces, porque todavía no se sabe a ciencia cierta qué tanto pueden seguir desarrollándose las herramientas basadas en inteligencia artificial (además por muchas razones convendría que se desarrolle aún más), y en que hay riesgos que no pasarán de ser más hipotéticos que reales. Las segundas se inclinan cada vez más en apuntar aquellos aspectos que necesitan de una respuesta urgente en la actualidad.

Sin perjuicio de otras consideraciones y análisis más profundos que los que aquí se realizan, lo cierto es que, en un mundo en el que las personas interactúan cada vez más por medios digitales, mientras que crecen y se perfeccionan los cibercrímenes, no sobran las reflexiones sobre sus posibles implicaciones éticas y jurídicas. Y este es solo uno de los casos en los que queda en evidencia que, por el momento la inteligencia artificial genera más preguntas que respuestas, pero en todo caso debe estar al servicio de las personas y su regulación en algunas áreas es no solo necesaria sino inminente.

Michelle Azuaje

Fuente: Adefinitivas.com

Compartir en