El 30 de noviembre de 2022 la empresa OpenAI lanzó ChatGPT, un chatbot de inteligencia artificial (IA) conversacional de gran escala. Apenas un año después, la herramienta es uno de los sistemas de IA más avanzados del mundo, con un potencial transformador para la sociedad enorme y con 100 millones de usuarios cada semana.

Desde su despliegue, ChatGPT ha destacado por su capacidad para comprender y generar texto coherente, estableciendo un paradigma en la interacción humano-máquina. Su implementación se ha traducido en avances sustanciales, particularmente en aplicaciones como asistentes virtuales y procesamiento de lenguaje natural.

La herramienta que revolucionó el 2023 ha demostrado ser capaz de generar conversaciones naturales y fluidas, incluso sobre temas complejos. Esto se debe a que está entrenada en un conjunto de datos masivo de texto y código, que le permite aprender las reglas de la comunicación humana. En cuanto a su potencial, la versatilidad de ChatGPT ha demostrado ser excepcional. Su capacidad para adaptarse a diversas tareas, desde la generación de texto creativo hasta el aprendizaje de nuevos dominios, sugiere un amplio espectro de aplicaciones prometedoras.

Sin embargo, ChatGPT también plantea algunos riesgos potenciales. Uno de los principales es que podría ser utilizado para difundir información falsa o engañosa, o para generar contenido que sea difícil de distinguir de la realidad, lo que podría tener un impacto negativo en la sociedad y la democracia. Además, ChatGPT podría ser utilizado para crear deepfakes, que son videos o audios manipulados para que parezcan que están siendo dichos o hechos por alguien que no es el verdadero autor. Los deepfakes podrían ser utilizados para dañar la reputación de las personas o para difundir propaganda.

Otro riesgo es que ChatGPT podría ser utilizado para crear sistemas de IA que sean difíciles de controlar o que puedan causar daño. Por ejemplo, esta herramienta podría ser utilizada para crear chatbots que sean tan convincentes que puedan engañar a las personas para que les proporcionen información personal o confidencial.

El lanzamiento de ChatGPT ha generado un debate sobre los riesgos y beneficios de la IA conversacional. Algunos expertos creen que ChatGPT podría ser una herramienta poderosa para el bien, mientras que otros temen que pueda ser utilizada para el mal. El debate que ha rodeado a este popular chatbot ha sido multifacético. Desde la discusión sobre la necesidad de regulación hasta las inquietudes éticas relacionadas con la privacidad y la transparencia en el desarrollo de algoritmos, se ha generado un diálogo crucial. Este intercambio de ideas destaca la importancia de abordar proactivamente los desafíos éticos emergentes asociados con la inteligencia artificial.

Es importante tener en cuenta que ChatGPT es una herramienta, y como cualquier herramienta, puede utilizarse para el bien o para el mal. Depende de nosotros, como sociedad, asegurarnos de que ChatGPT se utilice de forma responsable.

En este aniversario, reflexionamos sobre los logros alcanzados y reconozcamos la necesidad de un enfoque riguroso y ético en la evolución de ChatGPT y tecnologías afines. Es fundamental que, como comunidad, sigamos comprometidos con la responsabilidad en la investigación y desarrollo de inteligencia artificial para garantizar su impacto positivo y sostenible en la sociedad.

Dra. Patricia Möller

Docente e investigadora de la Universidad Autónoma de Chile.

Ingeniera en bioinformática, Dra. en biotecnología.

Compartir en