ChatGPT está revolucionando la forma en que las personas en todo el mundo piensan y escriben. El sistema de inteligencia artificial creado por OpenAI recibió aproximadamente 1.800 millones de visitas solo en abril, ya que estudiantes y profesionales de todo el mundo aprovecharon su poder. En cuestión de segundos, ChatGPT puede generar ensayos, historias y diálogos originales personalizados según las solicitudes de los usuarios. Si bien esta rápida generación de lenguaje complejo augura emocionantes posibilidades, también plantea cuestiones intrincadas que deben abordarse.
LOS EXPERTOS EN IA Para obtener perspectivas expertas sobre sistemas de IA como los modelos de lenguaje grandes, se entrevistó a investigadores en áreas de inteligencia artificial, política y ética de la Universidad Northwestern. Según los cuatro expertos, herramientas como ChatGPT demuestran posibilidades emocionantes para la automatización y la personalización, pero también plantean preguntas importantes sobre política, sociedad y ética. Los desarrolladores, investigadores y comunidades deben trabajar para aplicar estas tecnologías de manera segura, responsable y en beneficio compartido.
El Dr. David Liebovitz, profesor asociado de informática de la salud y biomedicina, y el Dr. Mohammad Hosseini, investigador postdoctoral en medicina preventiva, argumentan a favor de incluir más voces para equilibrar los beneficios y riesgos de la IA. Duri Long, profesora asistente de estudios de comunicación, y Nina Wieda, profesora asistente de instrucción, sostienen que reconocer las fortalezas humanas que la IA carece permite a las personas dirigir la tecnología.
LA EVOLUCIÓN DE LA IA La IA ha evolucionado en fases a lo largo de muchos años. En la década de 1960, los investigadores desarrollaron tecnología que imitaba el comportamiento humano. En la década de 2000, las técnicas de aprendizaje automático permitieron un progreso real.
“Estos sistemas han existido, es solo que ChatGPT y OpenAI los han comercializado y los han hecho ampliamente accesibles, de manera que incluso un estudiante desde su hogar puede usarlos”, dijo el Dr. Hosseini.
Años de investigación en aprendizaje automático, en particular en el aprendizaje profundo, han llevado a este punto. El aprendizaje profundo es un tipo de aprendizaje automático en el que las redes neuronales artificiales imitan vagamente las redes neuronales del cerebro humano.
“Todo comienza imitando un cierto comportamiento humano innato”, dijo el Dr. Hosseini. “Cuando piensas en un sistema artificial, solo entiende el lenguaje de ceros y unos, y la única forma en que podemos ayudarlo a imitar el aprendizaje es utilizando estadísticas y modelos estadísticos”.
Estas redes neuronales “aprenden” a partir de grandes cantidades de datos para detectar patrones y resolver problemas complejos, como la comprensión del lenguaje.
“Imagina tener un orificio de datos que está más allá de lo que tú y yo podemos imaginar, terabytes de datos y texto generado por seres humanos a lo largo de los años”, dijo el Dr. Hosseini. “Y imagina tener un sistema que puede digerir, analizar y aprender de todo eso. Requiere mucha potencia computacional y de procesamiento. Pero al final, el sistema puede aprender cómo funciona el lenguaje y, una vez que le enseñas todos los elementos de un lenguaje, puede comenzar a comunicarse y comprender”.
Un avance clave fue el descubrimiento de que las redes neuronales funcionan mejor cuando utilizan tarjetas gráficas para el procesamiento, ya que pueden manejar los cálculos intensivos requeridos. Esto permitió el desarrollo de sistemas mucho más sofisticados.
“Tener acceso a estas grandes cantidades de datos, así como tener una computadora que pueda ser entrenada con esa cantidad de datos ha llevado a la capacidad de crear modelos capaces de este lenguaje natural y la interacción humana”, dijo la profesora Long.
Las capacidades analíticas de estos sistemas pueden servir como una ventaja importante.
“Si deseas comenzar a investigar algo, lo primero que debes hacer es encontrar la brecha”, dijo el Dr. Hosseini. “Quieres averiguar qué no se discute, qué no se dice. Y eso es muy difícil porque cada año se publican más documentos y más investigaciones que el año anterior. Y para que una persona sintetice la literatura existente, lo que ya está disponible, lleva mucho tiempo y es agotador”.
De esta manera, los modelos de lenguaje grandes pueden ayudar a los usuarios a explorar, analizar y organizar la investigación existente de una manera fácil de entender.
“Esto puede ayudar a personas como yo para quienes el inglés no es su primer idioma”, dijo el Dr. Hosseini. “Escribo todo el día todos los días, y normalmente pasaría mucho tiempo editando mi trabajo, yendo y viniendo para tratar de mejorar la gramática y la estructura. ChatGPT es de gran ayuda para personas como yo”.
Otra ventaja es que los modelos de lenguaje grandes pueden ayudar a superar las barreras del idioma.
“Es muy útil para los investigadores que trabajan en ámbitos internacionales, y hay muchos”, dijo. “El inglés es el idioma más utilizado en las noticias para comunicar los resultados de la investigación, pero el inglés no es el primer idioma de todos”.
Otra ventaja que proporciona esta tecnología es la velocidad y la eficiencia.
“Elimina mucho trabajo”, dijo la profesora Wieda. “Puede generar en segundos algo que llevaría horas y horas de trabajo”.
ALUCINACIONES
El principal problema con los modelos de lenguaje grandes es que pueden tener “alucinaciones”, es decir, generar detalles, hechos o referencias incorrectas. Debido a que los modelos de lenguaje como ChatGPT producen respuestas mediante el análisis de enormes volúmenes de datos y texto, es difícil verificar la precisión de la información proporcionada. El Dr. Hosseini argumenta que actualmente no hay forma de verificar con certeza que las afirmaciones hechas por ChatGPT y sistemas de IA similares sean correctas.
“La forma en que este sistema responde tan cortésmente da la falsa impresión de estar bien investigado y matizado”, dijo el Dr. Hosseini. “No lo es”. Según la profesora Wieda, este no es un problema que se pueda solucionar fácilmente. “Está diseñado de tal manera que evade la detección, por lo que debemos prepararnos para un mundo en el que no haya forma de saber si algo fue generado por IA o por un humano”, dijo. “Necesitamos aprender a actuar en consecuencia”.
Sin embargo, algunos expertos, como el Dr. Liebovitz, están probando formas de ayudar a los modelos de lenguaje a proporcionar información precisa y citar fuentes. “Resulta que hay una forma de enfocar la atención de un modelo de lenguaje grande en un conjunto de datos dado”, dijo. “Existen formas de enfocar el modelo de lenguaje grande solo en información autoritativa y confiable y, al hacerlo, incluir el enlace al material fuente en la salida”.
BIAS INCORPORADO
Los modelos de lenguaje grandes tienen sesgos incorporados que a menudo son difíciles de identificar. “Cualquier modelo de aprendizaje automático va a tener sesgos”, dijo la profesora Long. “Solo va a conocer y tener información en la que se le haya entrenado, por lo que si se le ha entrenado con miles de ejemplos de texto probablemente extraídos de Internet, hay mucho sesgo en Internet y en el mundo. La gente piensa que la IA es objetiva, pero refleja los datos de los que aprende”.
La profesora Long señala que las alucinaciones exhibidas por los modelos de lenguaje ocurren porque estos sistemas están produciendo lo que calculan como la respuesta más probable a una pregunta, no porque estén sacando de una fuente de datos específica o respondiendo de una manera genuinamente humana.
BIAS EN ESTOS SISTEMAS PODRÍA IMPACTAR LA LITERACIA MEDIÁTICA EN TODO EL MUNDO, SEGÚN EL DR. HOSSEINI.
“Este sistema se desarrolló en el mundo anglófono como una empresa con sede en Estados Unidos y la mayoría de las personas que entrenaron los datos son hablantes nativos de inglés, por lo que es muy fácil que el sistema tenga sesgos en sus visiones del mundo y hacia sesgos del mundo anglófono”, dijo. “¿Y si este sistema propaga todas estas opiniones y sesgos a su base de usuarios en todo el mundo? No creo que las personas sean capaces de reconocer estos sesgos”.
Abrazando estas herramientas, el Dr. Liebovitz presenta una idea intrigante: un sistema en el que los modelos de lenguaje grandes se involucran en la verificación mutua de hechos. Imagina un entorno en el que estos modelos escudriñan las salidas de los demás, actuando como un mecanismo incorporado para garantizar la precisión de la información. Este enfoque podría ayudar a identificar y corregir posibles inexactitudes, agregando una capa sólida de confiabilidad a los sistemas de IA.
GAPS DE CREDIBILIDAD
En este momento, hay dos modelos de ChatGPT accesibles para los usuarios. ChatGPT-3.5 es gratuito, mientras que GPT-4 está disponible por una suscripción mensual de $20. Cada versión proporciona respuestas muy diferentes a las mismas preguntas, lo que limita en gran medida la confiabilidad de la investigación.
“Una de las principales facetas de una buena investigación es la investigación que es reproducible”, dijo el Dr. Hosseini. “Con un modelo que se está desarrollando tan rápido, hacer una reproducción del contenido generado es casi imposible a menos que todos tengamos acceso a la misma versión al mismo tiempo, lo cual no es posible”.
Los modelos de lenguaje grandes proporcionan respuestas diferentes a las mismas preguntas cada vez porque no se basan en un conjunto definitivo de respuestas “correctas”. En cambio, estos sistemas generan lo que calculan como las respuestas más probables basadas en los datos en los que se han entrenado. La amplia gama de respuestas potenciales dentro de incluso un solo modelo de lenguaje de IA significa que las respuestas proporcionadas a la misma pregunta pueden diferir significativamente en precisión factual o calidad.
LA INFLUENCIA DE LAS GRANDES CORPORACIONES DE TECNOLOGÍA
Muchos expertos y miembros del público en general se preocupan de que las grandes corporaciones tecnológicas puedan ganar una influencia indebida sobre la sociedad a través del desarrollo y la aplicación de sus sistemas y plataformas. “Sistemas como este podrían amenazar a las democracias mediante la propagación de desinformación y malinformación”, dijo el Dr. Hosseini. “Estas empresas pueden cambiar fundamentalmente la forma en que interactuamos entre nosotros, cómo interactuamos. Estas empresas pueden cambiar el mundo y si no nos damos prisa, podría ser demasiado tarde, tal vez en uno o dos años”.
El estado actual de los modelos de lenguaje que escanean y resumen información disponible no parece prestarse fácilmente a la manipulación. Sin embargo, servicios futuros basados en sistemas más avanzados podrían potencialmente desarrollarse y aplicarse para difundir desinformación si no se establecen también salvaguardias.
Un obstáculo para la transparencia es la naturaleza propietaria de los datos de entrenamiento utilizados por los modelos de lenguaje grandes. Con frecuencia, los creadores no revelan estos conjuntos de datos, manteniéndolos en exclusiva.
“Porque OpenAI no ha revelado las fuentes, es un terreno fértil para problemas de derechos de autor”, dijo el Dr. Hosseini. “El nombre de la empresa es OpenAI, pero no hay apertura en ella”.
Hay una clara tendencia de las empresas privadas a ganar más influencia a medida que ejercen más control sobre el campo de la inteligencia artificial.
“Incluso si no manipulan de manera intencionada la información entregada a los usuarios, no siempre está claro de dónde proviene esa información”, dijo la profesora Long. “Y si las personas fuera de la empresa no pueden auditar los conjuntos de datos para examinarlos y ver si los conjuntos de datos son relativamente imparciales, creo que eso es una preocupación. Debe haber una interacción entre las empresas y la formulación de políticas públicas y regulaciones legales que rodeen estas tecnologías. Si las empresas son dueñas de ellas, debe haber un control público sobre ellas, porque estos modelos pueden tener un impacto muy amplio en nuestra sociedad, pero las decisiones al respecto las toman unas pocas personas que no son elegidas democráticamente”.
LA IMPORTANCIA DE LA TRANSPARENCIA
La transparencia en el desarrollo y el uso de estas nuevas tecnologías es crucial. “El problema es que cuando pides a los desarrolladores o a las empresas que poseen estos sistemas que sean transparentes, les estás pidiendo que revelen completamente el funcionamiento interno de sistemas que han sido patentados”, dijo el Dr. Hosseini. “No puedes pedir a una entidad comercial que divulgue completamente cómo funciona su sistema”.
Antes de que podamos empezar a crear reglas para esta tecnología, debemos entenderla mejor. La profesora Long aboga por la participación directa de las personas en el proceso de diseño de la IA. “Creo que esto es importante para comprender mejor cómo las personas los usarán, cómo afectarán a las personas y cómo diseñar para centrar al ser humano en la interacción con estas tecnologías, porque en última instancia no creo que nuestro objetivo final sea desarrollar una IA que pueda suplantarnos o hacer todo nuestro trabajo creativo por nosotros, creo que es desarrollar una IA que pueda apoyarnos e inspirarnos”, dijo.
EDUCADORES TRATAN DE ADAPTARSE
En el último año, los educadores de todo el mundo han tenido que navegar por obstáculos únicos presentados por el avance de la IA. Con la capacidad de responder preguntas, ayudar en la composición de ensayos y proporcionar retroalimentación instantánea, estas herramientas de IA presentan oportunidades novedosas. Sin embargo, junto con estos beneficios, introducen nuevos desafíos que obligan a los educadores a reconsiderar su enfoque en el aula. Este cambio afecta todos los aspectos de la educación, desde los materiales didácticos hasta los sistemas de calificación.
“Ahora tenemos una herramienta muy fácil que en segundos produce posibles ensayos que solían requerir horas, días, a veces semanas de trabajo”, dijo la profesora Wieda.
Al comienzo del semestre de primavera, hubo educadores que deseaban prohibir el uso de modelos de lenguaje grandes en el aula. Su esperanza estaba en mantener los métodos de enseñanza y aprendizaje tradicionales. Los educadores veían estos sistemas de IA como posibles amenazas al crecimiento intelectual, temiendo que la facilidad de uso pudiera llevar a que los estudiantes pongan menos esfuerzo en tareas de pensamiento crítico y escritura. A pesar de este punto de vista, la naturaleza omnipresente de la tecnología y los posibles beneficios de estos modelos plantearon el desafío de implementar efectivamente una prohibición.
“Se necesita un cambio conceptual por parte de los profesores para llegar a la idea de que solo puedes prohibir algo si puedes controlar el resultado”, dijo la profesora Wieda. “Se necesita hacer mucho trabajo para que el cambio no sea demasiado drástico y creo que ahora recae mucha responsabilidad en los profesores, porque los jóvenes que están aprendiendo pueden no estar considerando el impacto a largo plazo de no aprender a escribir”.
En el mundo de la educación, profesionales como la profesora Wieda y su equipo están trabajando para adaptarse. A pesar del aumento de los recursos de IA, su objetivo sigue siendo el mismo: garantizar una enseñanza efectiva. Están desarrollando estrategias que tienen en cuenta estas nuevas tecnologías, trabajando en cómo integrarlas en la enseñanza sin perder la esencia del aprendizaje tradicional. Se trata de encontrar un equilibrio en el que los estudiantes puedan beneficiarse de la IA sin que esta eclipse las habilidades de pensamiento crítico y escritura. Se trata de utilizar estas herramientas como apoyos, no como muletas, en el viaje educativo.
ALIVIO DE LO MUNDANO
A medida que la innovación en IA continúa, influye cada vez más en varios campos profesionales. Los sistemas de IA pueden liberar a los humanos de tareas mundanas, permitiéndoles concentrarse en aspectos más atractivos de su trabajo.
“Hace unos años, todos pensaban que la IA se haría cargo del trabajo manual”, dijo el Dr. Hosseini. “Pero las personas que desarrollan la IA fueron inteligentes y se dieron cuenta rápidamente de que el dinero está en la industria creativa y en sectores que en este momento ocupan trabajadores de cuello blanco”.
Esta creciente prevalencia e impacto de la IA preocupa a varios expertos, así como a grupos públicos. Investigadores que estudian los efectos sociales de las tecnologías avanzadas, éticos enfocados en la innovación responsable y defensores de los derechos civiles han planteado problemas relacionados con sistemas de IA que generan contenido, curan información y realizan tareas laborales humanas.
“Estas herramientas pueden usarse para aumentar y respaldar la creatividad y la productividad humanas en lugar de reemplazar o suplantar trabajos humanos”, dijo la profesora Long. “Probablemente implicará legislación y políticas para garantizar que estos servicios sean herramientas productivas para nosotros, así que creo que hay un papel tanto en educar a las personas sobre las limitaciones y capacidades de estas herramientas como en que los responsables de la formulación de políticas, reguladores y empresas establezcan directrices y trabajen para que las herramientas sean menos sesgadas y se centren más en aumentar la creatividad humana”.
LOS HUMANOS SIGUEN SIENDO ESENCIALES A pesar de que la IA puede realizar tareas humanas o mejorar trabajos, los expertos argumentan que las habilidades humanas siguen siendo esenciales. “La IA se basa en lo que ya existe, pero generar comparaciones sorprendentemente nuevas, yuxtaposiciones inusuales, esos momentos de combinaciones inusuales de datos o análisis, no es algo en lo que la IA sea buena en este momento”, dijo la Profesora Wieda. “Todavía es algo que los humanos pueden generar mejor en este momento. Debemos utilizar esta herramienta para apoyarnos y darnos la oportunidad de brillar con lo que tenemos para ofrecer en lugar de rendirnos y ceder ante ella”. Al reconocer el valor que los trabajadores humanos siguen proporcionando, las personas y los grupos pueden determinar dónde y cómo la IA puede complementar y potenciar en lugar de reemplazar o socavar el trabajo existente. “Mi consejo sería que pruebes las herramientas, que las uses para ver lo que hacen y que pienses en tu propio trabajo en comparación con eso”, dijo la Profesora Long. “Creo que probablemente descubrirás que aportas mucho valor a tu trabajo que la IA no puede replicar”.