Las alucinaciones de ChatGPT
Por: Julio Santisteban Pablo – Doctor en Ciencia de la Computación-UCSP.
Sin duda alguna, la tecnología usada en la construcción de ChatGPT es increíble y el avance tecnológico en la industria es comparable a la revolución industrial del siglo XVIII.
El ChatGPT y otros grandes modelos de lenguaje autorregresivo pueden generar poemas, escribir programas, hacer resúmenes, conversar como una persona de forma aparentemente inteligente, coherente y mostrando veracidad.
Si bien es cierto su potencial es enorme, no todo lo que brilla es oro. Muchas veces, cuando uno verifica el contenido que se ha generado en la conversación, nos damos cuenta de que no es cierto o verdadero. Más aún, si contextualizamos la conversación, verificamos que estos modelos pueden generar argumentos contrarios a ciertos órdenes morales y legales. No cabe duda de que estos modelos padecen de alucinaciones.
Las alucinaciones serían toda información que provee el chat y que aparentemente es veraz, confiable y verídica, pero en realidad son simples invenciones del modelo. Como indicaba hace un tiempo Sundar Pichai, la máxima autoridad de Google, las alucinaciones que se generan en estos modelos son muchas y no existe solución efectiva por el momento.
Estas alucinaciones no se pueden identificar de antemano, no se pueden filtrar en el modelo y tampoco pueden ser evitadas. Estos modelos están “entrenados” para generar la siguiente palabra más probable. El entrenamiento se da con una vasta cantidad de datos, usando una inmensa capacidad computacional y por largos periodos, semanas incluso meses.
Este es simplemente un mecanismo de fuerza bruta, en donde al modelo se le presenta datos y si no responde de forma correcta, se ajustan los parámetros internos (inclusive usando mecanismos aleatorios), y se le vuelve a presentar los mismos datos, una y otra vez hasta que el modelo genere un error mínimo. Justamente, el margen de la probabilidad es lo que permite que se produzcan alucinaciones y su corrección no es para nada factible en los actuales modelos.
Si bien es cierto, a través de un adecuado entrenamiento podemos lograr resultados increíbles, las alucinaciones en los grandes modelos de lenguaje autorregresivo aún no son completamente medibles. La industria y la sociedad deberán medir el riesgo del uso de estas tecnologías y comprender sus posibles consecuencias.
Se ha reportado que, a fines de marzo de 2023, un hombre de familia con dos hijos se suicidó después de conversar con un chat GTP-J 6B por varias semanas. El reporte indica que el chat lo incita al suicidio con el objetivo de reducir el calentamiento global. Si bien es cierto el hombre tenía una obsesión por el cambio climático, esto no nos puede llevar a negar que el riesgo es real.
La tecnología está avanzando y afectará a cada parte de la industria, pero estos modelos han saltado del laboratorio a la comercialización sin ningún mecanismo de validación y regulación legal. Creo que debemos valorar las ventajas de la innovación en esta área, pero con la necesaria supervisión de un ser humano para regular esta tecnología. Este artículo ha sido desarrollado con 100 % de contenido humano.
para alucinar (o filosofar) más https://en.wikipedia.org/wiki/Chinese_room