Sociedad
Suscríbete por 1€

Tercer Milenio

Entrevista

Pablo Haya: “ChatGPT es una máquina de generar desinformación”

Casi cualquiera que haya utilizado esta aplicación de IA puede haber tenido la sensación de estar ante algo disruptivo. El experto Pablo Haya explica hasta dónde puede llegar la inteligencia del ChatGPT.

Pablo Haya, en el Instituto de Ingeniería del Conocimiento
Pablo Haya, en el Instituto de Ingeniería del Conocimiento
Alejandro Muñoz / Sinc

Durante las últimas semanas se ha desatado una gran expectación sobre el ChatGPT, una aplicación de inteligencia artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, de forma muy intuitiva. Desde crear un artículo que podría haber escrito Rajoy, a realizar los deberes de estudiantes o facilitar las tareas de un profesional de consultoría, para que pudiese llegar a una cena.

Los ejemplos en redes sociales han sido muchos, por su facilidad de uso y lo acertado de sus respuestas. Las posibilidades que ofrece esta nueva aplicación parecen infinitas, pero expertos como Pablo Haya creen que no se debe exagerar con las capacidades del ChatGPT, e insisten en recordar la limitación tecnología detrás de este programa.

Haya está especializado en IA y procesamiento de lenguaje. Es profesor de big data y ciencia de datos y lidera el grupo de Social Business Analytics en el instituto de Ingeniería del Conocimiento, ubicado en la Universidad Autónoma de Madrid, un centro de transferencia tecnológica centrado en inteligencia artificial, con 30 años de historia.

¿Estamos ante la nueva revolución digital tras la creación de internet?
La sensación es que el ChatGPT es un poco el doctor Jekyll y Mr. Hyde. Por un lado, estamos ante una revolución en el área del Procesamiento del Lenguaje Natural (PLN). Supone un cambio cuantitativo y cualitativo impresionante en IA generativa de texto. Cualquier humano que lo ha probado ha tenido esa sensación de estar ante algo que no había experimentado nunca. Como cuando apareció Google. Por otro lado, se están generando unas expectativas desmedidas en cuanto a cómo va a influir en la sociedad.

Pero se trata de una aplicación en fase de pruebas, ¿no?
Sí, Sam Altman, CEO de OpenAI, no ha dejado de repetir las limitaciones que tiene el ChatGPT. Ahora, el programa está en abierto para que lo probemos y lo validemos, pero esto será una aplicación de pago. El ChatGPT es una ventana al futuro. En cuatro o cinco años, estará integrado en Bing, en Google o en las apps de tu móvil y lo usará todo el mundo.

¿Es inteligente?¿Qué significa ser inteligente? El ChatGPT no entiende nada, solo aplica un proceso en el que, dada una frase, encuentra la siguiente palabra. Busca relaciones entre palabras, pero no comprende el significado de las palabras. Las capas que han generado su entrenamiento de repetición, desde el punto de vista de la ética, por ejemplo, no le añaden inteligencia, sino que filtran sus resultados. Es un proceso de cribado como el de la evolución. Hay gente que define la inteligencia como la capacidad de resolver problemas. Entonces estas aplicaciones sí serían inteligentes, porque resuelven problemas. Para mí, la inteligencia implica el hecho de ser consciente. El ser que piensa que piensa. Además de ser conscientes, los humanos somos sintientes y para eso necesitamos un sistema nervioso que genera hambre, deseo, miedo, etc. Y estamos muy lejos de alcanzar una inteligencia consciente; la máquina solo emula el lenguaje humano.

Aun así, el chat es capaz de entrevistar y redactar artículos, incluso me ha sugerido preguntas para esta entrevista. ¿Puede llegar a reemplazar el trabajo de algunas personas?
La mayor parte de los empleos están compuestos de más de una tarea, con lo cual, si te automatizan una de tus tareas, lo normal es que te permita hacer otras tareas mejor o ampliar tu campo profesional. Si tu único trabajo es redactar el horóscopo, pues date por despedido. Sin embargo, no puede sustituir a los periodistas de opinión o de otra rama, pero sí que les ayudará a hacer las cosas más rápido. El ChatGPT genera unas entradas para blogs buenísimas, pero sin elaboración propia. Es como si vas a Wikipedia y haces corta y pega. La cuestión es que ha sido entrenado con todo internet y hay muchas tareas que nos parecen muy sofisticadas que ya han sido resueltas antes. En el caso de los profesores, por poner otro ejemplo, son profesionales que no solo aportan conocimiento. También transmiten valores, guían y aportan su experiencia.

Hay estudiantes que han usado ChatGPT para sus trabajos y exámenes. ¿Tendremos que cambiar cómo evaluamos el conocimiento, por ejemplo, con menos redacciones y más exámenes orales?
Es difícil de saber. No deberíamos dejar de enseñar a hacer buenos ensayos porque ChatGPT sea capaz de hacerlo. Para poder construir un pensamiento crítico es básico ser capaces de expresar ideas complejas y relacionarlas. Al modo clásico, juntar retórica y lógica para elaborar un discurso que tenga argumentos potentes y que además sea convincente. Es algo que habrá que seguir potenciando. Además, para un profesor es fácil detectar lo que genera el ChatGPT. El alumno tiene una forma personal de expresarse. Pero es muy interesante la amenaza que pone sobre la mesa: ¿nos va a hacer más vagos o nos va a ayudar a ser todavía más capaces?

¿Puede contribuir a generar más desinformación?
No es difícil trollear al modelo GPT-3. Yo le pregunté: ¿en qué equipo de la NBA va a jugar Mariano Rajoy en la próxima temporada? Me contestó que en los Miami Heats. Con ChatGPT se han hecho esfuerzos para que no genere respuestas falsas, pero aún así es fácil encontrártelas. En inglés se distingue entre desinformación intencionada (‘disinformation’) y desinformación involuntaria (‘misinformation’). Las tecnologías como el ChatGPT son máquinas de generar desinformación no intencionada, simplemente por la forma en que están construidas. Aunque han conseguido reducir bastante ese riesgo, en entornos profesionales donde necesitas respuestas muy concretas no puedes usarlo ni para las cuestiones más básicas a nivel técnico. El otro día le pregunté: cómo se define comer según la RAE. Obtuve una buena definición de comer, con cinco o seis acepciones. Después consulté la RAE y ninguna de las acepciones estaba ahí. Se las había inventado. Es un ejemplo de desinformación no intencionada. Los programadores no conocen la RAE y nadie pensó en entrenar al chat sobre definiciones concretas. Lo mismo pasa si le preguntas: dime el artículo 3 de la Constitución. El resultado no será correcto.

Cómo funciona

Básicamente, el ‘software’ GPT-3.5 de la empresa OpenAI es un modelo probabilístico que junta palabras. Pablo Haya explica que "no entiende el conocimiento que genera, solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet y se ha puesto a hacer una tarea muy básica: le damos una frase, le quitamos una palabra de esa frase y entonces intentamos que la IA prediga la palabra que se le ha quitado. Y repetimos este proceso casi hasta el infinito, no solo en tiempo, sino sobre todo en volumen de datos. Lo sorprendente es que con este método se ha conseguido que genere textos que imitan el lenguaje humano, desde el punto de vista gramatical, a unos niveles insospechados hasta hace poco". Ya en 2019, con el chat basado en el ‘software’ GPT-2 se vio el primer gran avance. Ahora este chat basado en GPT-3.5 tiene dos novedades.

Por un lado, señala el experto, "integra distintas maneras de interaccionar. Le puedes pedir tanto respuestas en lenguaje natural como código fuente, el borrador de un contrato, una poesía, la letra de una canción, etc. Todo eso con una interacción muy natural en la que guarda el contexto y puedes ir matizando sus respuestas con nuevas preguntas". Por otra parte, "incluye salvaguardas para que no opine de temas conflictivos o que en principio no podría saber porque no tiene la información. Se le ha orientado y por eso vemos que a veces habla de forma muy sosegada, como si fuera un experto que quisiera dar una respuesta muy prudente".

Para lograr esto, "ha habido personas simulando conversaciones, como si fueran el usuario y la máquina, para enseñarle de qué manera responder". Como es generativo, "no necesitas enseñarle todo tipo de frases, es capaz de extrapolar y puede incorporar sinónimos porque tiene toda la gramática del español capturada. Es muy versátil". Con esa simulación, luego se entrena al ChatGPT para que utilice este lenguaje y se le pone a prueba. "Las respuestas que va dando a las preguntas se validan mediante un aprendizaje por refuerzo y así se va ajustando más, para que la IA pueda generar cualquier tipo de frase".

-Ir al suplemento Tercer Milenio

Apúntate y recibe cada semana en tu correo la newsletter de ciencia

Etiquetas
Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión