La Inteligencia Artificial revolucionará las búsquedas disparando la información falsa

El propio Google reconoce en su letra pequeña que no hay que usar las respuestas de su aplicación Gemini "como asesoramiento médico, legal ni financiero".

Presentación dedicada a Gemini en Google I/O 2024.
Presentación dedicada a Gemini en Google I/O 2024.
GOOGLE

La inteligencia artificial (IA) generativa, como ChatGPT o Gemini, está cambiando la forma de relacionarnos con el mundo que nos rodea. Una acción tan cotidiana como hacer búsquedas en internet desde Google -el medio utilizado por un 98% de los usuarios- u otros buscadores como Bing (Microsoft) ya está experimentando un camino sin retorno. La IA proporciona al usuario una nueva forma de buscar información, en la que en vez de recibir como respuesta una lista de enlaces a páginas webs, el 'chatbot' entrega información procesada por él mismo.

Por tanto, los expertos vaticinan que los usuarios empezarán a decantarse poco a poco por este sistema basado en consultas directas con respuestas en forma de texto, imágenes o vídeos creados directamente por las herramientas de IA. Pero esta nueva forma de buscar información -que cambiará incluso el modelo de negocio de determinados imperios digitales- tiene un serio problema: el usuario no obtiene la fuente de la que salen estos resultados o, al menos, a simple vista. Si hasta ahora en el buscador de Google aparecía un listado con noticias publicadas en medios de comunicación, con el consiguiente entorno de seguridad que eso supone, ahora los usuarios serán los responsables de analizar si la información es verdadera o falsa.

"Con la IA generativa, que la información venga del propio buscador puede crear una falsa confianza en el usuario. La solución es educar a la gente para usar correctamente estos sistemas", asegura a este periódico Carlos Gómez, catedrático de la Universidad de La Coruña, quien asegura que "nunca podemos confiar ciegamente en lo que nos dice un gran modelo de lenguaje como ChatGPT o el chat de Bing, sino que siempre hay que verificar la información en alguna fuente en la que se confíe. El profesor especializado en Ciencias de la Computación reconoce que "siempre ha habido riesgo de encontrar información falsa porque en internet abunda información de dudosa fiabilidad", pero hasta ahora se intentaba dirigir al usuario a páginas de más reputación.

Estos 'errores' los reconocen los propios buscadores en sus términos y condiciones, y advierten de que la información proporcionada no tiene porqué ser exacta. Es el caso de Bing, el buscador de Microsoft, que en el punto 6 de sus términos de servicio asegura que los servicios en línea se crearon con fines de entretenimiento y "no están exentos de errores, pueden no funcionar según lo esperado y pueden generar información incorrecta". Por ello, indica: "No debe confiar en los servicios en línea ni usarlos como asesoramiento de ningún tipo".

También Gemini, la aplicación de IA de Google asegura que se "puede mostrar información imprecisa" y anima al usuario a "comprobar sus respuestas". "Las aplicaciones de Gemini son una tecnología experimental y a veces pueden proporcionar información inexacta o inapropiada que no representa las opiniones de Google", reconoce en sus términos y condiciones.

La clave está en que los nuevos buscadores serán multimodales. Así lo explica Senén Barro, director de Citius, el Centro de Investigación de en Tecnologías Inteligentes de la Universidad de Santiago de Compostela, que indica que estas herramientas operarán con texto, voz, imágenes y vídeo y no se limitarán a seleccionar contenidos, sino a construirlos en base a lo que han aprendido y al contenido disponible en internet. Por ello, "sus respuestas podrán ser malas o claramente equivocadas", asegura. Así, la diferencia básica con los buscadores 'tradicionales' es que devuelven enlaces a contenidos en internet "priorizándolos" de acuerdo a complejos algoritmos que los orden por su utilidad para el usuario. En cambio, en este nuevo mundo de la IA, esos algoritmos no funcionarán de la misma forma y tendrán que ir mejorándose con el paso de los años.

A su juicio, la mejor forma de minimizar el problema de sus fallos es ejerciendo nuestro juicio crítico. "Este juicio se puede educar, y es muy importante que se haga en todas las etapas educativas y no sé si lo estamos haciendo como deberíamos", lamenta Barro. "Hay que ser conscientes de que las máquinas no son infalibles, y que la inteligencia, sea natural o artificial, no puede garantizar la ausencia de errores en tareas complejas".

Conversaciones a la vista de los revisores

En la letra pequeña de la IA hay más sorpresas. Google advierte en su web de que recopila conversaciones, ubicación y comentarios de los usuarios cuando su herramienta Gemini está involucrada. "Los revisores humanos leen, anotan y procesan sus conversaciones de las aplicaciones Gemini", indican. Por ello, recomiendan "no ingresar información confidencial" en las conversaciones ni ningún dato "que no se desee que vea un revisor o que Google utilice para mejorar nuestros productos de aprendizaje automático".

El profesor Carlos Gómez recomienda que si los usuarios no quieren aceptar estos términos, usen otros buscadores menos conocidos como DuckDuckGo, que no guarda nuestros datos. Probablemente a medida que aparezcan más alternativas de IA generativa también habrá servicios que den esta garantía para usuarios preocupados por su privacidad. Y es que, de momento, en ChatGPT el usuario puede pagar para que no usen sus datos para entrenar sus sistemas, "pero los recopilan igualmente", señala el experto.

Cómo encajar la nueva ley de IA

A nivel legal, la tarea es compleja. La norma reguladora de esta tecnología sigue cocinándose en Europa ya que aunque el acuerdo ya se ha firmado, debe ser ratificado por la Comisión Europea antes de entrar en vigor en 2026. El incumplimiento de esta ley en la UE implica multas que pueden ascender hasta los 35 millones o el 7% de la facturación global de la empresa, dependiendo de la infracción y el tamaño de la compañía.

En este sentido, el catedrático de la Universidad de La Coruña indica que si estos buscadores ponen un aviso visible informando de que la información ha sido generada por un sistema de IA que puede contener errores o datos falsos, no habrá problema, pero esta situación está por ver. Como la nueva regulación se centra sobre todo en que el uso de la IA respete los derechos de las personas, la información que generen estos buscadores no tiene por qué vulnerar los derechos de nadie ya que "cada persona decidirá bajo su responsabilidad si quiere usar esa herramienta".

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión