En un intento por revolucionar su motor de búsqueda, Google ha integrado una nueva función de Inteligencia Artificial llamada AI Overviews. Esta herramienta, que presenta resúmenes generados por IA en la parte superior de los resultados, prometía respuestas rápidas y completas. Sin embargo, su lanzamiento en Estados Unidos y otros mercados se ha visto empañado por una serie de respuestas bizarras, peligrosas y objetivamente falsas, que han puesto en duda la fiabilidad de la tecnología.
El caso más viral y alarmante fue la recomendación de añadir pegamento no tóxico a la salsa de pizza para evitar que el queso se deslice.
¿De dónde sacó la IA de Google estas respuestas?
El problema no es que la IA «invente» de la nada, sino cómo procesa y presenta la información que encuentra en la web. Estos errores, conocidos en el mundo de la IA como «alucinaciones», ocurren cuando el modelo malinterpreta los datos o carece de la capacidad de discernir el contexto, el sarcasmo o la fiabilidad de una fuente.
* El caso de la pizza con pegamento: La investigación reveló que la fuente de esta peligrosa sugerencia fue un comentario sarcástico realizado hace 11 años en un hilo de la plataforma Reddit. La IA tomó el comentario literal, sin entender el humor, y lo presentó como una solución culinaria válida.
* Comer rocas: A la pregunta «¿cuántas rocas debo comer al día?», AI Overviews respondió que «según geólogos de la UC Berkeley, se debe comer al menos una roca pequeña al día». La fuente era un artículo del conocido sitio de sátira The Onion.
* Información falsa sobre figuras públicas: La IA también afirmó incorrectamente que el expresidente de EE.UU., Barack Obama, fue el primer presidente musulmán del país, una conocida teoría de conspiración.
«En la escala de la web, con miles de millones de consultas diarias, es inevitable que haya algunas rarezas y errores», declaró Liz Reid, directora de Búsqueda de Google, en un intento por minimizar la controversia.
El mecanismo detrás del error: ¿Cómo funciona AI Overviews?
AI Overviews utiliza un modelo de lenguaje grande (LLM), como Gemini, para sintetizar información de múltiples páginas web y crear un resumen coherente. A diferencia de los resultados de búsqueda tradicionales, que simplemente enlazan a las fuentes, esta función crea un texto nuevo.
El proceso es el siguiente :
* Análisis de la consulta: La IA interpreta la pregunta del usuario.
* Búsqueda de información: El sistema rastrea su índice de páginas web en busca de contenido relevante.
* Síntesis: El LLM combina la información de varias fuentes para generar un resumen.
* Citación: El sistema añade enlaces a las páginas que considera que respaldan la respuesta.
El problema fundamental es que el algoritmo no siempre prioriza fuentes autorizadas o fiables, sino que puede dar peso a fuentes populares o que simplemente coinciden con las palabras clave, como foros o sitios de humor.
El impacto para los usuarios y los creadores de contenido
Más allá de las respuestas absurdas, este incidente revela dos peligros significativos:
* Para los usuarios: La confianza en Google como fuente de información veraz se ve erosionada. Si la IA no puede distinguir un chiste de un consejo real, puede presentar información médica, financiera o de seguridad que sea genuinamente peligrosa.
* Para los creadores y medios: Existe una gran preocupación de que AI Overviews «canibalice» el tráfico web. Al ofrecer una respuesta completa en la parte superior de la página, los usuarios tienen menos incentivos para hacer clic en los enlaces de los sitios web originales. Estudios ya apuntan a una caída de hasta el 34.5% en la tasa de clics (CTR) para el primer resultado orgánico cuando aparece un AI Overview.
Google ha comenzado a implementar ajustes para limitar la aparición de respuestas satíricas y mejorar sus sistemas. Sin embargo, el incidente de la «pizza con pegamento» sirve como una advertencia crucial sobre los límites actuales de la IA y la necesidad de mantener un pensamiento crítico al consumir información en línea.


TE PODRÍA INTERESAR