Kemper, Jonathan. “AI Chatbots Use Different Sources Than Google Search and Often Cite Less-Known Websites.” The Decoder, 26 octubre 2025.
Texto completo
Se informa sobre una investigación llevada a cabo por la Ruhr University Bochum y el Max Planck Institute for Software Systems, que compara cómo los motores de búsqueda tradicionales —ejemplificados por Google Search— y los sistemas de búsqueda generativa de IA —como Gemini 2.5 Flash, GPT‑4o con herramienta de búsqueda y la interfaz “Search” de GPT-4o— seleccionan y referencian fuentes web en respuestas a consultas.
Se analizaron más de 4.600 consultas sobre temas diversos (política, productos, ciencia) y se observaron diferencias sustanciales en el origen, cantidad y visibilidad de los enlaces utilizados por cada sistema.
Una de las principales conclusiones es que los sistemas de IA dependen mucho más que la búsqueda tradicional de sitios menos establecidos o con menor visibilidad. Por ejemplo, aproximadamente el 53 % de los sitios citados por el sistema “AI Overview” no aparecían dentro de los diez primeros resultados orgánicos de Google, y cerca del 27 % no estaban siquiera en los primeros cien. En consecuencia, los usuarios que confían en chatbots pueden estar accediendo a contenido procedente de dominios más desconocidos o menos regulados que aquellos a los que normalmente llegarían mediante la búsqueda convencional.
Asimismo, la investigación señala que la cantidad de fuentes externas varía notablemente entre los sistemas. Mientras que algunos modelos de IA incorporan muchos enlaces (por ejemplo, “AI Overview” y Gemini utilizan más de ocho sitios por consulta, de media), otros como “GPT-Tool” emplean un promedio muy bajo, alrededor de 0,4 fuentes externas, apoyándose casi exclusivamente en su conocimiento interno. Esto implica que la profundidad y diversificación de la información pueden variar ampliamente según el sistema usado.
El estudio también analiza la cobertura temática y cómo varía según el tipo de consulta. En temas ambiguos o complejos, la búsqueda tradicional alcanzó una cobertura del 60 % de los subtemas esperados, frente al 51 % alcanzado por “AI Overview” y sólo 47 % por “GPT-Tool”. Esto da a entender que los chatbots de IA pueden ofrecer respuestas más rápidas o consolidadas, pero podrían estar omitiendo matices, perspectivas adicionales o más amplios marcos de análisis que los motores de búsqueda tradicionales tienden a cubrir.
En lo que respecta a temas de actualidad o noticias recientes, la búsqueda tradicional también mostró ventaja: en un test con 100 temas tendencia en septiembre 2025, Google alcanzó un 67 % de cobertura, “GPT-Search” un 72 % (ligeramente superior) pero “AI Overview” sólo un 3 %, y “GPT-Tool” un 51 %. Esto sugiere que no todos los sistemas de IA están optimizados para rastrear o indexar los últimos eventos tan eficazmente como los motores de búsqueda clásicos.
Finalmente, el artículo advierte que estos cambios en selección de fuentes y metodología de citación tienen implicaciones importantes para la credibilidad, verificación y equidad de la información que reciben los usuarios. Al recurrir con frecuencia a sitios menos conocidos, la transparencia sobre la autoridad, la calidad y el sesgo de esas fuentes puede disminuir. También plantea que las habituales reglas de evaluación de calidad de búsquedas deben adaptarse, pues los sistemas de búsqueda de IA operan bajo lógicas distintas y requieren criterios propios para valorar su fiabilidad.
En esencia, el artículo invita a usuarios, bibliotecarios, investigadores y profesionales de la información a tener conciencia de estas diferencias. No basta con asumir que una respuesta generada por un chatbot es equivalente a haber realizado una búsqueda exhaustiva: la procedencia y visibilidad de las fuentes pueden ser muy distintas, lo cual comporta riesgos y oportunidades diferentes respecto a la práctica informacional tradicional.
No hay comentarios:
Publicar un comentario