lunes, 4 de mayo de 2026

La crisis de la verdad en la era de la IA

 



Chaudry, Gia. “How the Internet Broke Everyone’s Bullshit Detectors.” WIRED, April 11, 2026. https://www.wired.com/story/how-the-internet-broke-everyones-bullshit-detectors/

La evolución reciente de Internet —marcada por la inteligencia artificial generativa, la lógica algorítmica de las plataformas y la limitación del acceso a fuentes verificables— ha erosionado profundamente nuestra capacidad colectiva para distinguir entre lo verdadero y lo falso. Ya no se trata simplemente de desinformación, sino de una transformación estructural del ecosistema informativo donde la velocidad, la estética y la viralidad pesan más que la veracidad.

Uno de los factores clave es la proliferación de contenido sintético generado por IA, capaz de producir imágenes y vídeos altamente convincentes en cuestión de horas. Este contenido no necesita ser duradero ni resistir un análisis profundo: basta con que circule rápidamente antes de que pueda ser verificado. En este contexto, la verdad llega tarde, mientras que la falsedad se beneficia de los mecanismos de amplificación de las redes sociales. La lógica del “engagement” prioriza aquello que impacta o emociona, independientemente de su fiabilidad.

El artículo subraya además un fenómeno especialmente preocupante: la aparición de manipulaciones “híbridas”. En estos casos, una imagen es casi completamente real, pero contiene pequeñas alteraciones —un detalle añadido, un objeto modificado— que cambian su significado. Estas falsificaciones son extremadamente difíciles de detectar, incluso para herramientas técnicas, ya que la mayor parte del contenido es auténtico. Este cambio rompe con la premisa tradicional de que una imagen es un registro fiel de la realidad.

A este problema se suma la creciente dificultad para acceder a fuentes primarias de verificación, como imágenes satelitales, cuya disponibilidad puede verse restringida por decisiones políticas o estratégicas. Esto limita la capacidad de periodistas, investigadores y analistas de contrastar hechos de forma independiente, creando un vacío que el contenido generado por IA puede ocupar fácilmente. En ese espacio de incertidumbre, la realidad ya no solo se interpreta: se compite por definirla.

El texto también advierte sobre el papel de los usuarios en la propagación de la desinformación. Los llamados “superdifusores” y el tráfico automatizado —que ya representa una parte significativa de la actividad en Internet— aceleran la circulación de contenidos sin verificación. Incluso los sistemas de detección de falsificaciones resultan insuficientes: ofrecen probabilidades, no certezas, y pueden fallar con frecuencia. Por ello, no pueden considerarse herramientas definitivas para determinar la verdad.

Frente a este panorama, el artículo propone un cambio de enfoque. Más que confiar exclusivamente en tecnologías de detección, sugiere apostar por sistemas de “proveniencia” que certifiquen el origen de los contenidos. Mientras estas soluciones no estén plenamente implementadas, la responsabilidad recae en el comportamiento del usuario: detenerse, verificar, rastrear el origen de la información y resistir la presión de compartir de forma impulsiva. En un entorno diseñado para la inmediatez, la pausa se convierte en una forma de resistencia cognitiva.

El artículo describe una transición hacia un entorno informativo donde la duda es constante y la certeza escasa. La pérdida de confianza no solo afecta a los contenidos, sino también a las instituciones y a los propios mecanismos de verificación. En este nuevo escenario, la alfabetización digital y el pensamiento crítico dejan de ser habilidades opcionales para convertirse en herramientas esenciales de supervivencia informativa.

El 35 % de los nuevos sitios web contienen texto generado o asistido por IA

 


Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek. “The Impact of AI-Generated Text on the Internet.” 2025.

El estudio analiza cómo la rápida expansión del texto generado por inteligencia artificial ha transformado el ecosistema digital entre 2022 y 2025. A partir de una muestra representativa de páginas web obtenida mediante la Wayback Machine del Internet Archive, los autores estiman que hacia mediados de 2025 aproximadamente el 35 % de los nuevos sitios web contienen texto generado o asistido por IA, una cifra que contrasta con la inexistencia de este fenómeno antes del lanzamiento de ChatGPT en 2022. Este crecimiento evidencia la velocidad con la que la IA se ha integrado en la producción de contenidos en línea.

Uno de los aportes más relevantes del trabajo es su intento de medir empíricamente los efectos reales de este fenómeno frente a la percepción social. Para ello, combina análisis computacional del contenido web con una encuesta a 853 adultos en Estados Unidos. Metodológicamente, el estudio afronta dos retos clave: obtener una muestra representativa de internet —algo complejo por su naturaleza descentralizada— y distinguir entre texto humano y generado por IA, utilizando varios detectores y seleccionando el más robusto (Pangram v3).

En cuanto a los resultados, el estudio confirma dos efectos significativos. Por un lado, se observa una contracción semántica, es decir, una reducción en la diversidad de ideas y perspectivas: los textos generados por IA muestran mayor similitud entre sí. Por otro, se detecta un aumento del tono positivo, con contenidos más “amables” o emocionalmente optimistas, lo que sugiere una cierta tendencia hacia la homogeneización afectiva del discurso digital.

Sin embargo, el trabajo desmonta varias creencias extendidas. No encuentra evidencia estadísticamente significativa de que el uso de IA reduzca la precisión factual, ni de que provoque una pérdida clara de diversidad estilística, ni tampoco que genere textos más largos pero menos densos o que disminuya el uso de enlaces externos. Estos resultados contrastan fuertemente con la percepción pública: una mayoría de los encuestados cree que todos estos efectos negativos sí están ocurriendo.

En conjunto, el estudio pone de relieve una brecha importante entre evidencia empírica y opinión social. Aunque la IA sí está modificando el ecosistema textual de internet —especialmente en términos de diversidad semántica y tono—, muchos de los temores más extendidos no están respaldados por los datos. Esto sugiere la necesidad de un análisis más matizado del impacto de la inteligencia artificial, evitando tanto el alarmismo como la complacencia.

¿Escuchar audiolibros también es leer? Evidencia científica contra el prejuicio

 


Mineo, Liz. “Audiobooks Don’t Really Count as Reading? Think Again.” Harvard Gazette, 2 de marzo de 2026. Leer artículo

Más del 40 % de los estadounidenses considera que escuchar audiolibros es menos exigente y no equivale a leer. Sin embargo, la neurocientífica cognitiva Nadine Gaab y otros expertos en educación discrepan, señalando que esta creencia es errónea y puede resultar perjudicial para el aprendizaje y el desarrollo.

El artículo aborda un debate muy extendido en la cultura contemporánea: si escuchar audiolibros puede considerarse realmente una forma de lectura. A pesar de que más del 40 % de los estadounidenses cree que no es así, diversos expertos en educación y neurociencia cuestionan este prejuicio y lo consideran incluso perjudicial para el aprendizaje. La investigadora Nadine Gaab sostiene que esta visión es errónea, ya que tanto la lectura tradicional como la escucha activan procesos cognitivos muy similares. Desde esta perspectiva, lo importante no es el formato —visual o auditivo— sino la comprensión del lenguaje y la construcción de significado.

El texto profundiza en la base neurocientífica de esta afirmación, señalando que las redes cerebrales implicadas en la comprensión del lenguaje escrito y oral están profundamente interconectadas. Aunque ciertas áreas específicas del cerebro, como las relacionadas con el reconocimiento visual de palabras, se activan más durante la lectura en papel, la comprensión global del contenido sigue rutas similares en ambos casos. De hecho, en algunos oyentes se produce una visualización mental de las palabras que reactiva zonas asociadas a la lectura. Como resume Gaab, “no hay mucha diferencia entre la red cerebral de la lectura y la de la comprensión del lenguaje” .

Otro punto clave del artículo es la crítica a la teoría de los estilos de aprendizaje, ampliamente difundida pero desacreditada por la investigación científica. Según los expertos citados, no existe evidencia sólida de que las personas aprendan mejor leyendo o escuchando; lo que sí puede variar es la preferencia individual. Esto refuerza la idea de que los audiolibros no son una forma “inferior” de acceder al conocimiento, sino simplemente una modalidad distinta. Además, los audiolibros ofrecen ventajas específicas, como la incorporación de elementos sonoros y expresivos que pueden enriquecer la experiencia narrativa y hacerla más atractiva.

Para finalizar el artículo subraya la importancia de superar el estigma asociado a los audiolibros, especialmente en contextos educativos. Considerarlos una forma válida de “lectura” puede ampliar el acceso al conocimiento, favorecer la inclusión —por ejemplo, en personas con dislexia o dificultades visuales— y fomentar hábitos lectores en una sociedad con múltiples demandas de tiempo y atención. En este sentido, la discusión no debería centrarse en si “cuentan” o no como lectura, sino en cómo contribuyen al aprendizaje, la comprensión y el disfrute de los textos en la era digital.

Demasiada información

 


«Vivimos en una época en la que hay demasiada información, pero poco conocimiento y aún menos sabiduría. Este exceso de información nos vuelve arrogantes y luego nos adormece. Debemos cambiar esta proporción y centrarnos más en el conocimiento y la sabiduría. Para el conocimiento necesitamos libros, periodismo reposado, podcasts, análisis en profundidad y eventos culturales. Y para la sabiduría, entre otras cosas, necesitamos el arte de contar historias. Necesitamos el formato largo.» 

ELIF SHAFAK 

En «The Guardian» el 11 de mayo 2025 (The art of storytelling)