lunes, 16 de marzo de 2026

Presentación del libro «Queriéndote» de Mari Carmen García Mateos y José Julián Arias Garrido. Planeta Biblioteca 2026/03/11

 

Presentación del libro «Queriéndote» de Mari Carmen García Mateos y José Julián Arias Garrido.

Planeta Biblioteca 2026/03/11

ESCUCHAR

En el programa de radio de hoy mantuvimos una amena conversación con José Julián Arias Garrido y Mari Carmen García Mateos, autores del poemario conjunto Queriéndote. La entrevista explora el origen de esta colaboración literaria y el proceso creativo de escribir poesía a cuatro manos. También aborda cómo sus trayectorias profesionales —la medicina intensiva y el psicoanálisis— influyen en su mirada sobre las emociones, la vida y las relaciones humanas. Asimismo, se analizan otras obras de ambos autores, como «Puerta de Zamora a las cuatro» y «Sala de espera» de José Julián y «Alas de la misma ave» y «Versos perdidos en la red» de Mari Carmen. Las preguntas indagan en la relación entre literatura, experiencia vital y cuidado de las personas, así como en el posible valor terapéutico de la poesía. Finalmente, los autores reflexionan sobre sus influencias literarias, el papel de la escritura en su vida y sus futuros proyectos creativos.

La señal principal de que podrías estar viendo un video generado por IA

 


Germain, Thomas. “The Number One Sign You Might Be Watching an AI Video.” BBC Future, 31 octubre 2025. https://www.bbc.com/future/article/20251031-the-number-one-sign-you-might-be-watching-ai-video

La detección de videos generados o manipulados por inteligencia artificial (IA) en un entorno en el que estas tecnologías se han vuelto extremadamente sofisticadas y aún más difíciles de distinguir del material real. Su tesis central es que, aunque las herramientas de IA continúan mejorando, todavía existen ciertos indicadores confiables que pueden ayudar a identificar contenido sintético —siempre y cuando los espectadores sepan qué observar.

El autor introduce la idea de que los avances recientes en generación de video mediante IA han erosionado nuestra confianza tradicional en las imágenes como prueba de realidad: “Lo que parece real ya no es garantía de autenticidad”. En este contexto, advierte que la audiencia probablemente será engañada repetidamente con videos falsos antes de que llegue a cuestionar sistemáticamente todo lo que ve.

El artículo presenta la opinión de Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley y pionero en el estudio forense de medios digitales. Farid destaca que el aspecto más revelador de un video generado por IA, en muchos casos, es su calidad visual: los materiales sintéticos suelen exhibir baja resolución, imágenes borrosas o apariencia “grumosa” que se asemeja a grabaciones de muy mala calidad. Esta característica se vuelve particularmente evidente en clips que emulan estilo doméstico o de “found footage”, como cámaras de seguridad o grabaciones improvisadas, donde la compresión y los artefactos introducidos para ocultar imperfecciones pueden ser un signo de síntesis.

Germain también explora cómo los generadores de video por IA deliberadamente reducen la calidad de imagen como técnica para ocultar artefactos o fallos, lo cual puede ser paradójicamente una pista de que el contenido no proviene de una cámara real. La lógica detrás de este fenómeno es que las imperfecciones artificiales se camuflan mejor en clips de mala calidad que en aquellos nítidos y bien definidos: cuando un video parece demasiado familiar o responde a patrones genéricos sin una procedencia clara, esto debería activar las alertas del espectador.

El artículo contextualiza la discusión dentro de un panorama en el que las tecnologías de generación de video han alcanzado tal nivel que incluso expertos pueden ser engañados si no se presta atención a señales sutiles o a la procedencia del material. Este análisis forma parte de un esfuerzo más amplio por promover una alfabetización mediática crítica: es decir, la capacidad de evaluar no solo la calidad visual, sino también la fuente, la metadata disponible y el contexto en que aparece un video antes de aceptarlo como genuino.

Aunque no existe un método infalible para detectar todo video generado por IA, la principal señal —imágenes con mala calidad o artefactos visuales contradictorios con la supuesta fuente del video— ofrece un punto de partida valioso para discernir contenido potencialmente sintético en la era de los deepfakes avanzados.

La administración Trump recurre a imágenes falsas generadas por IA como estrategia política

 


Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.

Sobre los registros