Este artículo fue actualizado por última vez el junio 26, 2025
Table of Contents
Ai-Nepvideos se despliegan completamente en la guerra entre Israel e Irán
Ai-Nepvideos se despliegan completamente en la guerra entre Israel e Irán
Desde la escalada entre Israel e Irán, se ha publicado una gran cantidad de desinformación en línea. Muchas fotos y videos falsos circulan en las redes sociales, generalmente hechas con inteligencia artificial (IA).
Esto es evidente diariamente en los editores de NOS, donde los especialistas en el campo de las docenas de imágenes de la investigación de código abierto (OSINT) de las cuales la autenticidad a menudo no se puede determinar si son claramente falsas. Con mucho, la mayor desinformación sobre la guerra entre Israel e Irán se comparte en X.
La BBC también hace esa observación. La emisora pública británica escrito Alrededor de docenas de videos que intentan enfatizar la efectividad de la reacción de Irán a los ataques israelíes. Además, se hicieron y compartieron videos falsos sobre las secuelas de los ataques contra los objetivos israelíes. Las cuentas pro-israelí también han compartido desinformación.
Los tres videos falsos más vistos que la BBC encontró en conjunto se han visto más de 100 millones de veces en múltiples plataformas.
Osint
Los especialistas en NOS OSINT también afirman que la IA es manipulada una cantidad sorprendente en esta guerra. El propósito de su investigación es siempre: averiguar dónde y cuándo se tomó una foto o video. Lo hacen verificando las características ambientales, determinando las disposiciones de tiempo o comparando la imagen con otras imágenes en Internet.
También han creado una lista de cuentas X en los últimos días en las que siempre se comparte una imagen manipulada. Si las imágenes se hacen o editan con IA, a menudo lo ve inmediatamente a simple vista. Pero cada vez más se necesita más para filtrar manipulaciones.
En la mayoría de los casos funciona, pero ayer salió mal con uno de los videos del ataque a una prisión en Irán. En las imágenes de vigilancia, se mostraría la explosión de la puerta de entrada a la infame prisión de Evin.
Además de los elementos antes mencionados, el contexto también juega un papel importante en la verificación del material visual. En este caso, el ataque en sí ya estaba establecido, y había una imagen verificada de después de la explosión. Eso, en combinación con una operación relativamente “buena”, ha llevado al hecho de que esta imagen se ha deslizado a través del NOS, incluido el NOS.
Luego injustamente. Resulta ser sobre una foto antigua de la puerta de la prisión, solía generar un video con IA.
Este es ese video generado por la “explosión en la prisión”:
Un experto en el campo de la IA le dice a la BBC que es la primera vez que la IA se usa a tal escala durante un conflicto.
Los “súper propagadores” de la desinformación iraní en X crecen rápidamente y a veces tienen nombres oficiales. También todos tienen marcas de verificación azul, pero no está claro a quién se administran. La BBC señala que Grok, el ai-chatbot de X, no siempre puede ver que algo es falso.
Ai-nepvideos
Be the first to comment