Durante meses, una cuenta anónima de TikTok albergó docenas de vídeos de explosiones y ciudades en llamas generados por IA. Los videos acumularon decenas de millones de visitas y alimentaron otras publicaciones que afirmaban, falsamente, que eran imágenes reales de la guerra en Ucrania.
Después de que CBC News se pusiera en contacto con TikTok y con el propietario de la cuenta para hacer comentarios, desapareció de la plataforma.
La cuenta, Flight_area_zone, tenía varios vídeos que mostraban explosiones masivas que llegaron a millones de espectadores. Los videos presentaban características distintivas de la generación de IA, pero carecían de descargo de responsabilidad. según lo exigen las pautas de TikTok. TikTok se negó a comentar sobre la cuenta.
Varios de los videos fueron difundidos en diferentes plataformas de redes sociales por otros usuarios, quienes los publicaron junto con afirmaciones de que representaban imágenes reales de la guerra, y varios de ellos obtuvieron decenas de miles de visitas. En esas publicaciones, algunos comentaristas parecen tomar los videos al pie de la letra y celebrar o denunciar el supuesto daño, dejándolos con una idea inexacta de la guerra.
El aumento de la ‘baja de la IA’
La cuenta Flight_area_zone es sólo un ejemplo de una tendencia más amplia en el contenido de las redes sociales, algo que los expertos llaman “descuido de la IA”.
Generalmente se refiere al contenido (imágenes, videos, texto) creado con IA. A menudo es de mala calidad, sensacionalista o sentimental, en formas que parecen diseñadas para generar clics y participación.
El contenido generado por IA se ha convertido en un factor importante en la desinformación en línea. Un estudio previo a la impresión publicado en línea este añoen coautoría de investigadores de Google, demostró que la información errónea generada por IA rápidamente se volvió casi tan popular como las formas tradicionales de medios manipulados en 2023.
En octubre, por ejemplo, un vídeo de aspecto similar de otra cuenta de TikTok se volvió viral cuando la gente afirmó que representaba un ataque israelí al Líbano. El vídeo, que muestra incendios devastadores en Beirut, fue compartido ampliamente en las redes sociales y por varias cuentas destacadas. En algunos casos, iba empaquetado junto con vídeos reales que mostraban incendios en la capital libanesa, desdibujando aún más la línea entre noticias falsas y reales.
Facebook también tiene visto una afluencia de tecnología generada por IA contenido significado para generar participación (clics, vistas y más seguidores) que pueda generar ingresos para sus creadores.
La cuenta Flight_zone_area también tenía una función de suscriptor donde las personas podían pagar por cosas como insignias o calcomanías únicas.
Los videos de las explosiones fueron convincentes para algunos: los comentaristas frecuentemente pedían detalles sobre dónde estaban las explosiones, o expresaban alegría o consternación ante las imágenes. Pero los videos todavía tenían algunas de las distorsiones reveladoras del contenido generado por IA.
Los automóviles y las personas en la calle parecen acelerados o deformados, y hay varios otros errores obvios, como un automóvil que es demasiado grande. Muchos de los videos también comparten audio idéntico.
La cuenta también presentaba otros vídeos además de horizontes en llamas. En uno de ellos arde un edificio parecido a una catedral. En otro, un cohete explota frente a un bungalow.
Los videos más antiguos mostraban tornados generados por IA y aviones incendiándose, una progresión que sugiere experimentar con qué tipo de contenido sería popular y promovería la participación, lo que puede ser lucrativo.
Un problema con la decadencia de la IA, según Aimée Morrison, profesora asociada y experta en redes sociales de la Universidad de Waterloo, es que gran parte de la audiencia no siempre va a echar un segundo vistazo.
“Hemos creado una cultura que depende en gran medida de lo visual, entre una población que no está realmente capacitada sobre cómo mirar las cosas”, dijo Morrison a CBC News.
Un segundo problema surge con las imágenes de zonas de guerra, donde la realidad sobre el terreno es importante y controvertida.
“Se vuelve más fácil descartar la evidencia real de las atrocidades que ocurren en [Ukraine] porque circula tanto contenido basura de IA que algunos de nosotros dudamos en compartir o creer algo, porque no queremos que nos llamen la atención como si nos hubieran engañado”, dijo Morrison.
Investigadores dijo a principios de este año que el contenido de odio generado por IA también está aumentando.
Por otra parte, la investigación de la ONU advirtió el año pasado que la IA podría potenciar “el contenido antisemita, islamófobo, racista y xenófobo”. Melissa Fleming, subsecretaria general de Comunicaciones Globales, dijo a un organismo de la ONU que la IA generativa permitía a las personas crear grandes cantidades de información errónea convincente a bajo costo.
Aunque en TikTok y otras plataformas de redes sociales existen directrices para etiquetar el contenido generado por IA, la moderación sigue siendo un desafío. Está el gran volumen de contenido producido y el hecho de que El aprendizaje automático en sí no siempre es una herramienta confiable. para detectar automáticamente imágenes engañosas.
La cuenta Flight_area_zone ya no existe, por ejemplo, pero una cuenta aparentemente relacionada (pero mucho menos popular), Flight_zone_51, todavía está activa.
Estas limitaciones a menudo significan que los usuarios son responsables de informar el contenido o agregar contexto, como con la función “notas de la comunidad” de X. Los usuarios también pueden denunciar contenido generado por IA sin etiquetar en TikTok, y la compañía modera y elimina contenido que viola sus pautas comunitarias.
Morrison dice que la responsabilidad de denunciar el contenido generado por IA es compartida tanto por las plataformas de redes sociales como por sus usuarios.
“Los sitios de redes sociales deberían exigir marcas de agua digitales en estas cosas. Deberían eliminar el material que circula como información errónea”, dijo.
“Pero en general, esta cultura debería hacer un trabajo mucho mejor al capacitar a las personas tanto en la mirada crítica como en el pensamiento crítico”.