El bulo elaborado para esta actividad consiste en un vídeo corto que asegura que el Gobierno español prohibirá los pagos en efectivo para aquellas cantidades superiores a 50 euros. El vídeo, de un minuto y de formato vertical, imita el estilo de edición de este tipo de contenido tan popular en redes, incorporando imágenes stock, una voz narradora y subtítulos. Usé invideo.io para generar el vídeo con subtítulos y narrador y, para hacer el formato más realista, le añadí el layout de YouTube Shorts encima.
Emisor
El emisor sería mi canal de YouTube “Roser Informa”, en el que me dedico a hacer vídeos cortos sobre noticias, eventos y temas controvertidos. Este contenido busca alcanzar la viralidad como medio para generar ganancias, ya sea mediante el sistema de monetización de YouTube o mediante patrocinios.
Mensaje
El vídeo en cuestión alega que el Gobierno español ha aprobado una ley que prohíbe realizar pagos en efectivo superiores a 50 euros. Este mismo titular se usa en la descripción del vídeo, junto con los hashtags #shorts #efectivo #noticias #España. El mensaje que se transmite en el bulo usa un tono deliberadamente poco conspiranoico, neutral y puramente informativo, con una narrativa que busca ser persuasiva sin recurrir a exageraciones innecesarias, porque creo que esto le otorga más credibilidad al mensaje y, a la vez, capta también la atención de más gente.
Advertencia: Contenido engañoso
El contenido del mensaje en sí es, obviamente, falso. España dispone de una ley que limita el pago de grandes cantidades, pero el límite se establece en 1.000 euros, una cantidad que se vio reducida de 2.500 en 2021. Esta ley se aplica a las transacciones donde interviene al menos un profesional (BOE, 2021). Por tanto, no hay ninguna restricción para los pagos inferiores a esta cantidad.
Canal
El contexto en el que se encontraría el bulo es YouTube Shorts. Aunque el contenido en esta sección es variado (fragmentos de vídeos, comedia, anuncios, etc.), se puede encontrar también mucho contenido cuestionable. El tipo de vídeos que he tomado como referencia usa frecuentemente imágenes stock, subtítulos rápidos y una voz en off robótica, aspectos que se ven replicados en el bulo generado. Este es un formato familiar para los netizens, lo que inspira más confianza que otros medios.
Según una investigación de Pew Research Center, un 64% de los usuarios adultos de la plataforma en EEUU dicen encontrar, al menos a veces, vídeos que parecen obviamente falsos o no verdaderos (Smith et al., 2018).

Debido a la IA, además, en los últimos años post-pandemia han surgido los llamados sleeper social bots. Estos bots de IA están diseñados para crear y difundir desinformación y manipular la opinión pública en materia de política. Muchos aparentan ser usuarios humanos en las plataformas, dificultando su detección (Doshi et al., 2024). El ejemplo de bulo presentado podría haber sido generado perfectamente por un sleeper social bot.
Lo cierto es que el algoritmo de YouTube (como el de muchas otras plataformas) favorece este tipo de contenido, pues genera más interacciones, ya sean negativas o positivas. Aparte, los shorts son recomendados incluso a aquellos que no siguen el canal de YouTube donde se publican.
Receptor
Los receptores de este mensaje desinformativo serían, entonces, los usuarios de YouTube que consumen vídeos de la sección de shorts, aunque hay ciertos grupos de personas que serían más propensos a tomar este mensaje como cierto. Por ejemplo, aquellos con una inclinación conservadora o con estilos cognitivos menos analíticos (Bronstein et al., 2018) y, especialmente, individuos de edad avanzada (Brashier & Schacter, 2020). Tras la pandemia del COVID-19, ha habido un aumento significativo de la exposición y credulidad ante la desinformación en RRSS. Al emplear algoritmos basados en la retención de atención y la emocionalidad, YouTube amplifica estos efectos para aquellos usuarios que no prestan atención a la precisión del mensaje (Pennycook & Rand, 2022).
Propósito
Este bulo busca provocar emociones específicas en el público (indignación, miedo, etc.) y fomentar el rechazo al control fiscal por parte del Gobierno de España. En un estudio se investigó cómo el lenguaje emocional afecta la propagación de ideas morales y políticas en RRSS, identificando un aumento del 20% en la difusión de mensajes por cada palabra emocionalmente cargada que se incluía en ellos (Brady et al., 2017). Mediante este componente emocional, el público es más propenso a comentar e interactuar con el short en YouTube y compartirlo a otras aplicaciones. La lógica algorítmica de la plataforma se encarga, entonces, de impulsar la viralidad del bulo.
El principal propósito de tal bulo, sin embargo, es monetizar el vídeo a través del sistema de creadores de YouTube. Además, podría captar tráfico web y convertir algunas de las visualizaciones en tráfico hacia otros canales o páginas patrocinadas desde los que generar más ingresos.
Bibliografía
BOE-A-2021-11473 Ley 11/2021, de 9 de julio, de medidas de prevención y lucha contra el fraude fiscal, de transposición de la Directiva (UE) 2016/1164, del Consejo, de 12 de julio de 2016, por la que se establecen normas contra las prácticas de elusión fiscal que inciden directamente en el funcionamiento del mercado interior, de modificación de diversas normas tributarias y en materia de regulación del juego. (s. f.). https://www.boe.es/buscar/doc.php?id=BOE-A-2021-11473
Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings Of The National Academy Of Sciences, 114(28), 7313-7318. https://doi.org/10.1073/pnas.1618923114
Brashier, N. M., & Schacter, D. L. (2020). Aging in an Era of Fake News. Current Directions In Psychological Science, 29(3), 316-323. https://doi.org/10.1177/0963721420915872
Bronstein, M., Pennycook, G., Bear, A., Rand, D. G., & Cannon, T. (2018). Reduced Analytic and Actively Open-Minded Thinking Help to Explain the Link between Belief in Fake News and Delusionality, Dogmatism, and Religious Fundamentalism. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3172140
Doshi, J., Novacic, I., Fletcher, C., Borges, M., Zhong, E., Marino, M. C., Gan, J., Mager, S., Sprague, D., & Xia, M. (2024, 7 agosto). Sleeper Social Bots: a new generation of AI disinformation bots are already a political threat. arXiv.org. https://arxiv.org/abs/2408.12603
Pennycook, G., & Rand, D. G. (2022). Nudging Social Media toward Accuracy. The Annals Of The American Academy Of Political And Social Science, 700(1), 152-164. https://doi.org/10.1177/00027162221092342
Smith, A., Toor, S., & Van Kessel, P. (2018, 7 noviembre). Many Turn to YouTube for Children’s Content, News, How-To Lessons. Pew Research Center. https://www.pewresearch.org/internet/2018/11/07/many-turn-to-youtube-for-childrens-content-news-how-to-lessons/
Leave a Reply