Mapa web
Youtube
Instagram
Campus UNED

Doctor Carlos Elías: "Cultura es leer y estudiar lo que refuta nuestras ideas"

11 de mayo de 2022

Comenzó en UNED Ourense el curso que analiza con rigor el problema de las noticias falsas desde la óptica periodística y filosófica con cuatro investigadores de un proyecto científico en el que participan la UNED y la Universidad Carlos III.

OURENSE, 11 de mayo de 2022. Comenzó en Ourense el curso sobre noticias falsas en clave periodística y filosófica organizadas por la Facultad de Filosofía de la UNED en colaboración con UNED Ourense. Las cuatro conferencias de que consta se imparten en el salón de actos del Centro Cultural Marcos Valcárcel. El primero en intervenir fue el director de UNED Ourense, Jesús Manuel García Diaz. "Es una satisfacción poder celebrar en nuestro centro y en nuestra ciudad y provincia un curso con la categoría que este tiene. Un curso con ponencias científicas sobre un asunto que preocupa como este de las noticias falsas. Las redes sociales provocan la comunicación de muchos a muchos. Cualquier acontecimiento puede ser publicado y hacerse viral aunque las empresas de comunicación no lo hagan público. Siguiendo a Ferrán Sáez Mateu, vivimos en un paisaje de pantallas, en el que apenas a unos milímetros de nuestro dedo, existe un mundo en el que coexisten las cosas-ciertas-pero-desagradables con las cosas-falsas-pero-emocionalmente satisfactorias. Esa disyuntiva, dice, ha existido siempre, pero es probable que nunca fuera tan resolutiva e inmediata como hoy. Tenemos dos jornadas para conocer a fondo este tema, para pensar y analizar. Y aprender con cuatro profesionales como son nuestros ponentes. Investigadores rigurosos que nos van a sorprender. Doy las gracias de antemano a todos ellos así como a la Diputación de Ourense por permitir que celebremos en su Centro Cultural esta iniciativa de tanta actualidad en una sociedad posmoderna como la nuestra. Deseo a los asistentes que disfruten mucho con los contenidos de este curso".

El primer ponente en intervenir tras el director fue Carlos Elías, catedrático de Periodismo de la Universidad Carlos III de Madrid y catedrático Jean Monnet de “UE, desinformación y fake news”. Su tema fue Ciencia y periodismo como herramienta contra las fake news . El doctor Elías señaló que la desinformación es una estrategia organizada con un propósito. Y así hace la distinción entre bulo y fake news:

  • Bulo: información  falsa fácilmente desmontable, ejemplo: la gripe española de 1918 fue creada en un laboratorio de Ramón y Cajal.
  • Fake News: información falsa pero verosímil. Ejemplo: el coronavirus fue creado en un laboratorio chino

Hay un modo de representar la Verdad en el XIX , dijo Elías, aludiendo a Jean León Geróme (1824.1904). Por un lado, una representación de la Verdad como una mujer semidesnuda que sale de un pozo y es atacada por el clero y la nobleza que le impiden salir. En otro cuadro la Verdad está saliendo del pozo con su látigo para castigar a la humanidad.

El ponente mencionó igualmente el contraconocimiento, información errónea presentada de modo que parezca basada en hechos. Como señaló Thomson, en su libro Los nuevos charlatanes, son “ideas que en su forma original y bruta florecieron únicamente en los arrabales de la sociedad y hoy las consideran en serio incluso personas cultas del mundo occidental”.

Carlos Elías citó la Teoría Francesa y los estudios culturales en el origen de las noticias falsas, mencionando a Lyotard cuando dice que la ciencia es “una gran narrativa pero solo una narrativa más (pero las grandes narrativas perdieron su influencia en el siglo XX). O Derrida, cuando critica la ideología totalizante del logocentrismo y la razón. En 1992 hubo una polémica grande con su doctorado honoris causa en Cambridge. También citó varios trabajos de Paul Feyerabend (1924-1994) y el anarquismo epistemológico. De él es su frase: El único principio que no inhibe el progreso es: todo vale.

El doctor Elías también mencionó, entre otros, a autores como Alberto Villoldo con su libro  La iluminación. Sanación de los chamanes; Michael Harner y su La cueva y el cosmos. Encuentros chamánicos con otra sociedad. Así se adentró en los hechos alternativos, la postverdad y las fakes news para señalar la cultura convergente y fake news. Indicó que la convergencia mediática son conexiones de contenidos mediáticos dispersos; la cultura participativa es aquella en la que el espectador no es pasivo y la inteligencia colectiva, que implica conocimiento comparativo y acumulativo.

Para crear un rumor en internet, los ingredientes son los siguientes:

  • Mencionar a una institución o agencia de prestigio.
  • Ser ambiguo con las fechas.

  • Inducir pánico o miedo con un mensaje alarmante.

  • Ser ambiguo con los lugares.

  • Viralizar mediante la conspiranoia.

  • Aludir a algún fenómeno reciente, desconocido o polémico.

  • Aprovechar el descontento generalizado con las autoridades.

Por todo lo anterior es preciso confirmar la veracidad de una información antes de compartirla. Hay incluso medios para identificar una patraña incluso antes de empezar a leerla. Elías puso el ejemplo de un titular de prensa que dice: Científico de Harvard suplica que paremos el consumo de leche. “¿Solo un científico? Qué extraño, pensaba que la ciencia consistía en una comunidad y que la robusted de las afirmaciones y las evidencias depende del consenso y la replicabilidad. Es muy importante hacer mención a Harvard para crear un sentimiento de autoridad reputable e incuestionable. Ahora resulta que el método de divulgación científica es la súplica. Que paremos el consumo es una afirmación de corte ideológico que realmente se pretende inculcar. Y la imagen de la noticia es irrelevante, que utiliza elementos prototípicos de doctores y científicos de forma descontextualizada para dar a entender que el asunto tratado es muy serio y que el contenido puede ser muy técnico”.

¿Cómo trabaja la ciencia?

  • Observación. Adaptada a cada ciencia particular.
  • Hipótesis. Adaptada a cada ciencia particular.

  • Experimentación.

  • Teoría.

  • Ley. Se parte de críticas, dudas y cuestionamientos como motor impulsor.

¿Cómo trabaja la pseudociencia?

  • Observación. No hay, o mal diseñada o no reproducible.
  • Hipótesis. No hay, o mal diseñada o no reproducible.

  • Ley. No hay confrontación. No avanza.

El doctor Elías puso ejemplos de bulos sobre el coronavirus, mitos, datos y desinformaciones sobre el brote y sobre la vacuna, que no son pocos. Sobre el sesgo de confirmación, dijo el ponente que el cerebro humano busca sentirse bien y que nadie le lleve la contraria. Ahí entra en acción la dopamina, neurotransmisor del placer. Se segrega cuando se confirman nuestras ideas. “Es una recolección selectiva de evidencias. Un antivacunas no verá toda la información a favor, solo el caso que le confirma su idea. Cultura es leer y estudiar lo que refuta nuestras creencias” y aludió también a la pluralidad periodística.

Para evitar el sesgo de confirmación, el ponente puso de manifiesto que las observaciones esporádicas están sesgadas. “Es mejor tratar de obtener una visión global antes de recomendar prácticas específicas. Es necesario tratar de explicar siempre los principios subyacentes que soportan la recomendación que se está dando”. Mencionó la estructura química de los neurotransmisores y el equilibro dopamina-serotonina. La dopamina hace referencia al cambio y la aventura mientras que la serotonina hace referencia al aquí y ahora.

“Las emociones tienen que ver con las cantidades de neurotransmisores”, dijo, aludiendo a los estudios de las emociones de Charles Darwin hasta llegar a la neuropolítica con trabajos como los de Adolf Tobeña o Frank Vander Valk. La dopamina incentiva incentiva los nuevos estímulos. El cambio.

Los dopaminérgicos:

  • Tienden a ser más creativos.
  • Se desenvuelven bien en conceptos abstractos.

  • Les gusta ir en busca de la novedad.

  • Sienten insatisfacción general con el status quo.

  • Son personas rebeldes, impulsadas a buscar el cambio, aún a riesgo de acabar mal.

  • (científicos, actores, escritores, intelectuales... Profesiones de clases creativas).

  • (Hollywood, Harvard y Silicon Valley donan masivamente a los demócratas).

Hablando de neuropolítica, el ponente dijo que la dopamina alta tiene que ver con personas progresistas que: asumen riesgos, buscan nuevas sensaciones, son impulsivas, autoritarias, imaginan un futuro mejor y es una flecha que apunta al cambio. Por el contrario, la dopamina baja se relaciona con personas más conservadoras que prefieren mantener mejor lo que han heredado, sospechan de los cambios y riesgos, no les gustan los expertos; desconfían del idealismo de los progresistas y se representan como un círculo.

En cuanto a la diferencia dopaminérgica entre derecha e izquierda sin saber química, el ponente trajo una frase de Matt Bai, redactor jefe de Política en el New York Times cuando dijo: “Los demócratas ganan cuando encarnan la modernización. El progresismo triunfa únicamente cuando representa una reforma de Gobierno, más que el simple mantenimiento. (…) Los estadounidenses no necesitan demócratas que defiendan la nostalgia y la restauración. Para eso ya tienen a los republicanos.” 

Carlos Elías expuso también los modos para convertir a un progresista en conservador:

1.-El miedo y las amenazas

  • Los conservadores son más propensos que los progresistas a centrarse en las amenazas (pandemias, terrorismo).
  • El miedo convierte a un progresista en conservador (prevalece la serotonina frente a la dopamina).

2. Modulación neuroquímica:

  • Dar medicamentos que estimulen la serotonina.
  • Fármacos como citalopram (serotonininérgico).
  • Medicamentos antidepresivos.

  • Los medicamentos que estimulan la dopamina convierten a un conservador en progresista.

Aludió igualmente el ponente al laboratorio de investigación neuropolítica y dijo que la información falsa llega más lejos, más rápido y a más gente que la verdadera. Y así llegó al Contraconocimiento cuyos elementos son:

  • Narrativas contrahegemónicas.
  • Hechos reales y pequeñas distorsiones.

  • Desprecio al método científico, aunque usa terminología científica para avalar el relato.

  • Pánico a la verdad: “Es imposible mentir cuando no se conoce la verdad (Harry Frankfurt)”.

  • “Lo alternativo” tiene buena imagen.

  • Industria muy potente.

  • El Secreto. La industria lo considera “a prueba de críticas”.

Casos extendidos de contraconocimiento:

  • EEUU conocía los planes para estrellar los aviones en las torres gemelas (Loose Change 100 millones de visitas).
  • El MI5 estuvo implicado en la muerte de Lady Di.

  • La iglesia oculta la verdad sobre la descendencia de Jesucristo y María Magdalena (Código Da Vinci).

  • Los chinos alcanzaron América antes que Colón.

  • El SIDA se inventó en un laboratorio de la CIA.

  • La vacuna triple vírica provoca autismo.

  • La gripe A es una invención de los laboratorios.

  • El planeta Tierra tiene 6.500 años.

  • Las especies han sido creadas, no evolucionan unas de otras.

Hablando un poco de psicología social y de comunicación, el conferenciante mencionó dos aspectos:

  • Sesgo partidista. Las personas consideran que las afirmaciones contradictorias de su candidato político (o a quien consideren su líder ideológico) son menos graves que las de su adversario.
  • Razonamiento motivado. Valoramos la nueva información que recibimos minimizando las emociones negativas y magnificando las positivas.

Pero hay que tener en cuenta el efecto contraproducente:

  • El intento de refutar las creencias erróneas de una persona mediante hechos y datos puede provocar el efecto contrario: defenderá su opinión con mayor vehemencia.
  • Esto se ha demostrado entre los grupos antivacunas o los negacionistas del cambio climático, pero también la campaña de The Washington Post para desenmascarar con hechos y datos las mentiras de Trump solo ha producido más adhesión entre sus partidarios).  

Los usuarios que suelen comentar las noticias alternativas son más activos que aquellos que discuten sobre ciencia. Los datos proceden de un análisis de la actividad de 1,2 millones de usuarios de Facebook durante cinco años, desde 2010 a 1014.

Otro aspecto mencionado en esta conferencia es el de la paradoja del conspiranoico. “Aquellos que dicen estar más atentos a la manipulación perpetrada por los medios de comunicación tienden a interaccionar más a menudo con fuentes falsas, y, por lo tanto, son a su vez los más proclives a ser manipulados”.

Los elementos para una buena teoría conspirativa necesitan al conspirador y un plan: “El conspirador es el villano de la historia y para que la historia tenga recorrido el villano debe ser identificable pero no excesivamente concreto. Van desde las clásicas sectas semisecretas -como los Illuminati o los masones- hasta los más contemporáneos como el Club Bilderberg o la Sociedad Skull & Bones”. El plan “es la línea argumental de la historia conspirativa. Es la razón de ser. Siempre implica un dominio de la humanidad y del planeta y, en general, tiene que perdurar incluso tras la muerte de los conspiradores. Para que la sociedad crea esta línea argumental debe asumir un postulado difícil de aceptar desde el punto de vista racional, pero no desde el emocional: que hay poderosos que tienen un control de todo”.

Hay modelos matemáticos que permiten describir el proceso de difusión de un rumor, en los que se detuvo el ponente, quien citó también el uso de la psicología para enganchar a la opinión pública a las aplicaciones y numerosos ejemplos de rumores y bulos. 

Wikipedia

También se detuvo en Wikipedia para preguntarse qué la hace diferente de las enciclopedias tradicionales: “Es un proyecto en línea, hipertextual, abierto, colaborativo, universal y sin ánimo de lucro (no hay una editorial detrás que rentabilice económicamente la producción de conocimiento), que permite una actualización prácticamente inmediata de hechos y datos en cualquier idioma”. Wikipedia no tiene derechos de autor, es de todos. Sobre la cualificación intelectual de los autores, señaló Elías que “en la Enciclopedia Británica, la entrada de «radioactividad», por ejemplo, la redactó Marie Curie, la primera persona que ganó dos premios Nobel en distintas especialidades, Física y Química. En Wikipedia, cualquiera puede introducir y/o modificar contenidos, incluso de manera anónima. Se confía en la inteligencia colectiva”. Y añadió: “Wikipedia no solo ha demostrado tener influencia cultural, como corresponde a una enciclopedia, sino que en términos controvertidos –desde ‘homeopatía’ hasta ‘Hugo Chávez’–, se ha convertido en un espacio de disputa ideológico e intelectual”.

Muchas instituciones y empresas importantes que, a través de su influencia publicitaria, controlaban su imagen en los medios tradicionales, ahora no pueden fiscalizar la versión que de ellas se ofrece en Wikipedia, aunque pueden intentar manipularla. Y ahí está la entrada WikiLeaks como ejemplo de wiki controvertido. “El objetivo es comprobar cuándo y cómo Wikipedia se configuró en uno de los espacios clave para la popularización de esta red de filtraciones masivas de documentos secretos de empresas, gobiernos e instituciones”.

Los momentos con mayor volumen de consultas coincidieron con los de mayor actividad editora del wiki, en el año 2010, cuando WikiLeaks alcanzó su mayor impacto mediático y político con sus tres filtraciones más polémicas: las de las guerras de Irak y Afganistán, y la de los cables diplomáticos de Estados Unidos (Cablegate).

Luego se produce la guerra de ediciones de modo que la página del FRAPP en Wikipedia tuvo 28 cambios en seis horas. Motivos más comunes para una guerra de ediciones:

  • Falta de acuerdo en relación con la veracidad de los datos del artículo.
  • Intento denodado por introducir texto, ya sea este no neutral o con derechos de autor.

  • Datos históricos no concluyentes con relación a un evento.

  • Intentos de vandalismo repetitivos.

  •  Información incorrecta.

Al hablar de quién controla las polémicas en Wikipedia, dice el ponente que son los bibliotecarios los encargados de proteger los artículos objeto de guerras de ediciones. Estos son sus principales privilegios:

  • Borrar páginas y restaurar páginas borradas.
  • Ocultar ediciones, ver y mostrar ediciones ocultas.

  • Bloquear y desbloquear direcciones IP de usuarios anónimos o registrados.

  • Proteger o semiproteger páginas, editar en páginas protegidas.

  • Ver las contribuciones borradas de los usuarios.

  • Revertir ediciones rápidamente (retractación).

  • Marcar como revisadas las páginas nuevas o modificar el filtro anti abusos.

En las guerras de ediciones en la Wikipedia, “es más común que los conflictos de este tipo se produzcan en los temas más populares. Muchas disputas intelectuales e ideológicas han captado la atención de la prensa, lo cual evidencia la relevancia que ha adquirido Wikipedia en la comunicación de masas”, señaló el conferenciante.

Pero no es poca la gente que se pregunta si Wikipedia es o no fiable. Sobre esto, manifiesta Carlos Elías que “una métrica del mundo wikipedista para medir la calidad de cada entrada es su nivel de profundidad (depth), esto es, la frecuencia con la que se actualiza la edición. Sin embargo, el depth no se refiere a la calidad académica –la cual, según los editores de Wikipedia, “no se puede computar”–, sino a la calidad wikipedista, es decir, “la profundidad de la colaboración, un descriptor que es muy relevante para una Wikipedia”.

Lectores y editores otorgan, por votación, sellos de calidad a los artículos. Los “Destacados” se considera que tienen una “excelente calidad”.

Criterios:

  • Uso de fuentes fiables (libros de texto, revistas científicas…).
  • Verificable mediante la lista de referencias.

  • Neutralidad.

  • Bien escrito, presentado y estructurado.

  • Completo, extenso y profundo.

  • Estable (no sufre guerras de ediciones ni cambia de un día para otro).

Pero la neutralidad no es objetividad, deja bien claro el ponente. “La solución que propone Wikipedia ante el conflicto de enfoques es la neutralidad: hay que escuchar a todos y añadir todas las opciones y opiniones. No es válida, y por lo tanto tampoco discutible, la opinión de quien afirma que la Tierra es plana o de quien es negacionista del Holocausto, ya que es una evidencia científica observable e irrefutable que la Tierra es esferoide y es un hecho histórico irrebatible que el régimen nazi asesinó a millones de personas, de manera sistemática, en los campos de exterminio en la Segunda Guerra Mundial. Hay un registro de falsedades que van desde programas de televisión inexistentes, biografías falsas y personajes fabulados, hasta universidades y empresas imaginadas, especies de animales sin registros científicos, artistas y deportistas ficticios, libros, discos musicales o películas inexistentes, crímenes que nunca sucedieron, enfermedades inventadas, eventos deportivos y culturales imaginarios…”

Carlos Elías expuso también un caso gallego como el Pikes on Cliffs, una historia falsa ubicada en esta comunidad autónoma por la que un cuento sobrevivió durante nueve años y ocho meses y medio. Era una historia sobre una supuesta casa en Estaca de Bares en la que se habría refugiado en el siglo XVI un pirata irlandés llamado William Simms, condenado a morir ahogado por el famoso y real corsario y almirante inglés Sir Francis Drake. “Ni la casa ni el pirata existieron nunca, excepto en Wikipedia”. Remató su ponencia citando la elaboración de un código ético de conducta universal publicado por Wikipedia para acabar con la desinformación y la manipulación. También se refirió a Google como fuente, es decir, la web frente a la blogosfera.

Tras él habló Alejandro Fernández-Roldán Díaz, investigador predoctoral en la UNED, graduado en Comunicación en la Universidad Carlos III de Madrid, máster en Comunicación Corporativa y Publicitaria en la Universidad Complutense y máster en Datos y Sociedad en la London School of Economics. Y lo hizo con la conferencia titulada ¿Cómo funcionan las plataformas digitales?

Citó el texto de J. Haidt, en The Atlantic: “En 2008, Facebook se había convertido en la plataforma dominante, con más de 100 millones de usuarios mensuales, camino de los 3.000 millones actuales. En la primera década del nuevo siglo, se creía que las redes sociales eran una bendición para la democracia. ¿Qué dictador podría imponer su voluntad a una ciudadanía interconectada? ¿Qué régimen podría construir un muro para impedir el acceso a Internet? En 2012, mientras se preparaba para sacar a Facebook a bolsa, Mark Zuckerberg reflexionó sobre aquellos tiempos extraordinarios y expuso sus planes. "Hoy, nuestra sociedad ha alcanzado otro punto de inflexión", escribió en una carta a los inversores. Facebook esperaba "reconstruir la forma en que la gente difunde y consume información". Al darles "el poder de compartir", les ayudaría a "transformar de nuevo muchas de nuestras instituciones e industrias principales (...) En los 10 años transcurridos desde entonces, Zuckerberg hizo exactamente lo que dijo que haría. Ha reconstruido la forma en que difundimos y consumimos la información, ha transformado nuestras instituciones y nos ha llevado más allá del punto de inflexión. No ha funcionado como él esperaba.”

Las plataformas digitales son dos cosas a la vez: 1) software ‘base’ sobre la que generar más software, y 2) mercado de productos y/o servicios.

Fernández-Roldán retoma el ensayo de Haidt:  “En sus primeras versiones, plataformas como Myspace y Facebook eran relativamente inofensivas. Permitían a los usuarios crear páginas en las que publicar fotos, actualizaciones familiares y enlaces a las páginas, (…) de sus amigos y grupos musicales favoritos. De este modo, las primeras redes sociales pueden considerarse un paso más en la larga progresión de mejoras tecnológicas -desde el servicio postal hasta el correo electrónico o los mensajes de texto, pasando por el teléfono- que ayudaron a la gente a alcanzar el eterno objetivo de mantener sus vínculos sociales.” Pero poco a poco, los usuarios de las redes sociales se sintieron más cómodos compartiendo detalles íntimos de sus vidas con extraños y corporaciones. (…) se volvieron más adeptos a mostrar aspectos de sus vidas y a gestionar su marca personal, actividades que pueden impresionar a los demás, pero que no profundizan las amistades de la forma en que lo haría una conversación telefónica privada. Una vez que las plataformas digitales entrenaron a los usuarios para que pasasen más tiempo ‘actuando’ y menos creando vínculos, se ha preparó el escenario para la mayor transformación, que comenzó en 2009: la intensificación de la dinámica viral.”

El ponente desconoce “por qué los usuarios nos hemos ido sintiendo poco a poco más cómodos compartiendo en redes sociales aspectos que antes quedaban reservados al ámbito privado, pero está claro que las plataformas identificaron esta tendencia y explotaron la cada vez más frecuente búsqueda de la viralidad”. Nos recuerda que las plataformas digitales comenzaron a cambiar unos doce años atrás:

  • La cultura del me gusta: Facebook y Twitter en el 2009.
  • Retuitear o compartir: entre 2009 y 2012.

  • La cultura de la interacción.

  • ¡Ay! Los algoritmos.

  • De un orden cronológico inverso a un orden personalizado.

“En 2009, cuando Facebook ofreció a los usuarios una forma de dar me gusta públicamente a las publicaciones con el clic de un botón. Ese mismo año, Twitter introdujo algo aún más potente: el botón Retweet, que permitía a los usuarios compartir una publicación y con todos sus seguidores. Facebook no tardó en copiar esa innovación con su propio botón Compartir, que se puso a disposición de los usuarios de smartphones en 2012. Los botones Me gusta y Compartir se convirtieron rápidamente en características estándar de la mayoría de las plataformas digitales. Esto comenzó a generar una cultura de la interacción”, dijo Fernández-Roldán Díaz. Y añadió: “Poco después de que su botón Me gusta empezara a producir datos sobre lo que más ‘enganchaba’ a sus usuarios, Facebook desarrolló algoritmos para ofrecer a cada usuario el contenido con más probabilidades de generar un me gusta o alguna otra interacción, como el compartir”.

Antes de 2009, Facebook ofrecía a los usuarios “una simple línea de tiempo: un flujo interminable de contenidos generados por sus amigos y conexiones, con las publicaciones más recientes en la parte superior y las más antiguas en la inferior. Sin embargo, gracias a la posibilidad de dar me gusta o compartir un contenido, y con la necesaria ayuda de algoritmos, las plataformas digitales comenzaron a ofrecernos primeramente aquel contenido que, en base a nuestro comportamiento previo en la plataforma, estiman que captará nuestra atención en mayor medida”.

 Las plataformas digitales son ahora estructuras especialmente diseñadas para la recogida y procesamiento de datos personales.

  • Datos sociales y de comportamiento  (Alaimo y Kallinikos, 2017).
  • Cauces muy definidos.

  • Segmentación de audiencias: su modelo de negocio pivota sobre los datos de los usuarios (Roderick, 2014).

“Como empresas, las plataformas digitales persiguen unos objetivos y también una rentabilidad. Y para lograrla dependen en gran medida de los datos de los usuarios: en este sentido es importante apuntar a que las plataformas son estructuras cuidadosamente diseñadas para extraer y analizar datos personales de los usuarios.   Que podamos dar ‘me gusta’, ‘me encanta’ o compartir un contenido dice algo sobre nosotros. Analizar todo el rastro de nuestra actividad dentro de la plataforma permite a estas elaborar segmentaciones bastante precisas sobre nuestras aficiones, intereses, filias y fobias, algo que es especialmente interesante para anunciantes que buscan impactar con sus productos y servicios a usuarios muy segmentados”, expuso el conferenciante. 

En su vertiente de ‘mercado’, las plataformas son intermediarios que conectan usuarios y anunciantes.  Algunos de los motivos de su gran crecimiento:

  • Empresas que operan en línea.
  • Agregadores de contentido de distintos formatos (casi siempre creado por terceros).

  • Altos niveles de personalización.

  • Fácil accesibilidad y gratuidad.

  • Creación de contenido propio > Herramienta empoderadora (?)

  • Conectividad y construcción de redes personales.

“Como hemos mencionado, ‘plataforma’ es un término complicado de definir de forma precisa y que se refiere a dos cosas a la vez.  Pero en un sentido más terrenal, cuando nos referimos a plataformas digitales casi todos entendemos que nos referimos a empresas que operan online, que agregan gran cantidad de contenido normalmente creado por terceros y que tiene unos altos niveles de personalización.  Por tanto, por poner nombres, nos estamos refiriendo claramente a empresas tales como Facebook, Twitter o Alphabet (matriz de Google y Youtube). Estas empresas son a día de hoy gigantes cuyo éxito ha venido dado por varias concomitancias, pero desde luego por su perfil de todo en uno donde podemos encontrar contenido de muy diversa índole en un mismo lugar, por la posibilidad de postear sobre aquello que nos interesa, crear eventos, redes personales, etc.”, relató Fernández-Roldán.

Las plataformas digitales tienen ahora un modelo de negocio muy dependiente de la cultura de la interacción. “Mayor atención por nuestra parte supone mayor tiempo en la plataforma, algo que les permite mejorar aún más el conocimiento sobre los usuarios a través del rastro digital que van dejando tras de sí. Conocer mejor a los usuarios atrae a su vez a mayor número de anunciantes que quieren llegar a un determinado público, lo cual redunda en una mejora de ingresos”, apunta el ponente.

Dice Alejandro Fernández-Roldán que las plataformas usan algoritmos que fomentan la exposición a contenido afín. Y les ha ido bien porque los ingresos del año 2021 en Facebook suman 117.929 millones de dólares, el 97% procede de publicidad, según los datos de Meta Investor Relations, 2022. Los ingresos en Twitter, y otras en el 2021 suman 5.077 millones de dólares, procedente un 88% de la publicidad, según Twitter Investor Relations 2022.

“Las plataformas son altamente dependientes de la venta de espacios publicitarios. ¿Quién estaría dispuesto a poner en peligro el 90-95% de sus ingresos? Por tanto, los incentivos propios a cambiar su modelo de negocio son prácticamente cero. Podríamos decir que es un círculo vicioso difícil de frenar. Al menos desde la autorregulación”.

Las plataformas, señala el ponente, son mercados con dos caras pues ofrecen dos o más productos o servicios, dos o más grupos de clientes (lados); las demandas de ambos lados están relacionadas por efectos de red indirectos y la plataforma no existiría sin uno de estos lados. Un mercado de doble lado “es aquel en el que una empresa actúa como una plataforma, vendiendo u ofreciendo dos o más productos o servicios a dos grupos de consumidores, cuyas demandas están relacionadas por efectos de red indirectos. El mercado y la conexión entre los lados no existirían sin la Plataforma”, asegura Fernández Roldán.

Y es aquí cuando el ponente quiere introducir en la ecuación las noticias falsas. “La definición más frecuente en medios de comunicación entiende las noticias falsas como publicaciones (falsas) con gran potencial para viralizarse y que tratan de asemejarse a noticias reales (Tandoc et al., 2017). Esta definición se puede ampliar explicitando el objetivo de la noticia falsa, que no es otro que desinformar e influir de algún modo en la opinión pública (Lazer et al., 2018).  Sin embargo, estas definiciones apelan a un prototipo de noticia falsa que deja fuera algunos elementos importantes. Veámoslo con dos preguntas: 

  1. ¿Consideraríamos ‘noticia falsa’ el uso de una imagen descontextualizada geográfica y temporalmente para ilustrar un tema de actualidad y atribuir a sabiendas una falsa conexión entre ambos? 
  2. ¿Lo consideraríamos ‘noticia falsa’ si fuese un individuo particular quien publicase dicho contenido? 

A mi juicio, parece razonable contestar que sí a ambas preguntas. Pero, si aplicásemos las definiciones anteriores a cada una de ellas, la respuesta sería un ‘no’.  Por lo tanto, una definición más extensa y precisa sería la última”.

Explica que está muy extendida la idea de que las noticias falsas están muy presentes en nuestra vida y que su difusión ha sido fundamental a la hora de determinar citas electorales clave como el Brexit o en las elecciones presidenciales estadounidenses de 2016.  “Sin embargo, aunque se ha vertido mucha tinta sobre este asunto, no hay una evidencia clara que sustente esto. Repasemos algunos puntos clave sobre lo que sabemos de las noticias falsas a través de publicaciones académicas: 

  • La velocidad de difusión de las noticias falsas es mayor que la de noticias procedentes de medios de calidad. Y esto es algo que sucede en todo tipo de categorías de contenido, si bien es cierto que el efecto es especialmente pronunciado en aquellas noticias que incluyen contenido de carácter político.  
  • También es cierto que de media las publicaciones falsas en plataformas digitales generan más interacciones que las publicaciones de medios de calidad. 

  • Sin embargo, el ciudadano medio se encuentra con muchas menos noticias falsas de lo que intuitivamente podríamos pensar. De hecho, tan sólo un 0.15% del total de la dieta de contenido, que incluye toda nuestra actividad online así como visionado de programas de televisión. 

  • Más del 90% de los usuarios no comparte noticias falsas en sus redes sociales. 

Para comprender el efecto de las noticias falsas “necesitamos también recurrir evidencia sobre nuestros sesgos y los efectos de la información en la opinión pública.  Un elemento clave que debemos mencionar es el fenómeno de la exposición selectiva, que influye en nuestro consumo de información en general. Este fenómeno ha sido ampliamente estudiado y refleja nuestra propensión a consultar fuentes de información que en principio refuercen nuestras ideas previas. Aquí no estoy descubriendo la pólvora: todos tenemos un medio/s de comunicación al que recurrimos en mayor medida. Es algo natural que forma parte de nuestra psique y que facilita nuestro procesamiento de información, pero que también presenta problemas: por un lado, nos hace confiar demasiado en nuestras creencias previas, erosiona incentivos para nuestro aprendizaje y potencia sesgos. Veamos 3 de los sesgos más conocidos: 

  • Sesgo de selección: Se refiere a la búsqueda de evidencia que confirme nuestras creencias.
  • Sesgo de evidencia incompleta: Por ejemplo, cuando apuntamos sólo hacia información que refuerza nuestra posición a sabiendas de que hay otras fuentes que apuntan en sentido contrario. 

  • El sesgo de disponibilidad es otro atajo mental que nos hace vulnerables ante aquella información que más nos cuesta recordar, y por tanto podemos pensar que aquella que recordamos es la más importante. 

“Como he dicho, la exposición selectiva es algo natural y tampoco tenemos que fustigarnos por ello. Pero sí es cierto que la utilidad de ser conscientes de nuestros propios sesgos es precisamente mitigarlos en buena medida. Por ejemplo, acudiendo a fuentes que a priori son menos consistentes con nuestras ideas.  En cualquier caso, una exposición selectiva muy intensa podría conducirnos a uno de estos dos supuestos: 

  • Una burbuja en la que tratemos de esquivar toda fuente de información que se desvía de nuestras ideas. 
  •  Y en el peor de los casos una cámara de eco, que aunque comparte fundamento con la burbuja, hace referencia a un caso más extremo donde la interacción está limitada a una comunidad bastante homogénea y que rechaza toda fuente que proceda “del sistema”, priorizando fuentes alternativas de dudosa calidad.  

“Hay una perspectiva constructiva de la era predigital: entonces teníamos una única audiencia masiva, todos consumiendo más o menos el mismo contenido, como si todos estuviésemos mirando en el mismo espejo gigantesco el reflejo de nuestra propia sociedad. La revolución digital ha hecho añicos ese espejo, y ahora el público habita en esos trozos de cristal rotos. Así que el público no es una sola cosa; está muy fragmentado, y es bastante hostil entre sí. Muchos habitamos en burbujas de un tipo u otro”.

La preocupación por las Fake News está por las nubes. ¿Cabe optimismo? Según el Edelman Trust Barometer de 2022 en el mundo se produce un incremento del 76% de noticias falsas. Esto hace decir al ponente que “es sintomático de una época en las que ha habido campañas de desinformación muy importantes y la divulgación sobre estos hechos. Pero este dato tiene asimismo una lectura positiva: estamos muy concienciados (y preocupados) de la existencia de las noticias falsas y eso puede activar aún más lo que Hugo Mercier llama vigilancia epistémica – o nuestro sistema de pensamiento número 2 según kahneman”.

“Estudios académicos recientes sugieren que las plataformas digitales son realmente corrosivas para la confianza en los gobiernos, los medios de comunicación y las personas e instituciones en general”, dice Fernández-Roldán, quien añade que existe una revisión sistemática de estudios causales y correlacionales sobre medios y plataformas digitales. Y que algunas asociaciones, como el aumento de la de la participación política y el consumo de información, “son probablemente beneficiosas para la democracia. Estas asociaciones positivas  se observan a menudo en países emergentes y/o en vías de desarrollo. Además explica que la revisión concluye que, en conjunto (y en especial en democracias asentadas), las plataformas digitales parecen contribuir a una mayor polarización política, fomentan la retórica populista, y se asocian a la difusión de información falsa”.

Alejandro Fernández-Roldán se pregunta si es este descenso en la confianza de distintas instituciones consecuencia del auge de las noticias falsas. Y señala que hay numerosos errores de percepción sobre las ideas que tienen aquellos ideológicamente menos afines a nosotros. “Esto se ha descubierto al menos en EEUU, y quizá los resultados no sean completamente extrapolables a nuestro contexto, pero sí nos advierten de que pueda suceder también en España. En concreto, este estudio lo que hace es evaluar cuánto las personas aciertan o se equivocan al estimar la prevalencia de ideas extremistas en quienes son menos ideológicamente afines. Lo que indican los resultados es que aquellos afines a un determinado partido político sobreestiman la cantidad de personas votantes de otro partido que tienen ideas radicales”.

“Estudios como este nos muestran que Twitter puede parecerse a la sociedad más de lo que pensábamos, y que en efecto un gran porcentaje de usuarios de Twitter apenas muestran interés por contenido sobre política. Un estudio de Pew Research en Estados Unidos pone números sobre este fenómeno: el 22%, o sea, entre un cuarto y un quinto de los americanos tiene una cuenta de twitter. Y sólo el 13% de los tweets de los americanos incluyen contenido sobre política nacional. Y un segundo dato aún más llamativo: el 97% de esos tweets sobre política, es decir, casi la totalidad de ese 13%, fueron publicados por el 10% de los usuarios más activos. Es decir, el contenido político es minoritario y su creación y consumo es también limitado. Esto quiere decir que una pequeña proporción de los usuarios es realmente activo. ¿Significa esto que no debamos prestarle atención a este fenómeno? Por supuesto que no”.

Si las cámaras de eco en línea existen, “son una realidad para relativamente pocas personas que, sin embargo, pueden ejercer una influencia y visibilidad desproporcionadas. En otro estudio de USA que analizaba el comportamiento online de ciudadanos durante la campaña presidencial de 2016 se descubrió que el 5% de la población consume el 95% de fake news”.

En Facebook la polarización se acumula en páginas de contenido político. A la pregunta de si recomiendan las plataformas contenido extremo por defecto el ponente dice que no, “o al menos no por defecto. La exposición a vídeos de canales alternativos, conspiranoicos o extremistas en YouTube se concentra en gran medida en un pequeño grupo de personas con altos niveles previos de resentimiento. Estos espectadores generalmente se suscriben a estos canales (lo que hace que YouTube recomiende sus videos con más frecuencia) y, a menudo, siguen enlaces externos a YouTube en plataformas extremistas como 8Chan. Los investigadores observaron que el 72% de las vistas de videos de canales alternativos y el 81% de las vistas de videos de canales extremistas provienen de suscriptores del canal en cuestión. Por tanto, podemos concluir que las plataformas digitales aprenden con el tiempo de nuestras preferencias y nos ofrecen contenido que nos puede interesar. Aún así, aparte de curar contenido que contravenga sus políticas, no limitan el acceso a contenidos extremistas o conspiranoicos. El problema es la falta de pluralidad”.

El ponente señaló cómo la difusión de noticias en plataformas amplifica los efectos de la exposición selectiva e impulsa la creación de cámaras de eco. Sin embargo, desconocemos los efectos… Bajo este nuevo paradigma de mayor relevancia de las plataformas, los usuarios no tenemos que buscar activamente información acorde con nuestra orientación política puesto que las plataformas nos la suministran automáticamente con un aura de objetividad: el mundo se parece a nuestras preferencias sin que nosotros las hayamos expresado, al menos de forma explícita.  Esta dinámica puede resultar peligrosa. Nuestros sesgos y nuestra ‘docilidad’, es decir, nuestra tendencia a depender en buena medida de sugerencias, recomendaciones e información procedente de canales sociales, nos hacen vulnerables ante el fenómeno de la exposición selectiva”.  

Además, _prosigue Fernández-Roldán_ “fenómenos a priori tan disparatados como QAnon, que parte de una premisa, digamos alocada, han tenido su eco más allá del mundo online, como en el reciente asalto al capitolio.  La realidad, sin embargo, es que desconocemos el verdadero mecanismo causa-efecto, y no sabemos si el elemento desencadenante son las noticias falsas, o si por el contrario estas son una suerte de pretexto para llevar a cabo acciones con las que simpatizaríamos independientemente de su poder de convicción.  Pero, precisamente por la importancia de este asunto es importante volver a apuntar hacia la necesidad de dedicar recursos a la investigación en desinformación, el funcionamiento de las plataformas digitales y las posibles intervenciones”. 

Y advierte: “las noticias falsas, aunque tienen gran potencial para viralizarse y son capaces de generar un alto volumen de interacciones, muchas veces por su capacidad para despertar fuertes emociones, algo que está bien documentado, no son tan prevalentes como pudiéramos pensar. Cuando los espectadores o consumidores reflexionan con calma sobre el contenido de una información, son realmente buenos a la hora de detectar falsedades. El problema, como señalan Daniel Kahnemann o Gordon Pennycook en sus experimentos, es que muchas veces no nos detenemos a pensar de forma pausada y analítica, y sin embargo nos dejamos llevar por la velocidad de los flujos de información actuales. Para procesar toda esta información, en muchas ocasiones vamos con el piloto automático encendido, que es propenso a errores de procesamiento. Es decir, a sesgos”.  

 Lo más preocupante es, según el conferenciante, que muchos usuarios comparten noticias falsas a sabiendas de que lo son, simplemente porque se alinean con sus ideas, lo cual contribuye a un flujo cínico de contenido que puede perjudicar la calidad de la opinión pública.

“Los científicos sociales han identificado al menos tres fuerzas principales que unen a las democracias exitosas: el capital social (amplias redes sociales con altos niveles de confianza), instituciones fuertes e historias compartidas. Las plataformas digitales han podido contribuir a la erosión de las tres”.

Así se dio por finalizada la primera de las dos jornadas de este curso tan interesante en UNED Ourense. Mañana intervendrán  Uxía Carral Vilar, doctoranda y docente en el Departamento de Comunicación en la Universidad Carlos III de Madrid, miembro-investigadora de la Cátedra Jean Monnet “EU, Disinformation & Fake news”, que hablará acerca de Las noticias falsas como arma política en las redes sociales. Y Jesús Zamora Bonilla, catedrático de Lógica y Filosofía de la Ciencia en la Facultad de Filosofía de la UNED, quien cerrará el curso con la ponencia: Periodismo, redes sociales, ciencia y verdad. A partir de las 18.30 horas en el Centro Cultural Marcos Valcárcel.

 

 

 

 

 

UNED Ourense

Comunicación

 

 

 

 

 

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es