{"id":72837,"date":"2024-11-24T08:42:00","date_gmt":"2024-11-24T07:42:00","guid":{"rendered":"https:\/\/miradordeatarfe.es\/?p=72837"},"modified":"2024-11-22T20:00:39","modified_gmt":"2024-11-22T19:00:39","slug":"el-algoritmo-extremista","status":"publish","type":"post","link":"https:\/\/miradordeatarfe.es\/?p=72837","title":{"rendered":"El algoritmo extremista"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Estudios han demostrado que las redes sociales premian la polarizaci\u00f3n pues esta \u00abengancha\u00bb a los internautas para que pasen m\u00e1s tiempo en las plataformas. \u00bfEst\u00e1 el algoritmo de YouTube empujando a sus usuarios a la radicalizaci\u00f3n?<\/h2>\n\n\n\n<p>\u00bfEst\u00e1 el algoritmo de YouTube empujando a quienes ven recurrentemente sus v\u00eddeos a la radicalizaci\u00f3n? Esa es una de las preguntas que se hacen los analistas, especialmente tras el \u00e9xito de algunas cuentas que publican contenido de extrema derecha. Lo cierto es que la cuesti\u00f3n est\u00e1 lejos de ser algo nuevo. Antes del inicio de la pandemia de covid-19, un estudio presentado en la conferencia tecnol\u00f3gica FAT en Barcelona ya conclu\u00eda que <strong>\u00ablos usuarios migran constantemente de contenido m\u00e1s moderado a m\u00e1s extremo\u00bb en YouTube.<\/strong><\/p>\n\n\n\n<p>\u00abHemos encontrado fuertes evidencias de radicalizaci\u00f3n entre los usuarios\u00bb, <a target=\"_blank\" href=\"https:\/\/www.eldiario.es\/tecnologia\/confirma-youtube-usuarios-contenidos-radicales_1_1053761.html\" rel=\"noreferrer noopener\">se\u00f1alaban<\/a> entonces los investigadores de la Escuela Polit\u00e9cnica de Lausana, la Universidad de Minas Gerais y la Universidad de Harvard. <strong>La tendencia se hab\u00eda acelerado desde 2016<\/strong> y, detr\u00e1s de esta radicalizaci\u00f3n, estaba el algoritmo que gestiona qu\u00e9 se ve en la red social. \u00abEl sistema de recomendaci\u00f3n de contenidos permite a los canales de extrema derecha ser descubiertos, incluso en un escenario sin personalizaci\u00f3n\u00bb, indicaban. YouTube rechaz\u00f3 de plano las conclusiones del informe, pero lo cierto es que no ha sido el \u00fanico que ha ido en esa direcci\u00f3n.<\/p>\n\n\n\n<p>De hecho, un <a target=\"_blank\" href=\"https:\/\/www.nbcnews.com\/tech\/tech-news\/youtubes-algorithm-recommends-users-right-wing-religious-content-resea-rcna155478\" rel=\"noreferrer noopener\">estudio<\/a>&nbsp;del Institute for Strategic Dialogue asegura que <strong>el algoritmo de YouTube premia el contenido conservador y cristiano.<\/strong> Estos eran los v\u00eddeos que ten\u00edan m\u00e1s probabilidades de ser recomendados, incluso a usuarios que nunca hab\u00edan interactuado con contenidos de esa naturaleza o que no ten\u00edan inter\u00e9s por ellos. Y otro an\u00e1lisis de UC Davis <a target=\"_blank\" href=\"https:\/\/www.ucdavis.edu\/curiosity\/news\/youtube-video-recommendations-lead-more-extremist-content-right-leaning-users-researchers\" rel=\"noreferrer noopener\">confirmaba<\/a> a finales de 2023 que las recomendaciones pod\u00edan llevar a que se entrara en un bucle de consumo de contenidos de extrema derecha.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>El algoritmo es el responsable del 70% de las vistas de la plataforma<\/p>\n<\/blockquote>\n\n\n\n<p>La cuesti\u00f3n no es balad\u00ed, pues el algoritmo es el responsable del 70% de las vistas que se producen en la plataforma de v\u00eddeos. Por ello, los responsables del estudio del Institute for Strategic Dialogue consideran que las redes sociales tienen mucho que ver con la polarizaci\u00f3n de la sociedad actual. En la misma l\u00ednea va la profesora de Sociolog\u00eda del Hunter College Jessie Daniels, que estudia c\u00f3mo internet ha marcado la agenda pol\u00edtica desde los a\u00f1os 90 y sus conexiones con el crecimiento de la <em>alt-right<\/em> estadounidense. Daniels cree que los datos confirman que <strong>a la plataforma le interesan mucho m\u00e1s sus beneficios y mantener el <em>engagement<\/em> que ser equilibrada en sesgos pol\u00edticos o evitar las c\u00e1maras de eco.<\/strong><\/p>\n\n\n\n<p>Para ser viral, la verdad importa poco. \u00abNos dimos cuenta de que, si quer\u00edamos tener futuro en YouTube, hab\u00eda que impulsarse por la confrontaci\u00f3n\u00bb, le <a target=\"_blank\" href=\"https:\/\/www.nytimes.com\/es\/2021\/04\/21\/espanol\/youtube-ultraderecha-odio.html\" rel=\"noreferrer noopener\">dijo<\/a> a <em>The New York Times<\/em> el productor arrepentido de una de las cuentas de extrema derecha brit\u00e1nicas Caolan Robertson. \u00abCada vez que hac\u00edamos ese tipo de cosas, se viralizaba mucho m\u00e1s que cualquier otra\u00bb, apunta. Cambiar la luz del v\u00eddeo para hacerlo m\u00e1s dram\u00e1tico o manipular la percepci\u00f3n con c\u00f3mo se cortan y montan los v\u00eddeos est\u00e1 a a\u00f1os luz de la \u00e9tica period\u00edstica, pero logra impactar y enganchar a la audiencia. Y no menos importante: <strong>alimenta la c\u00e1mara de eco.<\/strong><\/p>\n\n\n\n<p>Los v\u00eddeos ya han jugado un papel importante en el \u00e9xito de movimientos extremistas, como ocurri\u00f3 con el caso de QAnon, como cuenta en <em>La vida secreta de los extremistas<\/em> la investigadora Julia Ebner. \u00abEn un momento dado, los v\u00eddeos de QAnon eran los primeros en aparecer al buscar \u201cTom Hanks\u201d en YouTube\u00bb, escribe. Cuando se empezaba a buscar \u00abla verdad de\u00bb en esta red, las sugerencias ya abr\u00edan, escribe Ebner,<strong> \u00abun universo virtual de mentiras\u00bb<\/strong>.<\/p>\n\n\n\n<p>Lo que ocurre con el algoritmo de YouTube no es \u00fanico. Las investigaciones han evidenciado tambi\u00e9n los sesgos y los bucles en los que entran los <em>feeds<\/em> de las dem\u00e1s redes sociales. Por supuesto, desde las propias redes se defienden ante las acusaciones e insisten en que tienen en marcha mecanismos con los que intentan limitar el alcance de la desinformaci\u00f3n o los bulos. Sin embargo, desde el plano acad\u00e9mico estas afirmaciones son recibidas con escepticismo. El hecho de que los algoritmos sean informaci\u00f3n protegida (no sabemos c\u00f3mo funcionan porque, dado que son parte del secreto comercial de esas empresas, no se divulga c\u00f3mo operan) complica el proceso de an\u00e1lisis.<\/p>\n\n\n\n<p>A eso se a\u00f1ade que los mecanismos de control puestos en marcha se quedan tibios. \u00abYouTube se mostr\u00f3 reacio a combatir el contenido extremista y que incitaba a la violencia\u00bb, asegura en su libro Ebner.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Julia Ebner: \u00abYouTube se mostr\u00f3 reacio a combatir el contenido extremista y que incitaba a la violencia\u00bb<\/p>\n<\/blockquote>\n\n\n\n<p>\u00abLas f\u00f3rmulas que utilizan Facebook y YouTube para obtener beneficios se basan en captar y vender la <a href=\"https:\/\/ethic.es\/entrevistas\/entrevista-johann-hari\/\">atenci\u00f3n<\/a> de las personas\u00bb, escribe la investigadora. Por eso <strong>premian los contenidos que atraen la atenci\u00f3n y nada lo hace m\u00e1s que los que polarizan o atacan.<\/strong> Igualmente, se centran en aquellos intereses espec\u00edficos de las audiencias, a las que arrastran a bucles tem\u00e1ticos. Un perfecto ejemplo para entenderlo est\u00e1 en uno de los cap\u00edtulos de la serie <em>Evil<\/em>, en la que sus protagonistas investigan si hay algo sobrenatural en una red social. Como les dice una de sus ingenieras, su red no es demon\u00edaca. Solo tiene un algoritmo capaz de detectar en segundos qu\u00e9 quieres ver <em>de verdad<\/em> y llenar as\u00ed tu <em>feed<\/em> con esos temas. Nada sobrenatural en ello.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El impacto \u2018offline\u2019<\/h2>\n\n\n\n<p>\u00abHoy en d\u00eda no hay usuario de internet que est\u00e9 a salvo de las campa\u00f1as de radicalizaci\u00f3n ni proceso electoral que sea inmune a la injerencia extranjera\u00bb, asegura Ebner. Las redes de extremistas funcionan como \u00abempresas emergentes fraudulentas\u00bb, usando <em>big data<\/em>, inteligencia artificial y las preferencias de los algoritmos para llegar a las masas.<\/p>\n\n\n\n<p>Y <strong>lo que pasa en las redes tiene un efecto directo sobre lo que pasa fuera de ellas.<\/strong> Ebner advierte de que la clase pol\u00edtica tambi\u00e9n entra en el juego, porque al final son mensajes a los que sus votantes responden.<\/p>\n\n\n\n<p>A eso hay que sumar los cambios de h\u00e1bitos. La Generaci\u00f3n Z ya no se informa en medios de comunicaci\u00f3n tradicionales, sino en los <em>feeds<\/em> de redes sociales. <strong>All\u00ed, los criterios de \u00e9tica period\u00edstica importan muy poco y la polarizaci\u00f3n vende mucho m\u00e1s.<\/strong> Un rumor no puede ser nunca noticia en un medio de comunicaci\u00f3n, que necesita contrastar datos, pero nada impide convertirlo en tem\u00e1tica para un v\u00eddeo cualquiera en redes sociales. Cuando esto se hace de forma malintencionada, nacen los <a href=\"https:\/\/ethic.es\/2024\/10\/inmigracion-delincuencia-bulos\/\">bulos<\/a> y poco importa desmentirlos porque a su audiencia original ese desmentido no llega.<\/p>\n\n\n\n<p>Ejemplos pr\u00e1cticos de c\u00f3mo lo que circula en redes modifica las agendas pol\u00edticas o las preocupaciones de la ciudadan\u00eda pueden encontrarse por doquier. Precisamente, este es uno de los elementos que protagonizan los an\u00e1lisis sobre la victoria de <a href=\"https:\/\/ethic.es\/2024\/11\/como-gano-trump-tambien-es-la-historia-de-como-perdio-harris\/\">Donald Trump<\/a> y es posiblemente clave para entender por qu\u00e9 la inmigraci\u00f3n se ha convertido de repente en la principal preocupaci\u00f3n para la poblaci\u00f3n espa\u00f1ola, seg\u00fan los datos del CIS (superando al acceso a la vivienda). Asimismo, el <a target=\"_blank\" href=\"https:\/\/es.euronews.com\/next\/2024\/08\/08\/el-rol-de-x-en-los-disturbios-de-extrema-derecha-en-reino-unido-en-el-punto-de-mira-de-la-\" rel=\"noreferrer noopener\">papel<\/a> de Twitter en los disturbios racistas en Reino Unido de este verano o la popularidad del <a target=\"_blank\" href=\"https:\/\/elpais.com\/tecnologia\/2024-11-06\/bonaire-como-sintoma-los-difusores-de-bulos-no-van-a-aceptar-la-cifra-oficial-de-muertos-de-la-dana.html\" rel=\"noreferrer noopener\">bulo sobre el parking del centro comercial Bonaire<\/a> en la DANA son otros ejemplos.<\/p>\n\n\n\n<h6 class=\"wp-block-heading has-medium-font-size\"><a href=\"https:\/\/ethic.es\/articulistas\/raquel-c-pico\">Raquel C. Pico<\/a>  <a href=\"https:\/\/twitter.com\/raquelpico\">@raquelpico<\/a><\/h6>\n\n\n\n<p>publicado en ETHIC <a href=\"https:\/\/ethic.es\/2024\/11\/el-algoritmo-extremista\/?_\">https:\/\/ethic.es\/2024\/11\/el-algoritmo-extremista\/?_<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Estudios han demostrado que las redes sociales premian la polarizaci\u00f3n pues esta \u00abengancha\u00bb a los&#8230;<\/p>\n","protected":false},"author":1,"featured_media":72838,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":true,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[1161,44,6920],"tags":[],"class_list":["post-72837","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciudadania","category-noticias-de-hoy","category-tecnologia"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/miradordeatarfe.es\/wp-content\/uploads\/2024\/11\/algoritmo-extremista-1280x768-1.png?fit=1280%2C768&ssl=1","jetpack_likes_enabled":true,"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/posts\/72837","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=72837"}],"version-history":[{"count":1,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/posts\/72837\/revisions"}],"predecessor-version":[{"id":72839,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/posts\/72837\/revisions\/72839"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=\/wp\/v2\/media\/72838"}],"wp:attachment":[{"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=72837"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=72837"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/miradordeatarfe.es\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=72837"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}