La UE insta a Meta a tomar más medidas para abordar la desinformación en torno al conflicto de Israel.
rewrite this content in spanish and keep html structure It’s not just X that’s coming under scrutiny over its platforming of misinformation related to the latest conflict in Iran.
A day after issuing a public letter to X owner Elon Musk, urging him to take action to address content concerns in his app, EU Internal Markets Commissioner Thierry Breton has also made a similar request to Meta, while also threatening sanctions, and fines, in Europe if it doesn’t comply.
The #DSA is here to protect free speech against arbitrary decisions, and at the same time protect our citizens & democracies.My requests to #Meta’s Mark Zuckerberg following the terrorist attacks by Hamas against Israel — and on tackling disinformation in elections in the EU ⤵️ pic.twitter.com/RnetUriRJX— Thierry Breton (@ThierryBreton) October 11, 2023 As per the above letter, Breton also raises concerns about the dissemination of AI-generated deepfakes in Meta’s apps, specifically in relation to the Slovakian election, and calls for direct response from Meta on its evolving mitigation measures within 24 hours. Which is pretty much the same language Breton used in his letter to Musk, as he looks to use the EU’s new Digital Services Act (DSA) regulations as a whip to prompt social platforms into action. Though Breton hasn’t provided specific examples, at least not publicly, in either case, instead referring to third-party reports and “indications” that EU officials have been privy to, in relation to potentially rule-violating content. Various reports have indeed indicated that more harmful, misleading, and potentially illegal posts is reaching wider audiences through both apps, but it would seemingly serve the EU, and the platforms, better if they were to provide direct examples for each company to respond to, and outline their specific measures to address.
X owner Elon Musk even asked for such, pressing Breton for specific examples, to which Breton replied that Musk is “well aware of your users’, and authorities’, reports on fake content and glorification of violence”, putting the onus on Musk, and by extension Meta, to provide assurances based on what they’re seeing. It’s a little different in X’s case, because of the platform’s specific leaning towards allowing more content to remain up in the app, with X’s view being that more exposure will eventually lead to more understanding, with users able to manage the level of graphic content that they’re exposed to via their personal settings.
That could allow more harmful propaganda to proliferate, while most regions also have strict laws around the promotion of terror-related content. Which is partly what Breton is referring to, but right now, a lot of the discussion is based on partial reports and insights, with the platforms themselves being the only ones who know the specifics about what’s actually happening within their apps.
But then again, an increase in user reports to external agencies will also raise concerns, which is another source that Breton would be factoring into his messaging. Essentially, both X and Meta are being used to share some level of propaganda, and X may be in a tougher position due to its massive cost-reduction efforts. But Meta, too, is a key distributor of public information, and as such, will be a key target for coordinated information pushes by partisan groups.
It’s the first big test for both under the new, stricter EU DSA, which could result in big fines if either platform fails to meet its requirements.
Both Meta and X say that they are doing all they can to ensure their users are well-informed on the conflict.
La invasión rusa de Ucrania marca una nueva fase clave en la lucha contra la desinformación en línea
La invasión rusa de Ucrania marcó un nuevo punto de inflexión para las redes sociales y el papel que desempeñan en el ecosistema de información moderno. Ahora, después de años de desestimaciones sobre la influencia de las plataformas sociales y cómo las tendencias de las redes sociales pueden impulsar la acción en el mundo real, estamos viendo enfoques más rápidos y receptivos a mensajes potencialmente dañinos que han desempeñado un papel clave para limitar la difusión de información errónea. y suprimir las contranarrativas, que tienen el potencial tanto de socavar el apoyo como de socavar la acción. Pero al mismo tiempo, estos mismos cambios resaltan la importancia de las plataformas sociales como herramientas de propaganda y cómo pueden ser, y han sido, utilizadas como un medio para aumentar el control sobre las narrativas que rodean los eventos políticos y culturales.
Lo que plantea la pregunta: ¿es mejor cortar las plataformas sociales por completo para ciertas regiones, o eso solo permite más espacio para que los medios controlados por el estado llenen esos vacíos y dicten noticias a su propia discreción?
Por supuesto, ninguna de las plataformas en sí optó por ser cortada, tanto Facebook como Gorjeo Según los informes, actualmente están restringidos o completamente aislados dentro de Rusia, ya que se niegan a cumplir con las demandas del Kremlin de poner fin a la censura de los medios afiliados al estado. Pero aún así, es probable que la falta de fuentes externas de información tenga un impacto masivo en cómo los ciudadanos rusos perciben la acción en Ucrania, con varios informes que muestran que muchos rusos sí apoyan las decisiones de Putin, a pesar de la condena global casi unánime. Pero sin aportes externos, es muy posible que los rusos simplemente desconozcan, o al menos tengan una conciencia disminuida, de la respuesta global. Esto corre el riesgo de aislar a Rusia: la única información que los rusos tienen ahora proviene en gran medida a través de canales controlados por el Kremlin, lo que no es un buen augurio para una comprensión más amplia.
Al mismo tiempo, las propias plataformas no pueden hacer mucho al respecto. La única opción que tienen es cumplir y permitir que sus plataformas se utilicen para difundir información errónea. Lo que también conduce a la contrapreocupación: sin poder escuchar al otro lado, ¿cómo sabemos que estamos obteniendo la historia completa? La supresión de las narrativas prorrusas significa que las plataformas de hecho controlan el flujo de información, y aunque la supresión de este tipo en este caso va mucho más allá de las redes sociales, refuerza el hecho de que las noticias y la información que vemos están controladas. puede ser, o al menos influenciado, por organizaciones privadas.
En la mayoría de los casos, esto es consistente con sanciones gubernamentales más amplias, pero eso es al menos motivo de preocupación.
Entonces, ¿dónde estamos ahora?
Actualmente, según los últimos informes: Tanto Facebook como Twitter han sido restringidos o cortados en Rusia, lo que limita la capacidad de los usuarios rusos de compartir sus perspectivas a través de las fronteras del país.
Los medios estatales rusos han sido bloqueados por YouTube y TikTok para los usuarios en Europa, mientras que ambos ahora están tratando de prohibir las cargas en Rusia bajo la nueva ley de “noticias falsas” del Kremlin. Reddit también ha prohibido los enlaces a sitios de medios estatales rusos.
Los anuncios de organizaciones con sede en Rusia han sido prohibidos en Facebook, Twitter, YouTube, Google y Snapchat Como tal, la mensajería pro-rusa está severamente restringida en las aplicaciones de redes sociales occidentales, y cada plataforma continúa trabajando arduamente para detener la propagación de información errónea al abordarla antes de que pueda darse cuenta. En el lado positivo, como se mencionó, este elemento finalmente se está tomando más en serio, y estamos viendo que las plataformas finalmente toman posiciones más decisivas y proactivas sobre la información errónea potencialmente dañina antes de que sea demasiado tarde. Las plataformas han descartado tendencias como el auge de QAnon durante demasiado tiempo a pesar de las repetidas advertencias, prefiriendo dejar que los usuarios ejerzan su derecho a la libertad de expresión y simplemente explicándolo como hablando solo entre grupos de nicho. Ahora sabemos a dónde puede conducir esto, y es un gran beneficio ver una respuesta inmediata a la información errónea en este caso, que ha jugado un papel importante en la limitación de su impacto.
Esto es realmente lo que se necesita, y se siente como los puntos clave de la última década de evolución del uso de las redes sociales. Pero, de nuevo, eso también depende de que haya una verdad definitiva y de que las propias plataformas decidan tan rápido. En este caso está claro por la reacción global, pero no siempre será así de sencillo.
Si bien las plataformas sociales están siendo elogiadas por su rápida respuesta en este caso, y se siente como un punto clave en la lucha contra las campañas de desinformación en línea, como tal, puede no ser indicativo y no frenar la próxima tendencia de peligro.
A menos que se haga un plan de batalla definitivo. Lo que necesitamos ahora es que las plataformas, como industria, trabajen en asociación con verificadores de hechos de terceros y otros grupos legales y/o académicos para consolidar un proceso para tomar decisiones rápidas sobre tendencias potencialmente peligrosas una vez que se identifican, tan pronto como sea posible. en la medida de lo posible, garantizar una respuesta proactiva continua para limitarlos.
Se siente como si estuviéramos en la siguiente fase de la lucha dadas las acciones actuales que estamos viendo, pero ese puede no ser el caso y es importante que reconozcamos el valor de la reacción que estamos viendo en este momento, para definir el futuro. comportamiento.
Pero eso inevitablemente implementa cierto nivel de control sobre la “libertad de expresión” en línea, y si esencialmente solo vemos noticias provenientes de una red de verificadores de hechos, corporaciones e incluso grupos progubernamentales (en el caso de la regulación), eso es mucho. mejor que Rusia o China para difundir sus mensajes a través de socios relacionados con el estado?
Parecería, y usted asumiría, que el poder de la democracia es más fuerte a este respecto cuando se trata de permitir un grado de control sensato. Pero es una pregunta que inevitablemente surgirá cuando intentemos integrar las lecciones aprendidas para mejorar el flujo de información en línea.
Los grupos de padres de Facebook son el nuevo objetivo de la desinformación extremista
Habiéndose vuelto más extremistas, los grupos de padres que antes eran la corriente principal se han vuelto menos populares a través de Facebook. … [+]Dirigido a través de campañas de desinformación gettyEl grupo de padres de Facebook es una mezcla de críticas, apoyo y malos consejos. Todos los padres lo saben. Aún así, eran comunidades principales a las que los padres podían recurrir cuando se trataba de una tarea a menudo solitaria: criar a los hijos.Investigadores de la Universidad George Washington ahora han descubierto que grupos extremistas infiltraron grupos de padres de Facebook con información errónea poco después de la pandemia de Covid-19.desinformacion y redes socialesSi bien se sabe que las redes sociales difunden información errónea, los investigadores luchan por comprender exactamente cómo sucede. Para comprender mejor las comunidades de padres en Facebook, los investigadores de GW examinaron más de 100 millones de grupos de padres de Facebook. Se centraron específicamente en el debate de salud en línea de finales de 2020. La verdad es que la desinformación se propagó de un grupo a otro, así que resultó que había mucha.”Al estudiar las redes sociales a una escala sin precedentes, hemos descubierto por qué las comunidades principales, como los padres, se han visto inundadas de información errónea durante la pandemia y de dónde proviene”, dijo en un comunicado de prensa el investigador Neil Johnson, profesor de física en GW.Los investigadores encontraron lo que llamaron una “máquina de desinformación poderosa de dos puntas”. El más insidioso de los dos fue un “núcleo de comunidades antivacunas muy unidas pero en gran medida desapercibidas que continuamente brindaban información errónea sobre el covid-19 y las vacunas a las principales comunidades de padres”, escribieron en el artículo. Esto significa que eran opositores a la vacunación que ya habían decidido no vacunarse.El otro pilar fue “un fortalecimiento del vínculo entre las principales comunidades de padres y las comunidades de teorías de la conspiración anteriores a Covid que promueven información errónea sobre el cambio climático, el fluoruro, las estelas químicas y 5G”, escribieron los investigadores. Pero estos grupos influyeron en los principales grupos de padres en Facebook a través de un “canal”, las comunidades alternativas de salud y bienestar que inspiran con mensajes impactantes e inspiradores sobre cómo mantener saludable el sistema inmunológico.Aunque los moderadores de la plataforma de Facebook deberían estar al tanto de tales cosas, los grupos anti-vaxx y de teoría de la conspiración eran lo suficientemente pequeños como para que probablemente ni siquiera llamaran la atención de los moderadores.”Nuestros resultados desafían cualquier enfoque de moderación que se centre en las comunidades más grandes y, por lo tanto, aparentemente más visibles, en lugar de las más pequeñas y más integradas”, dijo Johnson. “Combatir claramente las teorías de conspiración y la desinformación en línea no se puede lograr sin considerar estas fuentes y canales multicomunitarios”.Su solución es una que Facebook debe implementar por sí mismo: “una teoría matemática simple pero exactamente solucionable para la dinámica del sistema” que “predice una nueva estrategia para controlar los puntos de inflexión de la comunidad principal”. Aún mejor, los investigadores creen que su modelo puede funcionar en cualquier plataforma de redes sociales con comunidades.¿Qué pueden hacer los padres para evitar la desinformación en las redes sociales?Los investigadores concluyeron que la difusión de información errónea altamente contagiosa por parte de unos pocos seguidores dedicados infectó a los principales grupos de padres y afectó a la mayoría de la población. Los padres solo pueden prestar atención al impacto que Facebook puede tener sobre nosotros.Los padres pueden ser más críticos con lo que leen sabiendo la influencia de los grupos de padres incondicionales, que la mayoría de los padres tratan de evitar. Los padres también pueden comunicarse con su médico.(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = “//connect.facebook.net/en_US/sdk.js#xfbml=1&version=v2.5”; fjs.parentNode.insertBefore(js, fjs); }(document, ‘script’, ‘facebook-jssdk’));
Twitter prohíbe permanentemente a Marjorie Taylor Greene por desinformación repetida de Covid-19
Twitter prohíbe permanentemente a Marjorie Taylor Greene por desinformación repetida de Covid-19de Adam | 2 de enero de 2022Línea superiorTwitter anunció el domingo que había prohibido permanentemente la cuenta personal de la representante Marjorie Taylor Greene (R-Ga.) Por violar la política de desinformación y las vacunas Covid-19 de la plataforma. Marjorie Taylor Greene había eliminado permanentemente su cuenta personal de Twitter.CQ-Roll Call, Inc a través de Getty ImagesLos hechos mas importantesUna declaración PYMES, Twitter dijo que había “prohibido permanentemente” la cuenta personal de Greene (@mtgreenee) por “violaciones repetidas” de su política de desinformación Covid-19. La plataforma, que opera un sistema de cinco ataques con sanciones cada vez mayores por cualquier infracción de la política de desinformación, confirmó que Greene recibió su quinto ataque, lo que resultó en una suspensión permanente.Si bien no está claro qué tweet condujo exactamente a la prohibición de Greene, la cuenta ahora está vacía, la congresista supuestamente promovió una conspiración de que el gobierno federal está ignorando “niveles extremadamente altos de muertes por vacuna Covid”, según una base de datos de efectos secundarios de vacunas informados. (VAERS), según una captura de pantalla que el Independiente.Los expertos dicen que la base de datos VAERS no es confiable porque se basa en informes públicos voluntarios y no verificados, algunos de los cuales pueden no ser precisos o relevantes para las vacunas en cuestión. Greene recibió previamente huelgas en posiciones que afirmaban falsamente que las vacunas contra el coronavirus “fallan” y que el Covid-19 solo es peligroso para los obesos o los ancianos. Twitter dijo que la cuenta del Congreso de Greene (@RepMTG) permanecerá activa ya que los tweets no violaron las reglas de la plataforma. Cita importanteEn una refutación de la plataforma de mensajería Telegram, Greene criticó un evidente doble rasero con el que se calificaba en Twitter su contenido y el de otros políticos y personalidades, diciendo que Twitter era “un enemigo de Estados Unidos y no puede lidiar con la verdad”. El trasfondo claveLas plataformas de redes sociales como Facebook y Twitter han sido desafiadas a tomar más medidas para detener la propagación de información errónea en Internet. Aunque las plataformas de redes sociales son conocidas por eliminar publicaciones de sus sitios web y prohibir a los usuarios que comparten información errónea o conspiraciones con ellos, algunas personas los acusaron de no ser lo suficientemente abiertos sobre el alcance del problema. Twitter intensificó sus esfuerzos para combatir la información errónea de Covid-19 y describió algunas de sus pautas en marzo. También se agregaron advertencias para publicaciones que contenían información errónea. tangenteLa suspensión de Greene se produce casi un año después de que Twitter le dijera al expresidente Donald Trump después del sexto levantamiento. La plataforma dijo que los tuits de Trump corrían el riesgo de más violencia y apoyaba a quienes creían erróneamente que ganó las elecciones presidenciales. Lectura adicionalTwitter prohíbe a Trump de forma permanente (pymes).Marjorie Taylor Greene dice que “elimina” las comparaciones sobre el Holocausto de sus correcciones anteriores de las medidas Covid (SME)El difusor de información errónea sobre el coronavirus (NYT) más influyente en línea.Actualizaciones en vivo y cobertura del coronavirus(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = “//connect.facebook.net/en_US/sdk.js#xfbml=1&version=v2.5”; fjs.parentNode.insertBefore(js, fjs); }(document, ‘script’, ‘facebook-jssdk’));
El falso tweet de Marjorie Taylor Green destaca los peligros de la desinformación en las redes sociales
ESTADOS UNIDOS – 4 DE ENERO, Representante Marjorie Taylor Green (R-Ga.) Presentada en foto grupal … [+]Los miembros de primer año de la Conferencia Republicana de la Cámara de Representantes se pararon en los escalones del Capitolio el lunes 4 de enero de 2021. (Foto de Tom Williams / CQ Roll Call, Inc a través de Getty ImagesCQ-Roll Call, Inc a través de Getty ImagesOcurre casi todos los días. Todo el mundoTuitear algo de lo que luego se arrepientan no es una buena idea. Un tweet falso también puede poner en peligro sus carreras para celebridades, atletas y políticos. Ahora, en nuestro mundo particularmente hiperpolarizado, vemos a muchos legisladores que utilizan las redes sociales para hacer declaraciones extremadamente audaces y, a veces, cuestionables.A principios de esta semana, supuestamente Marjorie Taylor Greene (congresista republicana de Georgia) distribuyó un tweet. Algunos sugirieron que podría usarse como “evidencia” de que ella podría haber estado involucrada en la “planificación” del ataque del 6 de enero al Capitolio de Estados Unidos.Sin embargo, el representante Greene en realidad no envió el tweet.Los verificadores de hechos de PolitiFact y Lead Stories han informado que se fabricó una foto con un comentario atribuido por la diputada Marjorie Taylor Greene.“Marjorie Taylor Greene no pudo publicar o escribir un tweet sobre ‘evidencia débil’ con respecto a Jan. Era falso ”, tuiteó @PolitiFact el jueves por la noche.PolitiFact también confirmó que el portavoz de Greene dejó en claro que no hizo ni escribió el comentario sobre el ataque al Capitolio. PolitiFact descubrió que el tweet falso se publicó días después. Piedra rodante Greene publicó una historia que alega que los organizadores de las protestas del 6 de enero estaban en contacto con miembros del Congreso. Greene afirma que no participó en la planificación de la protesta.Hacer las rondasAunque se confirmó que el tweet era falso, se ha difundido en las redes sociales, con capturas de pantalla publicadas en Facebook y otras plataformas. Se ha retuiteado desde Twitter y se ha compartido muchas veces desde que apareció por primera vez el miércoles.Numerosos otros medios de comunicación han confirmado que está inventado.Matthew Schmidt, Ph.D. es Coordinadora de Asuntos Internacionales en la Facultad de Justicia Criminal y Ciencias Forenses Henry C. Lee.Schmidt dijo: “Ella ha dicho cosas terribles en la historia y creo que eso podría dañar nuestra democracia tanto como lo que afirmó en ese tuit”, agregó Schmidt. Estas no son cosas nuevas.Es cierto que muchas de las acusaciones contra nuestros políticos se han hecho a lo largo de la historia de nuestra nación. Por un lado, las redes sociales pueden facilitar la difusión de información errónea o desinformación a un gran número de personas. Pero la misma tecnología también puede ayudar a desacreditar las falsedades muy rápidamente.Schmidt explicó que en el pasado era más difícil probar una falsedad. Señaló que ahora hay verificadores de hechos políticos a tiempo completo y sitios web que solo verifican información errónea.Dijo que era más fácil contratwittear hoy que responder a tal acusación en los días previos a las redes sociales.Aún así, las redes sociales todavía están maduras para las noticias falsas y no faltan campañas de desinformación / desinformación más allá de los tweets falsos.Charles King, analista de tecnología de Pund-IT, advirtió que el mayor peligro de difundir videos falsos en las redes sociales es la aparente incapacidad o voluntad de Facebook y otras plataformas de redes sociales para detener la propagación de información errónea.”Durante las últimas semanas, los documentos internos de Facebook han demostrado que el liderazgo de la compañía estaba informado y conocía los efectos negativos de la desinformación sobre Covid-19, las elecciones de 2020 y otros temas, pero hicieron poco o nada para detenerlo”, agregó King. Si bien existen muchos desafíos tecnológicos para identificar fotos o videos fraudulentos, la inacción de los ejecutivos de las redes sociales puede ser el catalizador que encienda el fuego.¿Qué pasa con las elecciones?Aunque estos tweets fabricados se pueden abordar rápidamente, todavía existe el peligro que podría surgir si este tipo de información errónea / desinformación es tendencia en la víspera de una elección, especialmente en una carrera reñida.Schmidt afirmó que “esto podría ser un elemento crítico donde esto sería motivo de preocupación”. “El momento de una elección es un factor. Sin embargo, también tendría que apuntar a un político relativamente no polarizador como Greene.La pregunta más importante es si suficientes personas realmente se toman el tiempo para leer más allá de los tweets. Es cierto que PolitiFact, Reuters y muchos otros sitios expusieron este tweet, pero como se ha visto, la gente todavía cree lo que quiere creer.Schmidt explicó que las personas deben poder acceder a fuentes de noticias distintas de las redes sociales. También dijo que cree en la prensa profesional. “Este es un llamado a ciudadanos educados que se toman el tiempo para descubrir la verdad o la falsedad”.(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = “//connect.facebook.net/en_US/sdk.js#xfbml=1&version=v2.5”; fjs.parentNode.insertBefore(js, fjs); }(document, ‘script’, ‘facebook-jssdk’));
Facebook cierra proyecto para analizar el impacto de la desinformación en anuncios políticos en la plataforma
Ese no es un gran aspecto para Facebook.
A principios de esta semana, Facebook anunció que se había visto obligado a prohibir a un grupo de investigadores de la NYU el acceso a los datos de uso interno de Facebook porque el equipo de la NYU no se había adherido a los términos de uso de investigación más estrictos de la plataforma que implementó posteriormente del escándalo de Cambridge Analytica. Hace unos pocos años. Como lo explica Facebook:
“Pasamos meses tratando de trabajar con la Universidad de Nueva York para brindar a tres de sus investigadores el acceso exacto que solicitaban de una manera protegida por la privacidad. Hoy deshabilitamos las cuentas, aplicaciones, páginas y acceso a la plataforma asociados con el Proyecto Observatorio de anuncios de la NYU y sus operadores después de nuestros repetidos intentos de alinear su investigación con nuestros términos “. Facebook también descubrió que el equipo de NYU, que investiga específicamente la difusión de información errónea sobre anuncios políticos en la plataforma, había utilizado “medios ilícitos” para acceder y recopilar datos de los usuarios de Facebook, en violación de sus condiciones de uso. “Hemos tomado estos pasos para detener el raspado no autorizado y proteger la privacidad de las personas de acuerdo con nuestro programa de privacidad bajo la regulación de la FTC”.
Lo que tiene sentido: nadie quiere otra debacle de Cambridge Analytica, y dados los términos más complejos que la FTC les está imponiendo como parte de su castigo a Facebook por la filtración de datos de CA, Facebook obviamente está interesado en entrar y asegurarse de que no Puede ocurrir un posible abuso.
El problema es que la FTC nunca impuso tales condiciones.
Como declaró hoy la FTC, el acuerdo que tiene con la empresa no impide que Facebook cree excepciones para la investigación de buena fe en interés público.
Como lo explicó Samuel Levine, el ADirector de la Oficina de Protección al Consumidor de la FTC en una carta abierta al director ejecutivo de Facebook, Mark Zuckerberg:
“Estoy escribiendo sobre la reciente acusación de Facebook de que su acción contra un proyecto de investigación académica del Observatorio de anuncios de la NYU fue requerida por el decreto de aprobación de la compañía con la Comisión Federal de Comercio. Como la compañía ha admitido desde entonces, esto es inexacto. La FTC se compromete a proteger la privacidad de Gente, y los esfuerzos para proteger las prácticas publicitarias dirigidas del escrutinio van en contra de esa misión “.
Entonces, si no fuera por la regulación de la FTC, tal vez Facebook solo estaba siendo más cauteloso, o tal vez simplemente malinterpretó el veredicto y ahora volverá a habilitar la investigación de la NYU.
O, como algunos han sugerido, el equipo de la NYU puede haber estado demasiado cerca de revelar hallazgos potencialmente dañinos sobre el impacto de los anuncios de Facebook en términos de difundir información política errónea.
Como se señaló anteriormente, el equipo de NYU se centró en particular en medir el impacto de los anuncios políticos y los mensajes que presentan y cómo los usuarios de Facebook responden a ellos, esencialmente midiendo su impacto potencial en los resultados de las elecciones. A raíz de la campaña de Trump que utilizó la publicidad de Facebook como arma a través de mensajes divisivos y cargados de emociones, existe la preocupación de que las herramientas publicitarias avanzadas de Facebook en las manos equivocadas puedan ofrecer un beneficio significativo para aquellos que están dispuestos a poner la verdad a su favor para doblarse. abordando las preocupaciones y debilidades más importantes de las personas con mensajes manipuladores, si no falsos, que luego pueden amplificarse a gran escala.
Como recordatorio, Facebook revisa regularmente las publicaciones en su plataforma, pero no los anuncios políticos, una omisión potencialmente flagrante en su proceso.
Para medir el impacto potencial de esto, NYU El proyecto Ad Observatory creó una extensión de navegador que, cuando se instala, recopila datos sobre los anuncios que se muestran a cada usuario en Facebook, incluida información específica sobre cómo se orientaron esos anuncios. Este proceso, algo similar a la forma en que Cambridge Analytica estaba recopilando datos sobre el uso de Facebook, aterrorizó a Facebook, que envió una declaración de cese y desistimiento al equipo de NYU en octubre del año pasado, pidiéndoles que lo cerraran. El equipo de NYU se negó, y aunque Facebook les permitió seguir usando la extensión hasta ahora, The Social Network ha estado reevaluando lo que llevó a este último movimiento para evitar que recopilen datos.
Para ser justos, Facebook dice que dicha información ya está disponible a través de su biblioteca de anuncios, pero el equipo de la NYU dice que está incompleta y en algunos casos es inexacta y, por lo tanto, no brinda una imagen completa del impacto potencial.
Aun así, Facebook en general parece tener razón, a pesar de que la orden de la FTC se citó por error como la causa principal (Facebook aclaró esa afirmación casi de inmediato). Pero nuevamente, la preocupación que muchos han resaltado es que Facebook realmente podría estar tratando de detener datos potencialmente poco halagadores que podrían resaltar el papel que juega en la difusión de información errónea, lo que lleva a incidentes como los disturbios del Capitolio y otros actos de desacuerdo político. Entonces, ¿los datos disponibles hasta ahora muestran que los anuncios de Facebook engañan al público?
Se han realizado varios análisis del conjunto de datos de la NYU disponible, algunos muestran que Facebook, a pesar de sus esfuerzos expandidos, no marca todos los anuncios políticos, y otro muestra que Facebook todavía está permitiendo algunos anuncios con orientación discriminatoria, aunque supuestamente eliminó estas categorías. de la orientación. El conjunto de datos de la NYU también ha proporcionado más información sobre cómo los políticos pretenden dirigirse a audiencias específicas, como informa Bloomberg:
“Por ejemplo, el [NYU dataset] reveló que Jon Ossoff, un demócrata de Georgia, apuntó a los usuarios de Facebook interesados en temas como el ex presidente Barack Obama, el comediante Trevor Noah y la revista Time durante su campaña para el Senado de los Estados Unidos. Su oponente, el ex senador republicano David Perdue, apuntó a los usuarios a los que les gustaba el programa de Sean Hannity en Fox News “.
Esta información adicional podría ser invaluable para comprender cómo los candidatos políticos se enfocan en una audiencia en particular y cómo esto puede cambiar su respuesta, que es un elemento clave en el desarrollo de formas de detener su abuso y manipulación para evitar mensajes en el futuro.
Entonces, parece que Facebook debería permitir que el proyecto continúe, especialmente dado el impacto de la desinformación con el lanzamiento actual de la vacuna COVID. Pero se decidió cerrarlo.
En general, ¿eso es útil? Probablemente no, pero podría ayudar a Facebook a proteger su reputación, incluso con el impacto de relaciones públicas que está teniendo ahora para bloquear el acceso.
Sin embargo, en última instancia, no tenemos ninguna respuesta definitiva. Claro, el equipo de NYU ahora tiene un conjunto de datos bastante grande para analizar que aún está descubriendo tendencias peligrosas y podría disminuir en el futuro. Pero una mayor transparencia es clave para evitar la difusión de narrativas falsas y la difusión de conspiraciones peligrosas y otras falsedades entre el electorado.
Idealmente, Facebook debería querer contribuir y aprender de los resultados. Pero o es demasiado arriesgado, dado el acceso a los datos del usuario requerido, o es demasiado dañino, lo que podría hacer que Facebook se vea mucho peor.
No sabemos la razón final, pero como se mencionó anteriormente, no es el mejor aspecto para The Social Network en este momento.