A pesar de las repetidas garantías de X (anteriormente Twitter) de que sus herramientas de colocación de anuncios ofrecen la máxima seguridad de la marca, asegurando que las promociones pagadas no aparecen junto a contenido dañino u objetable en la aplicación, cada vez más anunciantes siguen reportando preocupaciones bajo el enfoque revisado de X de «libertad de expresión, no alcance». Hoy, Hyundai ha anunciado que está pausando su gasto publicitario en X, después de descubrir que sus promociones se mostraban junto a contenido pro-nazi. Esto ocurre solo días después de que NBC publicara un nuevo informe que mostraba que al menos 150 perfiles verificados en la aplicación, junto con miles de cuentas no remuneradas, han publicado y/o amplificado contenido pro-nazi en X en los últimos meses. X negó el informe de NBC a principios de semana, calificándolo de un artículo de «pillada» que carecía de «investigación, investigación y transparencia exhaustivas». Sin embargo, ahora, otro importante anunciante de X se ha enfrentado al problema exacto destacado en el informe. Lo cual X ha reconocido, y ha suspendido el perfil en cuestión, mientras también trabaja con Hyundai para abordar sus preocupaciones. Pero nuevamente, esto sigue sucediendo, lo que parece sugerir que el nuevo enfoque de X hacia la libertad de expresión no es sostenible, al menos en términos de cumplir con las expectativas de los anunciantes. Según el último informe de moderadores de la UE, TikTok tiene un miembro del personal de moderación humano por cada 22,000 usuarios en la aplicación, mientras que Meta es ligeramente peor, con 1/38k. X tiene un moderador por cada 55k usuarios de la UE. Por lo tanto, si bien X afirma que los recortes de personal lo han dejado bien equipado para hacer frente a sus requisitos de moderación, está claro que ahora está dependiendo más de sus otros sistemas y procesos no estandarizados. Los analistas de seguridad también afirman que las Notas de la Comunidad de X no son efectivas en este sentido, con parámetros en torno a cómo se muestran las notas, y cuánto tiempo tardan en aparecer, dejando lagunas significativas en su aplicación general. Y en función de las propias declaraciones y posturas repetidas de Elon Musk, parece que preferiría no tener moderación en absoluto. Musk sostiene desde hace mucho tiempo que se le debe dar la oportunidad a todas las perspectivas de presentarse en la aplicación, con los usuarios pudiendo luego debatir cada una por sus méritos, y decidir por sí mismos qué es verdad y qué no lo es. Sin embargo, en la práctica, esto también significa que los vendedores oportunistas de desinformación y los rastreadores de internet mal orientados pueden ganar tracción con sus teorías aleatorias, incorrectas, perjudiciales y a menudo peligrosas para grupos e individuos. Por ejemplo, la semana pasada, después de que un hombre apuñalara a varias personas en un centro comercial en Australia, una cuenta verificada de X identificó erróneamente al asesino, y amplificó el nombre e información incorrecta de la persona a millones de personas en la aplicación. Solía ser que las cuentas con marca de verificación azul eran las que se podían confiar para obtener información precisa en la aplicación, lo que a menudo era el propósito de verificar la cuenta en primer lugar, pero el incidente subrayó la erosión de la confianza que los cambios de X han causado, con los teóricos de la conspiración ahora capaces de impulsar ideas infundadas rápidamente en la aplicación, simplemente pagando unos pocos dólares al mes. Y lo que es peor, Musk a menudo se involucra con contenido relacionado con conspiraciones, del cual ha admitido que no verifica en absoluto antes de compartir. Y como titular del perfil más seguido en la aplicación, él mismo posiblemente represente el mayor riesgo de causar tal daño, sin embargo, también es quien toma decisiones de política en la aplicación. Lo cual parece ser una mezcla peligrosa. También es evidente que el margen de error tan pequeño está llevando a estas preocupaciones repetidas, ¿o es que la seguridad de la marca de X es en realidad significativamente peor de lo que sugiere? Parece que X aún tiene algunos problemas que necesita resolver, especialmente si también consideramos que el problema de ubicación de Hyundai solo se abordó después de que Hyundai lo señalara a X. No fue detectado por los sistemas de X. Y con los ingresos publicitarios de X todavía reportados a la baja en un 50%, también se avecina una desafiante solución con más personal en este aspecto.
A pesar de las repetidas garantías de X (anteriormente Twitter) de que sus herramientas de colocación de anuncios ofrecen la máxima seguridad de la marca, asegurando que las promociones pagadas no aparecen junto a contenido dañino u objetable en la aplicación, cada vez más anunciantes siguen reportando preocupaciones bajo el enfoque revisado de X de «libertad de expresión, no alcance». Hoy, Hyundai ha anunciado que está pausando su gasto publicitario en X, después de descubrir que sus promociones se mostraban junto a contenido pro-nazi. Esto ocurre solo días después de que NBC publicara un nuevo informe que mostraba que al menos 150 perfiles verificados en la aplicación, junto con miles de cuentas no remuneradas, han publicado y/o amplificado contenido pro-nazi en X en los últimos meses. X negó el informe de NBC a principios de semana, calificándolo de un artículo de «pillada» que carecía de «investigación, investigación y transparencia exhaustivas». Sin embargo, ahora, otro importante anunciante de X se ha enfrentado al problema exacto destacado en el informe. Lo cual X ha reconocido, y ha suspendido el perfil en cuestión, mientras también trabaja con Hyundai para abordar sus preocupaciones. Pero nuevamente, esto sigue sucediendo, lo que parece sugerir que el nuevo enfoque de X hacia la libertad de expresión no es sostenible, al menos en términos de cumplir con las expectativas de los anunciantes. Según el último informe de moderadores de la UE, TikTok tiene un miembro del personal de moderación humano por cada 22,000 usuarios en la aplicación, mientras que Meta es ligeramente peor, con 1/38k. X tiene un moderador por cada 55k usuarios de la UE. Por lo tanto, si bien X afirma que los recortes de personal lo han dejado bien equipado para hacer frente a sus requisitos de moderación, está claro que ahora está dependiendo más de sus otros sistemas y procesos no estandarizados. Los analistas de seguridad también afirman que las Notas de la Comunidad de X no son efectivas en este sentido, con parámetros en torno a cómo se muestran las notas, y cuánto tiempo tardan en aparecer, dejando lagunas significativas en su aplicación general. Y en función de las propias declaraciones y posturas repetidas de Elon Musk, parece que preferiría no tener moderación en absoluto. Musk sostiene desde hace mucho tiempo que se le debe dar la oportunidad a todas las perspectivas de presentarse en la aplicación, con los usuarios pudiendo luego debatir cada una por sus méritos, y decidir por sí mismos qué es verdad y qué no lo es. Sin embargo, en la práctica, esto también significa que los vendedores oportunistas de desinformación y los rastreadores de internet mal orientados pueden ganar tracción con sus teorías aleatorias, incorrectas, perjudiciales y a menudo peligrosas para grupos e individuos. Por ejemplo, la semana pasada, después de que un hombre apuñalara a varias personas en un centro comercial en Australia, una cuenta verificada de X identificó erróneamente al asesino, y amplificó el nombre e información incorrecta de la persona a millones de personas en la aplicación. Solía ser que las cuentas con marca de verificación azul eran las que se podían confiar para obtener información precisa en la aplicación, lo que a menudo era el propósito de verificar la cuenta en primer lugar, pero el incidente subrayó la erosión de la confianza que los cambios de X han causado, con los teóricos de la conspiración ahora capaces de impulsar ideas infundadas rápidamente en la aplicación, simplemente pagando unos pocos dólares al mes. Y lo que es peor, Musk a menudo se involucra con contenido relacionado con conspiraciones, del cual ha admitido que no verifica en absoluto antes de compartir. Y como titular del perfil más seguido en la aplicación, él mismo posiblemente represente el mayor riesgo de causar tal daño, sin embargo, también es quien toma decisiones de política en la aplicación. Lo cual parece ser una mezcla peligrosa. También es evidente que el margen de error tan pequeño está llevando a estas preocupaciones repetidas, ¿o es que la seguridad de la marca de X es en realidad significativamente peor de lo que sugiere? Parece que X aún tiene algunos problemas que necesita resolver, especialmente si también consideramos que el problema de ubicación de Hyundai solo se abordó después de que Hyundai lo señalara a X. No fue detectado por los sistemas de X. Y con los ingresos publicitarios de X todavía reportados a la baja en un 50%, también se avecina una desafiante solución con más personal en este aspecto.