![]() |
| dar link para oir la noticia |
El atacante, un supremacista blanco de 28 años
oriundo de Australia, no solo transmitió en vivo el atentado a través de Facebook
y Twitter, sino que las imágenes de la masacre circularon incluso horas después
del tiroteo, a pesar de los esfuerzos de las mismas redes sociales por evitar la
masiva divulgación.
"El ataque a los musulmanes de Nueva
Zelanda hoy es un espantoso y vergonzoso acto de terror", dijo David
Ibsen, director ejecutivo de la organización de políticas global sin fines de
lucro y no partidista del Proyecto de Lucha contra el Extremismo (CEP). "Una
vez más, ha sido cometido un ataque por un extremista… ayudado, instigado y
persuadido a la acción por el contenido en las redes sociales.
Mia Garlick de Facebook Nueva Zelanda
emitió un comunicado el viernes, indicando que "desde que ocurrió el
ataque, los equipos de Facebook han estado trabajando las 24 horas del día para
responder a los informes y bloquear el contenido.
Garlick, Instó a los usuarios a informarles
sobre cualquier novedad que permita ayudarles a impedir que el video sea
compartido de nuevamente.
Por su parte, YouTube dijo que "el
contenido impactante, violento y gráfico no tiene cabida en sus plataformas, y están
empleando toda su tecnología y recursos humanos para revisar y eliminar
rápidamente cualquier contenido violatorio en YouTube.
Twitter se hizo eco de sentimientos
similares: "Twitter tiene procesos rigurosos y un equipo dedicado para administrar
situaciones exigentes y de emergencia como esta. También cooperar con la
policía para facilitar sus investigaciones según sea necesario.
Una de las dificultades para abordar este tipo de problemas, dice la profesora asistente de la UCLA Sarah T. Roberts, es que se trata de "algo de manzanas y naranjas cuando hablamos de las principales plataformas comerciales al mismo tiempo que algunos de los rincones más esotéricos e inquietantes de Internet., ambos de los cuales están implicados en este caso.
Esta persona tuvo presencia en diferentes tipos de sitios. "Los enfoques y la orientación para lidiar con el discurso del odio, la incitación a la violencia, los materiales terroristas, difieren en estos lugares".
Incluso así, Roberts es crítica con los actores principales, incluidos YouTube, Twitter y Facebook, a quienes ella dice "hasta ahora no se han tomado muy en serio estos problemas". "Si queremos pensar en metáforas, está intentando cerrar la puerta del granero después de que los caballos hayan escapado en esencia".
Además, "el problema de localizar, aislar y eliminar dicho contenido es un problema continuo, por lo que incluso si estipulamos que está bien, de alguna manera es muy fácil saber qué es lo que constituye un discurso de odio y podemos encontrarlo, lo cual no creo que podamos. Supongamos que, a continuación, tiene los mecanismos para hacer la eliminación. Eso a menudo recae en personas muy mal pagadas y de bajo estatus llamadas moderadores de contenido que hacen la eliminación ".
Decidir qué en estas plataformas constituye un discurso que cruza la línea y qué no puede plantear un gran desafío, ya que a menudo es mucho más matizado que el discurso de odio directo que incita a la violencia.
“Las compañías han tratado lo más que pueden para no estar en el negocio de ser los árbitros del contenido. Y, sin embargo, en 2019, se encuentran de lleno en esa práctica, donde nunca quisieron estar ", dice Roberts.
Además, en una escala mucho más pequeña, puede haber un acto de equilibrio cuando una persona transmite en vivo, por ejemplo, la policía detiene los disparos, no para glorificar el evento, sino para proporcionar responsabilidad y evidencia visual.
COMM 511-0/ 03-18-19 / WORKSHOP 5 (b)
Reference:
https://www.usatoday.com/story/tech/2019/03/15/new-zealand-shooting-do-social-media-companies-bear-responsibility/3174497002/
COMM 511-0/ 03-18-19 / WORKSHOP 5 (b)
Reference:
https://www.usatoday.com/story/tech/2019/03/15/new-zealand-shooting-do-social-media-companies-bear-responsibility/3174497002/




No hay comentarios.:
Publicar un comentario