Digiere las últimas noticias digitales en menos de 3 minutos.
Cerrar

X Está Considerando Algunas Tácticas de Moderación Después del Escándalo de IA

Enero 30, 2024

1 min 40 s de lectura
1 Facebook Twitter Whatsapp Facebook Twitter LinkedIn Pinterest WhatsApp Copy Link Your browser does not support automatic copying, please select and copy the link in the text box, then paste it where you need it.
Si bien Elon ha insistido en que la colaboración colectiva es la forma de frenar el contenido dañino, parece que todavía hay un pequeño desafío. La semana pasada, las imágenes generadas por IA de Taylor Swift siendo agredida sexualmente por fanáticos de la NFL llamaron la atención en X, obteniendo más de 27 millones de visitas y 260.000 me gusta antes de que la cuenta que originó la publicación fuera cerrada.

Mano Sosteniendo Teléfono con Palabra Rechazo en Pantalla
No hace falta decir que Taylor no estaba contenta con esto y hay informes de que emprenderá acciones legales contra el creador del contenido y X.

Si bien X no pudo contener la difusión descontrolada del contenido, incluso a la luz de la suspensión, la plataforma actualmente ha prohibido todas las búsquedas de "Taylor Swift" en la aplicación.

Si bien el contenido violó la política de medios sensibles de X, lo que significa que se habría eliminado de todos modos, algunos dicen que la dependencia de la plataforma de las Notas de la Comunidad de fuentes colectivas puede no ser la mejor manera de abordarlo. Muchos sienten que es hora de que X tenga moderadores internos.

X ya ha tomado medidas al anunciar que construiría un centro de moderación de contenido para 100 personas en Texas, con el objetivo principal de centrarse en el contenido de abuso sexual infantil, pero "con la tarea de gestionar otros elementos también".

¿Es esto una admisión por parte de X de que Notas de la Comunidad no es tan bueno como parece? También plantea la cuestión de si el nuevo centro va en contra del enfoque de "libertad de expresión, no de alcance" de X, que gira en torno al concepto de que la comunidad debe decidir qué es adecuado o no para la plataforma. Después de todo, X siempre ha dicho que no debería haber un "árbitro central de decisiones de moderación" como lo había en los días de Twitter.

¿Está Elon reconsiderando ese enfoque?

Si bien Notas de la Comunidad aborda de alguna manera esto, está claro que hay trabajo por hacer a mayor escala para detener la propagación desenfrenada de contenido dañino. Desde el principio, cuando Elon se deshizo del 80% de su personal, parecía poco realista creer que la plataforma pudiera mantener la capacidad de controlarse a sí misma, de ahí la dependencia de Notas de la Comunidad, que claramente no está funcionando. Pregúntale a Taylor Swift y sus abogados.

¿Deseas leer esto en inglés? Versión en inglés >>

1 Facebook Twitter Whatsapp Facebook Twitter LinkedIn Pinterest WhatsApp Copy Link Your browser does not support automatic copying, please select and copy the link in the text box, then paste it where you need it.