Tenemos la responsabilidad de poner freno al abuso y a la interferencia en las elecciones en nuestra plataforma. Es por eso que desde el 2016 hemos realizado considerables inversiones para identificar mejor nuevas amenazas, cerrar vulnerabilidades y reducir la diseminación de desinformación viral y cuentas ficticias.
Hoy, cuando falta poco más de un año de las elecciones del 2020 en Estados Unidos, estamos anunciando varias medidas nuevas para ayudar a proteger el proceso democrático y estamos brindando una actualización sobre las iniciativas que ya están en curso:
Luchar contra la interferencia extranjera
- Combatir el comportamiento inauténtico, lo cual incluye una política actualizada
- Proteger las cuentas de los candidatos, los funcionarios electos, sus equipos y otros mediante Facebook Protect
Aumentar la transparencia
- Hacer que las Páginas sean más transparentes, lo cual incluye mostrar quién es el dueño confirmado de una Página
- Etiquetar los medios controlados por el Estado en su Página y en nuestra Biblioteca de anuncios
- Facilitar el entendimiento de los anuncios políticos, lo cual incluye un nuevo rastreador de los gastos de los candidatos presidenciales de Estados Unidos
Reducir la desinformación
- Prevenir la diseminación de desinformación, lo cual incluye etiquetas más claras de comprobación de los hechos
- Luchar contra la supresión del voto y la interferencia, lo cual incluye la prohibición de anuncios pagados que sugieren que votar no sirve de nada o que aconsejan a las personas a no votar
- Ayudar las personas a entender mejor la información que ven en línea, lo cual incluye una inversión inicial de $2 millones en apoyo a proyectos de alfabetización mediática
Luchar contra la interferencia extranjera
Combatir el comportamiento inauténtico
Durante los últimos tres años, hemos trabajado para identificar amenazas nuevas y emergentes y para eliminar el comportamiento inauténtico coordinado en nuestras aplicaciones. Tan solo el año pasado, desmontamos más de 50 redes en todo el mundo, en muchos casos antes de importantes elecciones democráticas. Como parte de nuestro esfuerzo por contrarrestar campañas de influencia extranjera, esta mañana retiramos cuatro redes separadas de cuentas, Páginas y Grupos en Facebook y en Instagram por involucrarse en comportamiento inauténtico coordinado. Tres de ellas se originaron en Irán y una en Rusia. Tenían como blanco a Estados Unidos, el norte de África y América Latina. Estas campañas de manipulación fueron identificadas como parte de nuestras investigaciones internas acerca del comportamiento inauténtico vinculado con Irán, y de nuestro trabajo proactivo de cara a las elecciones en Estados Unidos.
Desmantelamos esas redes basándonos en su comportamiento, no en el contenido publicado. En cada caso, las personas detrás de esta actividad coordinaron entre sí y usaron cuentas ficticias para dar una imagen falsa de sí mismas, y esa fue la base de nuestra acción. Hemos compartido nuestros hallazgos con agencias del orden público y con asociados dentro del sector. Pueden encontrarse más detalles aquí.
Según hemos mejorado nuestra capacidad para desmantelar estas operaciones, también hemos alcanzado una comprensión más a fondo de las diferentes amenazas y de la mejor forma de contrarrestarlas. Investigamos y hacemos cumplir nuestras políticas contra cualquier tipo de comportamiento inauténtico. Sin embargo, la manera más adecuada de responder a alguien que está reforzando la popularidad de sus publicaciones en nuestro propio país puede que no sea la manera más adecuada de contrarrestar la influencia extranjera. Por eso es que hemos estado actualizando nuestra política sobre comportamiento inauténtico, para esclarecer cómo nos enfrentamos a toda la gama de prácticas engañosas que vemos en nuestras plataformas, ya sean estas prácticas extranjeras o nacionales, controladas o no por un Estado.
Proteger las cuentas de los candidatos, de los funcionarios electos y de sus equipos
Hoy estamos lanzando Facebook Protect para proteger aún más las cuentas de los funcionarios electos, de los candidatos, de su personal y de otros que pueden ser blancos especialmente vulnerables de hackers y adversarios extranjeros. Como hemos visto en elecciones anteriores, estas personas pueden ser el blanco de actividad maliciosa. Sin embargo, debido a que las campañas por lo general se llevan a cabo durante un corto período de tiempo, no siempre sabemos quiénes son estas personas afiliadas con la campaña, lo que dificulta ayudar a protegerlas.
A partir de hoy, los administradores de Páginas pueden inscribir en Facebook Protect las cuentas en Facebook e Instagram de su organización e invitar a los miembros de su organización a participar también en el programa. Se requerirá de los participantes que activen una autenticación con dos factores, y sus cuentas serán monitoreadas para detectar actividad de piratería informática, como intentos de inicio de sesión desde ubicaciones inusuales o dispositivos no verificados. Y, si descubrimos un ataque contra una cuenta, podemos revisar y proteger otras cuentas afiliadas con esa misma organización que están inscritas en nuestro programa. Lea más sobre Facebook Protect e inscríbase aquí.
Aumentar la transparencia
Hacer que las páginas sean más transparentes
Queremos asegurarnos de que las personas están usando Facebook auténticamente, y que entienden quién les está hablando. Durante el año pasado, adoptamos medidas para asegurar que las Páginas sean más auténticas y más transparentes, mostrando a las personas el país principal donde está ubicada la Página y si la Página se ha fusionado con otras Páginas. Esto brinda a las personas más contexto sobre la Página y permite que sea más fácil entender quién está detrás de la misma.
Cada vez más vemos como las personas no revelan cuál es la organización detrás de su Página como una forma de hacer pensar a las personas que es una Página manejada de forma independiente. Para abordar esto, hemos añadido más información acerca de quién está detrás de una Página, lo cual incluye una nueva pestaña llamada "Organizaciones que administran esta página" que presentará al "Dueño confirmado de la página", incluso el nombre legal de la organización y la ciudad, número de teléfono y sitio web verificados.
En un inicio, esta información solo aparecerá en Páginas con grandes audiencias en Estados Unidos que han pasado la verificación de negocio de Facebook. Además, las Páginas que han pasado por el nuevo proceso de autorización para publicar anuncios sobre asuntos sociales, elecciones o política en Estados Unidos también tendrán esta pestaña. Y a partir de enero, se requerirá de estos anunciantes que muestren sus datos de "Dueño confirmado de la página".
Si descubrimos que una Página está ocultando quién es su dueño para engañar a las personas, requeriremos que la Página complete con éxito el proceso de verificación y muestre más información para poder seguir activa.
Etiquetar los medios controlados por el Estado
Queremos que las personas entiendan mejor las fuentes del contenido noticioso que ven en Facebook, de forma que puedan tomar decisiones informadas acerca de lo que están leyendo. El próximo mes, comenzaremos a etiquetar a los medios de comunicación que están total o parcialmente bajo el control editorial de su gobierno como un medio controlado por el Estado. Esta etiqueta estará tanto en su Página como en nuestra Biblioteca de anuncios.
Demandaremos de estas Páginas un estándar de transparencia más alto porque combinan la influencia formadora de opinión de una organización mediática con el respaldo estratégico de un Estado.
Desarrollamos nuestra propia definición y estándares para organizaciones mediáticas controladas por el Estado teniendo en cuenta las opiniones de más de 40 expertos de todo el mundo especializados en medios, gobernanza, derechos humanos y desarrollo. Los consultados representan a instituciones académicas líderes, organizaciones sin fines de lucro y organizaciones internacionales en este campo, entre ellas Reporteros sin Fronteras, el Centro para Asistencia Internacional a los Medios, el Centro Europeo de Periodismo, el Proyecto sobre Propaganda Computacional del Oxford Internet Institute, el Centro para Medios, Datos y Sociedad (CMDS) de la Universidad Centroeuropea, el Consejo de Europa, la UNESCO y otras.
Es importante señalar que nuestra propia política traza una distinción intencional entre medios controlados por el Estado y medios públicos, los cuales definimos como una entidad que cuenta con financiamiento público, retiene una misión de servicio público y puede demostrar su control editorial independiente. En este momento, estamos enfocando nuestros esfuerzos de etiquetado solo hacia los medios controlados por el Estado.
A partir de noviembre estaremos actualizando periódicamente la lista de medios controlados por el Estado. Y, a principios del 2020, tenemos planes de ampliar nuestro etiquetado a publicaciones específicas y de aplicar estas etiquetas también en Instagram. Para cualquier organización que considere que la hemos etiquetado erróneamente, habrá un proceso de apelación.
Facilitar el entendimiento de los anuncios políticos
Además de hacer que las Páginas sean más transparentes, estamos actualizando la Biblioteca de anuncios, el Informe de la Biblioteca de anuncios y la API de la Biblioteca de anuncios para ayudar a los periodistas, legisladores, investigadores y otros a aprender más acerca de los anuncios que ven. Esto incluye:
- Un nuevo rastreador de gastos de los candidatos presidenciales de Estados Unidos, de forma que las personas puedan ver cuánto han gastado los candidatos en anuncios
- Adición de detalles adicionales a niveles estatal o regional para ayudar a las personas a analizar los esfuerzos del anunciante y del candidato para llegar a los votantes geográficamente
- Dejar claro si un anuncio se publicó en Facebook, Instagram, Messenger o Audience Network
- Adición de útiles filtros de API, para proporcionar acceso programático a la descarga de contenidos creativos publicitarios y a un repositorio de scripts de API usados frecuentemente
Además de las actualizaciones a la API de la Biblioteca de anuncios, en noviembre comenzaremos a someter a prueba con los investigadores una nueva base de datos que les permitirá descargar rápidamente toda la Biblioteca de anuncios, extraer instantáneas diarias y rastrear los cambios día a día.
Visite nuestro Centro de Ayuda para aprender más acerca de los cambios a las Páginas y a la Biblioteca de anuncios.
Reducir la desinformación
Prevenir la diseminación de desinformación viral
En Facebook y en Instagram, trabajaremos para impedir la diseminación de desinformación confirmada. Por ejemplo, para reducir su distribución de forma que sea vista por menos personas — en Instagram, la eliminaremos de Explore y hashtags, y en Facebook, reduciremos su distribución en la sección de noticias. En Instagram, también haremos que el contenido de cuentas que repetidamente publican desinformación sea más difícil de encontrar, por ejemplo, mediante el filtrado de contenido de esa cuenta desde las páginas de Explore y hashtag. Además, en Facebook, si las Páginas, los dominios o los Grupos comparten desinformación repetidamente, continuaremos reduciendo su distribución general y colocaremos restricciones a la capacidad de la Página para colocar publicidad y beneficiarse monetariamente de esta.
Durante el próximo mes, el contenido en Facebook y en Instagram que ha sido clasificado como falso o parcialmente falso por un verificador de hechos independiente comenzará a ser etiquetado más prominentemente para que las personas puedan decidir mejor por sí mismas qué leer, creer y compartir. Las etiquetas debajo se mostrarán sobre fotos y videos falsos o parcialmente falsos, incluso sobre contenido de Historias en Instagram, y tendrán un enlace que conducirá a la evaluación del verificador de hechos.
De forma muy semejante a lo que hacemos en Facebook cuando las personas tratan de compartir desinformación conocida, también estamos introduciendo una nueva ventana emergente que aparecerá cuando las personas intenten compartir en Instagram publicaciones que incluyen contenido que ha sido desacreditado por verificadores de hechos independientes.
Además del uso de etiquetas más claras, también estamos trabajando para actuar más rápidamente para impedir que la desinformación adquiera carácter viral, especialmente teniendo en cuenta que verificar los hechos y elaborar informes de calidad es algo que requiere tiempo. En muchos países, incluso en Estados Unidos, si tenemos indicios de que determinado contenido es falso, reducimos temporalmente su distribución a la espera de una revisión por un verificador de hechos independiente.
Luchar contra la supresión e intimidación del voto
Los intentos de interferencia o supresión del voto socavan nuestros valores esenciales como empresa y trabajamos proactivamente para eliminar este tipo de contenido perjudicial. De cara a las elecciones de mitad de período de 2018, ampliamos nuestras políticas sobre supresión e intimidación del voto para prohibir:
- Tergiversación de las fechas, lugares, horas y métodos de votación o de inscripción del votante (por ejemplo, "¡Vote mediante texto!");
- Tergiversaciones respecto a quiénes pueden votar, los requisitos para poder votar, si un voto se contará o no, y qué información y/o materiales deben proporcionarse para poder votar (por ejemplo, "Si votó en las primarias, su voto en la elección general no se contará".); y
- Amenazas de violencia en relación con la votación, la inscripción del votante o el resultado de una elección
Eliminamos este tipo de contenido sin importar de quién procede, y de cara a las elecciones de mitad de período, nuestro Centro de Operaciones para Elecciones eliminó más de 45,000 contenidos específicos que violaron estas políticas — más del 90% de los cuales fueron detectados por nuestros sistemas antes de que alguien denunciara el contenido ante nosotros.
También reconocemos que hay cierto tipo de contenido, como la incitación al odio, que es igualmente probable que conduzca a la supresión del voto. Por eso es que nuestras políticas sobre incitación al odio prohíben los esfuerzos por excluir a personas de la participación en el proceso político sobre la base de aspectos como raza, etnicidad o religión (por ejemplo, decir a las personas que no voten por un candidato debido a la raza del candidato, o indicar que a personas determinada religión no se les debe permitir ocupar cargos públicos).
Con antelación a las elecciones del 2020 en Estados Unidos, estamos implementando políticas adicionales y ampliando nuestras capacidades técnicas en Facebook y en Instagram para proteger la integridad de la elección. Dando seguimiento a un compromiso que hicimos en el informe de auditoría de derechos civiles dado a conocer en junio, ahora hemos implementado nuestra política que prohíbe publicidad pagada que sugiere que votar es irrelevante o que no tiene sentido, o que aconseja a las personas a no votar.
Además, nuestros sistemas ahora son más eficaces en la detección y eliminación proactiva de este contenido perjudicial. Hacemos uso de aprendizaje automático que nos ayuda a identificar y eliminar rápidamente información incorrecta sobre la votación.
También continuamos ampliando y desarrollando nuestras asociaciones para proporcionar conocimientos sobre las tendencias en supresión e intimidación del voto, así como en la detección temprana de contenido violador. Esto incluye trabajar directamente con los secretarios de los estados y con los directores de elecciones para abordar cualquier supresión del voto localizada que pudiera estar ocurriendo solo en un estado o distrito individual. Este trabajo contará con el apoyo de nuestro Centro de Operaciones de Elecciones durante las elecciones primarias y general.
Ayudar a las personas a entender mejor la información que ven en línea
Parte de nuestro trabajo encaminado a detener la diseminación de desinformación es ayudar a las personas a detectarla por sí mismas. Por eso es que nos asociamos con organizaciones y expertos en alfabetización mediática.
Hoy, estamos anunciando una inversión inicial de $2 millones en apoyo a proyectos que empoderan a las personas para que determinen qué leer y compartir — en Facebook y en cualquier otro lugar.
Estos proyectos van desde programas de capacitación para ayudar a garantizar que las cuentas más grandes en Instagram tengan los recursos que necesitan para reducir la diseminación de desinformación y la expansión de un programa piloto que reúne a ciudadanos de la tercera edad y a estudiantes de escuela secundaria para aprender acerca de la seguridad en línea y la alfabetización mediática hasta eventos públicos en espacios locales como librerías, centros comunitarios y bibliotecas en ciudades de todo el país. También estamos apoyando una serie de eventos de capacitación enfocados hacia el pensamiento crítico entre los votantes por primera vez.
Además, estamos incluyendo una nueva serie de clases de alfabetización mediática en nuestra Biblioteca de alfabetización digital. Estas clases se tomaron del equipo de Juventud y Medios del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard, que las ha puesto a disposición del mundo de forma gratuita bajo una licencia de Creative Commons. Las clases, creadas para educadores de escuela secundaria y preparatoria, están diseñadas para ser interactivas y cubren tópicos que van desde la evaluación de la calidad de la información en línea hasta habilidades más técnicas como la búsqueda inversa de imágenes.
Continuaremos desarrollando nuestros esfuerzos de alfabetización mediática en Estados Unidos y pronto tendremos más para compartir.
FUENTE Facebook
No hay comentarios:
Publicar un comentario