Cárteles de droga y trata de personas: así ignora Facebook las denuncias de sus empleados
  1. Mercados
  2. The Wall Street Journal
'Facebook files': cuarta parte

Cárteles de droga y trata de personas: así ignora Facebook las denuncias de sus empleados

Los empleados de Facebook hicieron sonar las alarmas por el uso que se le da a la página en los países en desarrollo, donde su base de usuarios es ya inmensa y está creciendo

Foto: Foto: EC Diseño.
Foto: EC Diseño.

Los empleados de Facebook hicieron sonar las alarmas por el uso que se le da a la página en los países en desarrollo, donde su base de usuarios es ya inmensa y está creciendo.

En enero, un exagente de policía convertido en investigador de Facebook publicó un comunicado para todo el personal en el panel de mensajes interno de la compañía. Empezaba diciendo: “¡Feliz 2021 a todos!”, y después procedía a detallar una nueva serie de lo que llamaba “aprendizajes”. El principal: un cártel de la droga estaba utilizando Facebook para reclutar, entrenar y pagar a sicarios.

El comportamiento era impactante y violaba claramente las reglas de Facebook. Pero la empresa no evitó que el cártel publicara en Facebook o Instagram, sitio de publicación de fotos de la compañía.

Foto: Foto: EC Diseño.

Numerosos documentos internos de Facebook revisados por ‘The Wall Street Journal’ muestran a trabajadores que hacían sonar las alarmas por el uso que se hace de sus plataformas en algunos países en desarrollo, donde su base de usuarios ya es inmensa y sigue expandiéndose. También muestran la respuesta de la compañía, que en muchas ocasiones es insuficiente o directamente nula.

Los empleados han comunicado que traficantes de personas en Oriente Medio utilizaban la red social para atraer mujeres a situaciones laborales abusivas en las que eran tratadas como esclavas o forzadas a realizar trabajos sexuales. Han advertido de que grupos armados en Etiopía utilizaban la plataforma para incitar a la violencia contra las minorías étnicas. Han enviado alertas a sus jefes sobre tráfico de órganos, pornografía y acciones gubernamentales contra la oposición política, según los documentos. Facebook elimina algunas páginas, aunque muchas más operan abiertamente, según los documentos.

En algunos países en los que Facebook está presente, tiene pocos o ningún empleado que hable los dialectos necesarios para identificar usos peligrosos o delictivos de la plataforma, según los documentos.

Han enviado alertas a sus jefes sobre tráfico de órganos, pornografía y acciones gubernamentales contra la oposición

Cuando los problemas se han hecho públicos, Facebook ha declarado que los aborda eliminando publicaciones delictivas. Pero no ha arreglado los sistemas que permiten a los infractores repetir la mala conducta. En su lugar, da prioridad a conservar usuarios, ayudando a socios comerciales y, en ocasiones, apaciguando a regímenes autoritarios, cuyo apoyo a veces es necesario para que Facebook opere dentro de sus fronteras, según los documentos.

Facebook trata los daños en países en desarrollo como “simplemente el coste de hacer negocios” en dichos lugares, declara Brian Boland, exvicepresidente de Facebook que supervisaba las alianzas con proveedores de internet en África y Asia antes de dimitir a finales del año pasado. Facebook ha centrado sus esfuerzos de seguridad en mercados más ricos con gobiernos e instituciones mediáticas poderosos, dice, aunque haya acudido a países más pobres para el aumento de usuarios. “En muy pocas ocasiones hay un esfuerzo considerable y coordinado para invertir en arreglar dichas áreas”, afirma.

El mundo en desarrollo ya tiene cientos de millones de usuarios de Facebook más que EEUU —más del 90% de los usuarios mensuales se encuentran ahora fuera de EEUU y Canadá—. Con el crecimiento en gran medida estancado ahí y en Europa, casi todos los nuevos usuarios de Facebook proceden de países en desarrollo, donde Facebook es el principal canal de comunicación y fuente de noticias ‘online’. Facebook está expandiéndose rápidamente a dichos países, planificando tecnología como la de internet vía satélite y un wifi ampliado para atraer a los usuarios ‘online’, incluidas áreas pobres de Indonesia que un documento describe como “tugurios”.

Los documentos revisados por el ‘WSJ’ son informes de empleados que están estudiando el uso de Facebook en todo el mundo, incluida la explotación humana y otros abusos en la plataforma. Escriben sobre la vergüenza y frustración que sienten, citando decisiones que permiten a los usuarios publicar vídeos de asesinatos, incitaciones a la violencia, amenazas de gobiernos contra militantes prodemocracia y anuncios de trata de personas.

Foto: EC Diseño.

El material es parte de una amplia comunicación empresarial revisada por el ‘WSJ’ que ofrece un retrato sin precedentes de las deficiencias de la compañía en áreas que incluyen reglas que favorecen a una élite selecta, la salud mental adolescente y esfuerzos por gestionar su algoritmo.

Algunos de los problemas más serios señalados en los documentos se encuentran en el extranjero. Los activistas llevan años quejándose de que Facebook hace muy poco para proteger a los usuarios en el extranjero de problemas que sabe que existen en su plataforma. Los documentos muestran que muchos dentro de Facebook están de acuerdo.

“En países en riesgo de conflicto y violencia, tenemos una estrategia integral, que incluye el apoyo en equipos globales con hablantes nativos que cubren más de 50 idiomas, recursos educativos y colaboraciones con expertos locales y verificadores de datos externos para preservar la seguridad de las personas”, declaró el portavoz de Facebook Andy Stone esta semana.

‘No es suficiente’

El empleado que identificó el cártel de la droga mexicano es un exagente de policía y experto en delitos cibernéticos contratado en 2018 como parte de un nuevo equipo de investigación centrado en gran medida en ‘países en peligro’, donde el Estado de derecho es frágil y la violencia es habitual.

Ese año, el discurso de odio proliferó en Myanmar a través de las plataformas de Facebook, y la empresa ha reconocido que no hizo lo suficiente para frenar la incitación a la violencia contra la minoría rohinyá, que EEUU declaró que fueron víctimas de una limpieza étnica. Directivos describieron la violencia en Myanmar como una llamada de atención a las responsabilidades de la compañía en el mundo en desarrollo. El director ejecutivo Mark Zuckerberg escribió una carta disculpándose con los activistas tras haber minimizado inicialmente el papel de Facebook en la violencia y prometiendo hacer más.

Un informe interno de Facebook de marzo declara que había actores, incluidos algunos estados, que con frecuencia promovían la violencia, exacerbaban las divisiones étnicas y deslegitimaban las instituciones sociales en la plataforma. “Esto es especialmente prevalente —y problemático— en países en peligro”, dice el informe. Sigue con una cabecera en negrita: “Las estrategias de prevención actuales no son suficientes”.

placeholder Campo de refugiados rohinyás. (Reuters)
Campo de refugiados rohinyás. (Reuters)

El exagente de policía y su equipo desmantelaron la red ‘online’ del Cártel Jalisco Nueva Generación examinando publicaciones en Facebook e Instagram, así como mensajes privados en dichas plataformas, según los documentos. (Los mensajes de WhatsApp, otro producto de Facebook, están cifrados de manera predeterminada).

El equipo identificó a individuos clave, rastreó pagos que hicieron a sicarios y descubrió cómo estaban reclutando a adolescentes pobres para que atendieran a campos de entrenamiento de asesinos a sueldo. Los mensajes de Facebook muestran que los reclutadores advertían a las posibles incorporaciones jóvenes “de que serían gravemente golpeados o asesinados por el cártel si intentaban abandonar el campo de entrenamiento”, escribió el exagente.

El cártel, que los agentes del orden dicen es la mayor amenaza de narcotráfico para EEUU, no escondía su actividad. Tenía varias páginas de Facebook con fotos de pistolas bañadas en oro y escenas del crimen sangrientas, según los documentos.

Las páginas de Facebook se publicaban bajo el nombre ‘CJNG’, ampliamente conocido como la abreviatura de Cártel Jalisco Nueva Generación, aunque la compañía lo había identificado internamente como uno de los ‘Individuos y organizaciones peligrosas’ cuyas páginas deberían haber sido eliminadas de la plataforma automáticamente bajo la política de Facebook.

Las páginas de Facebook se publicaban bajo el nombre ‘CJNG’, ampliamente conocido como la abreviatura de Cártel Jalisco Nueva Generación

El exagente de policía sugirió a la compañía que mejorara su seguimiento para asegurar que la inhabilitación de grupos designados se aplicaba y buscara entender mejor la actividad del cártel. Facebook no eliminó el cártel de sus páginas por completo. Los documentos indican que borró contenido relacionado con el cártel y desestabilizó su red.

El equipo de investigación pidió a otra unidad de Facebook encargada de coordinar diferentes divisiones que buscase formas de asegurarse que se podía imponer una prohibición al cártel. Eso tampoco se hizo de forma eficaz, según los documentos, porque el equipo al que se le asignó el trabajo no realizó el seguimiento.

El 13 de enero, nueve días después de que el informe fuera distribuido de forma interna, apareció la primera publicación en una nueva cuenta de Instagram del CJNG: un vídeo de una persona con una pistola bañada en oro disparando a un joven en la cabeza mientras le brotaba sangre del cuello. La siguiente publicación fue una foto de un hombre golpeado atado a una silla; la siguiente una bolsa de basura llena de manos amputadas.

La página, junto con otras páginas de Instagram y Facebook que publicitaban el cártel, permaneció activa durante al menos cinco meses antes de ser eliminada. Desde entonces, han aparecido nuevas páginas bajo el nombre de CJNG que incluyen armas y decapitaciones.

Foto: Foto: EC Diseño.
'Facebook files': así permite la red social que los usuarios vip acosen y difundan bulos
The Wall Street Journal Jeff Horwitz Deepa Seetharaman Georgia Wells

El exagente no ha querido hacer comentarios sobre dichos hallazgos, y Facebook no le ha permitido dar una entrevista. Facebook declaró esta semana que sus empleados saben que pueden mejorar sus esfuerzos anticártel, y que la compañía está invirtiendo en inteligencia artificial para reforzar su aplicación frente dichos grupos. Facebook destina menos recursos a frenar los peligros en el extranjero que en EEUU, según los documentos.

En 2020, los empleados y contratistas de Facebook pasaron más de 3,2 millones de horas buscando y etiquetando o, en algunos casos, eliminando información que la compañía determinó que era falsa o engañosa, según los documentos. Solo el 13% de dichas horas se dedicó a trabajar en contenido de fuera de EEUU. La empresa dedicó casi tres veces más horas a trabajar en la “seguridad de marca” fuera de EEUU, por ejemplo, asegurándose de que los anuncios no aparecieran junto a contenido que los anunciantes pudiesen encontrar ofensivo.

El equipo de investigación dedicó más de un año a documentar un ajetreado mercado de tráfico de personas en Oriente Medio que estaba teniendo lugar en sus servicios. En Facebook e Instagram, empresas de trabajo sin escrúpulos anunciaban a trabajadores que podían ofrecer bajo condiciones coactivas, utilizando sus fotos y describiendo sus habilidades e información personal.

La práctica de hacer que la gente firme contratos de empleo doméstico coercitivos y luego vender los contratos es objeto de amplio abuso y ha sido definida como tráfico de personas por el Departamento de Estado de EEUU.

Foto: Foto: EFE

La empresa eliminó algunas páginas ilícitas, pero solo tomó medidas limitadas para intentar detener la actividad hasta que Apple amenazó con retirar los productos de Facebook de la App Store al menos que aplicara mano dura con la práctica. La amenaza fue la respuesta a un reportaje de la BBC sobre criadas a la venta.

En una síntesis interna sobre el episodio, un investigador de Facebook escribió: “¿Facebook conocía este problema antes de la indagación de la BBC y el recrudecimiento de Apple?”. El siguiente párrafo empieza con un “sí”.

Un documento de principios de año sugiere que la empresa debería utilizar un planteamiento flexible con las advertencias en árabe sobre el tráfico de personas para no “alienar a los compradores” —refiriéndose a usuarios de Facebook que compran los contratos de los trabajadores domésticos, a menudo en situaciones similares a la esclavitud—.

El portavoz de Facebook dice que la empresa no sigue esa directriz. “Prohibimos la explotación humana sin ambigüedades”, declara Stone. “Llevamos combatiendo el tráfico de personas en nuestra plataforma desde 2015 y nuestro objetivo sigue siendo evitar que cualquiera que busque explotar a otros tenga asilo en nuestra plataforma”.

Añade: “Hemos dedicado un equipo que interactúa con fuerzas del orden de todo el mundo. En casos de daño inminente, también podemos proporcionar información relevante a los agentes del orden de conformidad con la ley aplicable y nuestros términos de servicio”.

Brecha lingüística

En Etiopía, los grupos armados han utilizado Facebook para incitar a la violencia. Las comunicaciones internas de la compañía muestran que no tiene suficientes empleados que hablen algunas de las lenguas relevantes para ayudar a monitorizar la situación. Para algunos idiomas, Facebook también ha fracasado a la hora de desarrollar sistemas automatizados, llamados clasificadores, que podrían eliminar las infracciones más graves. Los sistemas de inteligencia artificial que conforman la columna vertebral de la ejecución de Facebook no cubren la mayoría de idiomas utilizados en la página.

Facebook tampoco publica las ‘normas comunitarias’ que los usuarios deben cumplir en todas las lenguas a las que sirve en Etiopía, así que puede que algunos usuarios no conozcan las reglas que deben seguir. Facebook declaró esta semana que la normativa está disponible en algunas lenguas etíopes y que ha empezado a traducirla a otras.

En un documento de planificación de diciembre, un equipo de Facebook escribió que el riesgo de consecuencias nefastas en Etiopía era grave, y que “la mayoría de nuestro gran trabajo de integridad durante los últimos dos años no funciona en muchas partes del mundo”. Decía que, en algunos sitios de alto riesgo como Etiopía, “nuestros clasificadores no funcionan, y permanecemos en gran medida ciegos ante los problemas en nuestra plataforma”.

"Nuestros clasificadores no funcionan, y permanecemos en gran medida ciegos ante los problemas en nuestra plataforma"

Grupos vinculados con el Gobierno etíope y los medios estatales publicaban comentarios incitantes sobre la minoría tigray en Facebook, llamándolos “hienas” y “un cáncer”. Las publicaciones acusando al pueblo tigray de crímenes como el blanqueo de dinero estaban volviéndose virales, y algunos en la plataforma dijeron que los tigray debían ser exterminados. La violencia escaló hacia finales del año pasado, cuando el Gobierno lanzó un ataque sobre la capital de la Región Tigray, Mekelle.

El secretario de Estado, Antony Blinken, declaró en marzo que el pueblo tigray era víctima de una limpieza étnica. El Gobierno de Etiopía sigue cometiendo actos de violencia contra los tigray, según publicó el ‘WSJ’ el mes pasado.

Esta semana, Facebook declaró que ha aumentado su capacidad de análisis en varias lenguas etíopes y mejorado sus sistemas automatizados para detener el contenido dañino. También ha dicho que tiene un equipo dedicado a reducir riesgos en Etiopía que incluye a gente local.

Millones de usuarios de Facebook hablan árabe en lo que la compañía denomina una región muy delicada. La mayoría de revisores de contenido de Facebook que trabajan en el idioma hablan el árabe de Marruecos, y a menudo no son capaces de detectar contenido ofensivo o violento en otros dialectos o cometen errores a la hora de restringir publicaciones inofensivas, según un documento de diciembre. Los algoritmos de aplicación de Facebook tampoco eran capaces de gestionar distintos dialectos.

Foto: Redes sociales en un 'smartphone'. (iStock)

“Sin duda es de capital importancia destinar más recursos a la tarea de mejorar los sistemas árabes”, escribió un empleado en el documento.

Cuando estalló la violencia entre israelíes y palestinos meses después, la empresa bloqueó por error fuentes de noticias y activistas regionales en árabe, y empezó a eliminar publicaciones que incluían el nombre Al-Aqsa, una importante mezquita en Jerusalén que era un foco del conflicto. Al-Aqsa también se utiliza en el nombre de la Brigada de los Mártires de Al-Aqsa, el nombre que EEUU ha otorgado a una organización terrorista.

“Quiero disculparme por la frustración que hayan generado estos errores”, escribió un mánager en una publicación interna. El problema fue publicado previamente por BuzzFeed. Facebook se disculpó públicamente y esta semana declaró que ahora tiene un equipo destinado a evitar errores similares.

Imágenes violentas

India tiene más de 300 millones de usuarios en Facebook, el país que más tiene. Los investigadores de la empresa crearon en 2019 una cuenta de prueba como usuaria india femenina y dijeron que se encontraron con una “pesadilla” simplemente siguiendo páginas y grupos recomendados por los algoritmos de Facebook.

“La página de noticias del usuario de prueba se ha convertido en casi un bombardeo constante de contenido nacionalista divisorio, desinformación y violencia y ‘gore”, escribieron. El servicio de vídeo Facebook Watch “parece recomendar un montón de porno erótico”.

Después de que un atentado suicida matara a decenas de oficiales paramilitares, que India achacó a su rival Pakistán, la cuenta mostró dibujos que representaban decapitaciones y fotos que pretendían enseñar el torso de un musulmán separado del cuerpo. “He visto más imágenes de personas muertas en las últimas tres semanas que en toda mi vida”, escribió uno de los investigadores.

Foto: Foto: EC.
Dentro del algoritmo de TikTok: vídeos de droga y sexo para menores
The Wall Street Journal Rob Barry Georgia Wells John West Joanna Stern

En una declaración de intenciones de 2017, Zuckerberg dijo que “dar voz a las personas es un principio con el que nuestra comunidad ha estado comprometida desde el principio” y que la compañía “trabajaría en construir nuevas herramientas que fomentasen una participación cívica considerada”.

En 2018, la directora de Operaciones de Facebook, Sheryl Sandberg, le comunicó a una comisión del Senado que la empresa apoya los principios democráticos en todo el mundo. Cuando se le preguntó por las operaciones de Facebook en Vietnam, dijo: “Solo operaremos en un país cuando podamos hacerlo conforme a nuestros valores”.

Facebook restringió la capacidad de los usuarios en Vietnam de ver las publicaciones de Bui Van Thuan, destacado crítico del Gobierno autoritario de Vietnam, durante nueve meses a partir del comienzo de 2020. Thuan dice que Facebook actuó después de que un grupo organizado por el Gobierno enviara a la empresa miles de quejas acerca de sus publicaciones.

Los documentos de Facebook indican que el personal de la empresa accedió a que el Gobierno organizara esfuerzos contra Thuan y utilizara su caso y una imagen de él y su perfil de Facebook como ejemplo de lo que llamaban acoso sistemático.

Facebook registró 153.000 denuncias de dicha incidencia durante tres meses a través de 36 grupos privados

Facebook registró 153.000 denuncias de dicha incidencia durante tres meses a través de 36 grupos privados, seguramente “contratados y dirigidos por entidades gubernamentales/militares”. Dijeron que los esfuerzos funcionaron, con un “buen porcentaje de éxito al suprimir la presencia atacada en FB”.

El año pasado, Facebook declaró que accedió a limitar el acceso a contenido político disidente considerado ilegal a cambio de que el Gobierno vietnamita suspendiera su práctica de ralentizar los servidores locales de Facebook para presionar a la empresa. Un exempleado de Facebook que trabajaba en Asia dice que Facebook es consciente de que el Gobierno vietnamita está utilizando la plataforma para silenciar a los opositores, pero que tolera el abuso porque Vietnam es un mercado publicitario de rápido crecimiento.

“Nuestro objetivo es mantener nuestros servicios en funcionamiento en Vietnam para poder ofrecer un espacio al mayor número de personas para que se puedan expresar, conectar con amigos y gestionar sus negocios”, declaró el portavoz de Facebook, Stone. “Como compartimos el año pasado, restringimos cierto contenido en Vietnam para asegurar que nuestros servicios sigan disponibles para millones de personas que cuentan con ellos todos los días”.

Foto: Facebook permitirá limitar tus contenidos en un solo click (Twitter/Nathaniel Gleicher)

Las restricciones en la cuenta de Thuan fueron levantadas el año pasado, pero dice que sigue enfrentándose a un acoso crónico en Facebook. Facebook declaró esta semana que su perfil fue limitado por error y que el fallo ha sido corregido.

El equipo de Facebook de investigadores de explotación humana, que además del exagente de policía incluía a un experto financiero polaco que había investigado las finanzas del tráfico en el banco HSBC y a un experto en refugiados marroquí que había trabajado previamente en el Alto Comisionado de Naciones Unidas para los Refugiados, reunió pruebas de tráfico de personas.

Al examinar los productos de Facebook, encontraron redes criminales que captaban personas de países pobres, coordinaban sus viajes y les metían en la servidumbre doméstica o en trabajos sexuales forzados en Emiratos Árabes Unidos y otros países del golfo Pérsico. Los productos de Facebook facilitaban todos los pasos, y los investigadores siguieron comunicaciones a través de las plataformas para identificar a los responsables y las víctimas.

En 2018, Facebook no tenía un protocolo para lidiar con publicaciones de captación para la servidumbre doméstica. En marzo de 2019, los empleados descubrieron perfiles de Instagram que se dedicaban a traficar con empleados domésticos en Arabia Saudí. Una comunicación interna dice que les permitieron permanecer en la plataforma porque las políticas de la empresa “no reconocían la infracción”.

El equipo de investigación identificó varios grupos de trata en activo, incluido uno con al menos 20 víctimas

El equipo de investigación identificó varios grupos de trata en activo, incluido uno con al menos 20 víctimas, y organizadores que gastaron al menos 152.000 dólares en anuncios en Facebook para prostíbulos.

El exagente de policía sugirió que Facebook inhabilitara los números de WhatsApp asociados con las bandas, estableciera nuevas políticas sobre anuncios comprados de forma anónima y mejorara su inteligencia artificial para arrancar de raíz publicaciones vinculadas al tráfico de personas, según los documentos. Añadió que Facebook debía desarrollar una red para prevenir la trata compartiendo sus descubrimientos con otras empresas tecnológicas.

En otro informe, el experto en trata de personas polaco escribió que, 18 meses después de que identificara el problema por primera vez, Facebook no había implementado sistemas para encontrar y eliminar las publicaciones de tráfico de personas.

La BBC y Apple expresaron su preocupación en 2019. Cuando la amenaza planteó “consecuencias posiblemente graves para el negocio”, escribió el experto en trata, Facebook empezó a actuar más rápido. Una búsqueda proactiva utilizando la información previa del equipo de investigación descubrió más de 300.000 casos de posibles infracciones y desactivó más de 1.000 cuentas.

Foto: La anciana ha sido recientemente acusada de delito de odio por parte de una compañía tecnológica que ha preferido mantenerse en el anonimato (Fuente: Unsplash)

El equipo siguió descubriendo publicaciones de tráfico de personas, y Facebook tuvo problemas para implementar políticas eficientes. Un documento indica que Facebook retrasó un proyecto destinado a mejorar el entendimiento de la trata de personas. Otra comunicación dice: “Sabemos que no queremos aceptar/beneficiarnos de la explotación humana. ¿Cómo queremos calcular esas cifras y qué queremos hacer con ese dinero?”.

A finales de 2020, después de tres meses en los que Facebook investigó a decenas de redes sospechosas de tráfico de personas, se desactivó un sistema para detectarlo. Los investigadores dijeron que eso perjudicó sus esfuerzos, según los documentos.

“Descubrimos contenido que violaba nuestra política de servidumbre doméstica que debería haber sido eliminado automáticamente” por una herramienta de ‘software’ llamada canal de Civic Integrity Detection, escribió una empleada en un documento titulado ‘Servidumbre doméstica: esto no debería pasar en FB y cómo podemos solucionarla”. Sugirió a la empresa que reactivara su canal. Facebook declaró esta semana que hay sistemas de revisión similares en funcionamiento.

El equipo de investigación también tuvo problemas para contener el tráfico sexual. En 2019, descubrieron una red de prostitución que operaba en prostíbulos en EEUU. Facebook entregó la información a la policía, que efectuó detenciones.

Foto: EC Diseño.

Facebook descubrió una red mucho mayor que utilizaba su plataforma para captar mujeres de Tailandia y otros países. Las mantenían cautivas, les negaban el acceso a alimentos y las forzaban a realizar actos sexuales en prostíbulos de Dubái, según un informe de una investigación interna.

Facebook eliminó las publicaciones, pero no alertó a las fuerzas del orden locales. La investigación descubrió que los traficantes sobornaban a la policía local para que mirara a otro lado, según el informe. Facebook declaró esta semana que ha lanzado nuevos programas este año que dificultan que los usuarios encuentren contenido relacionado con el tráfico sexual.

Durante el año pasado, Facebook contrató a un consultor externo para que le asesorara sobre los riesgos del continuo tráfico de personas en sus páginas. El consultor sugirió que, si los ingresos procedían de anuncios de tráfico de personas, Facebook debería desarrollar una política, como entregarlo, para evitar añadirlo a los fondos de Facebook, según los documentos.

La historia de Kimani

En enero, Patricia Wanja Kimani, profesora y escritora ‘freelance’ de 28 años de Nairobi, vio una publicación de empleo que prometía pasajes y visados gratuitos —aunque Facebook ha prohibido anuncios de empleo que ofrezcan pasajes y gastos de visado gratuitos, según los documentos—.

“La mayoría de las publicaciones decían: se buscan mujeres de la limpieza en Arabia Saudí”, dice en una entrevista. Dice que le prometieron 300 dólares al mes por trabajar en un servicio de limpieza en Riad.

En el aeropuerto de Nairobi, el reclutador le dio un contrato para firmar. Dice que recibiría un 10% menos que el salario que le prometieron, y que solo el empleador podía poner fin al contrato. Si Kimani quería dimitir, perdería su visado y se quedaría en Arabia Saudí de forma ilegal. Kimani le dijo al empleador que se retractaba.

Foto: Facebook, multada con 4.576 millones en EEUU por el caso Cambridge Analytica

El reclutador le dijo que, dado que el contrato de Kimani ya se había vendido a un empleador, la agencia tendría que compensarle si se echaba atrás. Kimani tendría que pagar a la agencia para compensarlo, dice que le comunicó el reclutador. No tenía dinero, así que voló a Riad. La agencia se quedó con su pasaporte.

Trabajaba en una casa en la que una mujer la llamaba perra. Dormía en una despensa sin aire acondicionado. El patio cerrado y los altos muros de la casa volvían imposible escaparse. Trabajaba desde las cinco de la mañana hasta el anochecer limpiando mientras estaba “completamente distanciada del resto del mundo”, declara.

Kimani dice que se puso enferma y no le proporcionaron un tratamiento, y que no le pagaban. Después de dos meses, le dijo a la agencia que quería volver a Kenia. Dijeron que podía pagarles 2.000 dólares para salirse del contrato. Kimani no tenía el dinero, y publicó sobre su difícil situación en Facebook. Mencionó a la agencia de empleo, que la despidió y dejó a Kimani en el centro de deportación.

Dice que había otras mujeres keniatas allí y que una tenía marcas de cadenas en sus muñecas y tobillos. Finalmente, sus publicaciones de Facebook fueron reenviadas a un funcionario de la Organización Internacional para las Migraciones, organismo de Naciones Unidas, que ayudó a negociar su liberación y regreso a Kenia en julio.

Kimani dice que Facebook la ayudó a meterse y salir del lío. Dice que ha advertido a otras personas sobre los riesgos de ser sujeto del tráfico, y que le gustaría ver a Facebook hacer más esfuerzos. “Creo que se debería hacer algo al respecto para que nadie quiera entrar a ciegas”, dice.

*Contenido con licencia de ‘The Wall Street Journal’.

Los empleados de Facebook hicieron sonar las alarmas por el uso que se le da a la página en los países en desarrollo, donde su base de usuarios es ya inmensa y está creciendo.

Wall Street Journal Trata de seres humanos Narcotráfico Facebook
El redactor recomienda