paint-brush
Facebook, WhatsApp y su privacidad: lo que necesita saberpor@propublica
2,140 lecturas
2,140 lecturas

Facebook, WhatsApp y su privacidad: lo que necesita saber

por Pro Publica24m2022/09/28
Read on Terminal Reader
Read this story w/o Javascript

Demasiado Largo; Para Leer

Una versión anterior de esta historia causó una confusión no deseada sobre la medida en que WhatsApp examina los mensajes de sus usuarios y si rompe el cifrado que mantiene los intercambios en secreto. Modificamos el lenguaje en la historia para dejar en claro que la compañía examina solo los mensajes de los hilos que los usuarios han informado como posiblemente abusivos. No rompe el cifrado de extremo a extremo, que solo se desbloquea cuando llegan a sus destinos previstos. WhatsApp tiene más de 1000 trabajadores subcontratados llenando pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Facebook, WhatsApp y su privacidad: lo que necesita saber
Pro Publica HackerNoon profile picture

Esta historia fue publicada originalmente en ProPublica por Peter Elkind , Jack Gillum y Craig Silverman ; Alex Mierjeski y Doris Burke contribuyeron con este reportaje.


Aclaración, 8 de septiembre de 2021: una versión anterior de esta historia causó una confusión no deseada sobre la medida en que WhatsApp examina los mensajes de sus usuarios y si rompe el cifrado que mantiene los intercambios en secreto.


Modificamos el lenguaje en la historia para dejar en claro que la compañía examina solo los mensajes de los hilos que los usuarios han informado como posiblemente abusivos. No rompe el cifrado de extremo a extremo.


Cuando Mark Zuckerberg dio a conocer una nueva "visión centrada en la privacidad" para Facebook en marzo de 2019, citó como modelo el servicio de mensajería global de la empresa, WhatsApp.


Reconociendo que "actualmente no tenemos una sólida reputación en la creación de servicios de protección de la privacidad", el director ejecutivo de Facebook escribió que "creo que el futuro de la comunicación cambiará cada vez más hacia servicios privados y encriptados donde las personas puedan confiar en lo que se dicen entre sí". se mantiene seguro y sus mensajes y contenido no permanecerán para siempre. Este es el futuro que espero que ayudemos a lograr. Planeamos construir esto de la forma en que hemos desarrollado WhatsApp”.


La visión de Zuckerberg se centró en la función de firma de WhatsApp, que dijo que la compañía planeaba aplicar a Instagram y Facebook Messenger : cifrado de extremo a extremo, que convierte todos los mensajes en un formato ilegible que solo se desbloquea cuando llegan a sus destinos previstos.


Los mensajes de WhatsApp son tan seguros, dijo, que nadie más, ni siquiera la empresa, puede leer una palabra. Como dijo Zuckerberg anteriormente, en su testimonio ante el Senado de los EE. UU. en 2018, "No vemos nada del contenido en WhatsApp".


WhatsApp enfatiza este punto de manera tan consistente que una bandera con una garantía similar aparece automáticamente en la pantalla antes de que los usuarios envíen mensajes: "Nadie fuera de este chat, ni siquiera WhatsApp, puede leerlos o escucharlos".


Dadas esas amplias garantías, es posible que se sorprenda al saber que WhatsApp tiene más de 1,000 trabajadores contratados que ocupan pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur.


Sentados frente a computadoras en módulos organizados por asignaciones de trabajo, estos trabajadores por horas usan un software especial de Facebook para filtrar millones de mensajes privados, imágenes y videos.


Emiten un juicio sobre lo que aparece en su pantalla (reclamaciones de todo, desde fraude o spam hasta pornografía infantil y posible conspiración terrorista), generalmente en menos de un minuto.


Los trabajadores tienen acceso solo a un subconjunto de los mensajes de WhatsApp: aquellos marcados por los usuarios y reenviados automáticamente a la empresa como posiblemente abusivos.


La revisión es un elemento de una operación de monitoreo más amplia en la que la empresa también revisa material que no está encriptado, incluidos datos sobre el remitente y su cuenta.


Vigilar a los usuarios mientras les asegura que su privacidad es sagrada hace que WhatsApp sea una misión incómoda. Una presentación interna de marketing de la empresa de 49 diapositivas de diciembre, obtenida por ProPublica, enfatiza la promoción "feroz" de la "narrativa de privacidad" de WhatsApp.


Compara su "carácter de marca" con "la madre inmigrante" y muestra una foto de Malala Yousafzai, que sobrevivió a un tiroteo por parte de los talibanes y se convirtió en ganadora del Premio Nobel de la Paz, en una diapositiva titulada "Parámetros de tono de marca".


La presentación no menciona los esfuerzos de moderación de contenido de la compañía.


El director de comunicaciones de WhatsApp, Carl Woog, reconoció que los equipos de contratistas en Austin y en otros lugares revisan los mensajes de WhatsApp para identificar y eliminar a "los peores" abusadores.


Pero Woog le dijo a ProPublica que la compañía no considera que este trabajo sea una moderación de contenido y dijo: "En realidad, no solemos usar el término para WhatsApp".


La compañía se negó a que los ejecutivos estuvieran disponibles para entrevistas para este artículo, pero respondió a las preguntas con comentarios por escrito. “WhatsApp es un salvavidas para millones de personas en todo el mundo”, dijo la compañía.


“Las decisiones que tomamos sobre cómo construimos nuestra aplicación se enfocan en la privacidad de nuestros usuarios, manteniendo un alto grado de confiabilidad y evitando el abuso”.


La negación de WhatsApp de que modera el contenido es notablemente diferente de lo que dice Facebook Inc. sobre los hermanos corporativos de WhatsApp, Instagram y Facebook. La compañía ha dicho que unos 15.000 moderadores examinan el contenido de Facebook e Instagram, ninguno de los cuales está encriptado.


Publica informes de transparencia trimestrales que detallan cuántas cuentas de Facebook e Instagram han "accionado" para varias categorías de contenido abusivo. No existe tal informe para WhatsApp.


Desplegar un ejército de revisores de contenido es solo una de las formas en que Facebook Inc. ha comprometido la privacidad de los usuarios de WhatsApp.


Juntas, las acciones de la compañía han dejado a WhatsApp, la aplicación de mensajería más grande del mundo, con dos mil millones de usuarios, mucho menos privada de lo que sus usuarios probablemente entienden o esperan.


Una investigación de ProPublica, basada en datos, documentos y docenas de entrevistas con empleados y contratistas actuales y anteriores, revela cómo, desde que compró WhatsApp en 2014, Facebook ha socavado silenciosamente sus amplias garantías de seguridad de múltiples maneras. ( Dos artículos de este verano señalaron la existencia de los moderadores de WhatsApp, pero se centraron en sus condiciones de trabajo y pago en lugar de su efecto en la privacidad de los usuarios. Este artículo es el primero en revelar los detalles y el alcance de la capacidad de la empresa para examinar los mensajes y los datos de los usuarios: y examinar qué hace la empresa con esa información).


Muchas de las afirmaciones de los moderadores de contenido que trabajan para WhatsApp se repiten en una denuncia confidencial presentada el año pasado ante la Comisión de Bolsa y Valores de EE. UU.


La denuncia, que obtuvo ProPublica, detalla el uso extensivo de WhatsApp de contratistas externos, sistemas de inteligencia artificial e información de cuentas para examinar los mensajes, imágenes y videos de los usuarios. Alega que las afirmaciones de la empresa de proteger la privacidad de los usuarios son falsas.


“No hemos visto esta queja”, dijo el portavoz de la compañía. La SEC no ha tomado ninguna medida pública al respecto; un portavoz de la agencia se negó a comentar.


Facebook Inc. también ha minimizado la cantidad de datos que recopila de los usuarios de WhatsApp, qué hace con ellos y cuánto comparte con las autoridades policiales.


Por ejemplo, WhatsApp comparte metadatos, registros no cifrados que pueden revelar mucho sobre la actividad de un usuario, con organismos encargados de hacer cumplir la ley, como el Departamento de Justicia.


Algunos rivales, como Signal, recopilan intencionalmente muchos menos metadatos para evitar incursiones en la privacidad de sus usuarios y, por lo tanto, comparten muchos menos con las fuerzas del orden. ("WhatsApp responde a solicitudes legales válidas", dijo el portavoz de la compañía, "incluidas las órdenes que requieren que proporcionemos en tiempo real a quién está enviando mensajes una persona específica").


ProPublica descubrió que los datos de los usuarios de WhatsApp ayudaron a los fiscales a construir un caso de alto perfil contra un empleado del Departamento del Tesoro que filtró documentos confidenciales a BuzzFeed News que expusieron cómo el dinero sucio fluye a través de los bancos estadounidenses.


Al igual que otras redes sociales y plataformas de comunicación, WhatsApp se encuentra atrapada entre los usuarios que esperan privacidad y las autoridades encargadas de hacer cumplir la ley que efectivamente exigen lo contrario: que WhatsApp entregue información que ayudará a combatir el crimen y el abuso en línea.


WhatsApp ha respondido a este dilema afirmando que no es un dilema en absoluto.


“Creo que podemos tener seguridad y protección para las personas a través del cifrado de extremo a extremo y trabajar con las fuerzas del orden público para resolver delitos”, dijo Will Cathcart, cuyo título es Jefe de WhatsApp, en una entrevista de YouTube con un grupo de expertos australiano en Julio.


La tensión entre la privacidad y la difusión de información a las fuerzas del orden se ve exacerbada por una segunda presión: la necesidad de Facebook de ganar dinero con WhatsApp.


Desde que pagó $ 22 mil millones para comprar WhatsApp en 2014, Facebook ha estado tratando de descubrir cómo generar ganancias de un servicio que no cobra un centavo a sus usuarios.


Ese enigma ha llevado periódicamente a movimientos que enfurecen a los usuarios, los reguladores o ambos. El objetivo de monetizar la aplicación fue parte de la decisión de la empresa en 2016 de comenzar a compartir los datos de los usuarios de WhatsApp con Facebook, algo que la empresa les había dicho a los reguladores de la Unión Europea que era tecnológicamente imposible.


El mismo impulso impulsó un controvertido plan, abandonado a fines de 2019, para vender publicidad en WhatsApp. Y el mandato de búsqueda de ganancias estuvo detrás de otra iniciativa fallida en enero: la introducción de una nueva política de privacidad para las interacciones de los usuarios con las empresas en WhatsApp, lo que permite a las empresas usar los datos de los clientes de nuevas maneras.


Ese anuncio provocó un éxodo de usuarios a las aplicaciones de la competencia.


El plan de negocios cada vez más agresivo de WhatsApp se centra en cobrar a las empresas por una variedad de servicios, que permiten a los usuarios realizar pagos a través de WhatsApp y administrar chats de servicio al cliente, que ofrecen comodidad pero menos protecciones de privacidad.


El resultado es un confuso sistema de privacidad de dos niveles dentro de la misma aplicación donde las protecciones del cifrado de extremo a extremo se erosionan aún más cuando los usuarios de WhatsApp emplean el servicio para comunicarse con las empresas.


La presentación de marketing de diciembre de la compañía captura los imperativos divergentes de WhatsApp. Afirma que “la privacidad seguirá siendo importante”. Pero también transmite lo que parece ser una misión más urgente: la necesidad de “abrir la apertura de la marca para abarcar nuestros futuros objetivos comerciales”.

I. “Asociados moderadores de contenido”

En muchos sentidos, la experiencia de ser moderador de contenido de WhatsApp en Austin es idéntica a ser moderador de Facebook o Instagram, según entrevistas con 29 moderadores actuales y anteriores.


En su mayoría entre los 20 y los 30 años, muchos con experiencia previa como empleados de tiendas, cajeros de supermercados y baristas, los moderadores son contratados y empleados por Accenture, un gran contratista corporativo que trabaja para Facebook y otros gigantes de Fortune 500.


Las listas de trabajos anuncian puestos de "Revisión de contenido" y no mencionan Facebook o WhatsApp. Los documentos de empleo enumeran el título inicial de los trabajadores como "asociado de moderación de contenido". El pago comienza alrededor de $ 16.50 por hora.


Los moderadores tienen instrucciones de decirle a cualquier persona que les pregunte que trabajan para Accenture, y están obligados a firmar amplios acuerdos de confidencialidad. Citando las NDA, casi todos los moderadores actuales y anteriores entrevistados por ProPublica insistieron en el anonimato. (Un portavoz de Accenture se negó a comentar y refirió todas las preguntas sobre la moderación de contenido a WhatsApp).


Cuando el equipo de WhatsApp se reunió en Austin en 2019, los moderadores de Facebook ya ocupaban el cuarto piso de una torre de oficinas en Sixth Street, junto a la famosa escena de bares y música de la ciudad.


El equipo de WhatsApp se instaló en el piso de arriba, con nuevas cabinas de trabajo acristaladas y baños más bonitos que despertaron un poco de envidia en algunos miembros del equipo de Facebook. La mayor parte del equipo de WhatsApp se dispersó para trabajar desde casa durante la pandemia.


Ya sea en la oficina o en casa, pasan sus días frente a las pantallas, utilizando una herramienta de software de Facebook para examinar un flujo de "boletos", organizados por tema en colas "reactivas" y "proactivas".


Colectivamente, los trabajadores examinan millones de piezas de contenido de WhatsApp cada semana. Cada revisor maneja más de 600 tickets al día, lo que les da menos de un minuto por ticket.


WhatsApp se negó a revelar cuántos trabajadores subcontratados están empleados para la revisión de contenido, pero una lista parcial de personal revisada por ProPublica sugiere que, solo en Accenture, son más de 1,000.


Se espera que los moderadores de WhatsApp, al igual que sus homólogos de Facebook e Instagram, cumplan con las métricas de rendimiento de velocidad y precisión, que son auditadas por Accenture.


Sus trabajos difieren en otros aspectos. Debido a que el contenido de WhatsApp está encriptado, los sistemas de inteligencia artificial no pueden escanear automáticamente todos los chats, imágenes y videos, como lo hacen en Facebook e Instagram.


En cambio, los revisores de WhatsApp obtienen acceso a contenido privado cuando los usuarios presionan el botón "informar" en la aplicación, identificando un mensaje que supuestamente viola los términos de servicio de la plataforma.


Esto reenvía cinco mensajes, el supuestamente ofensivo junto con los cuatro anteriores en el intercambio, incluidas las imágenes o los videos, a WhatsApp en forma descifrada, según exingenieros y moderadores de WhatsApp.


Luego, los sistemas automatizados introducen estos boletos en colas "reactivas" para que los trabajadores subcontratados los evalúen.


La inteligencia artificial inicia un segundo conjunto de colas, las llamadas proactivas, al escanear los datos no cifrados que recopila WhatsApp sobre sus usuarios y compararlos con información de cuentas sospechosas y patrones de mensajes ( una nueva cuenta que envía rápidamente un gran volumen de chats es evidencia de spam ), así como términos e imágenes que previamente se han considerado abusivos.


Los datos no cifrados disponibles para el escrutinio son extensos. Incluye los nombres y las imágenes de perfil de los grupos de WhatsApp de un usuario, así como su número de teléfono, foto de perfil, mensaje de estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono. como una lista de sus dispositivos electrónicos, cualquier cuenta de Facebook e Instagram relacionada, la última vez que usaron la aplicación y cualquier historial previo de infracciones.


Los revisores de WhatsApp tienen tres opciones cuando se les presenta un ticket para cualquier tipo de cola: no hacer nada, colocar al usuario en "observación" para un mayor escrutinio o prohibir la cuenta. (Los moderadores de contenido de Facebook e Instagram tienen más opciones, incluida la eliminación de publicaciones individuales. Es esa distinción, el hecho de que los revisores de WhatsApp no ​​pueden eliminar elementos individuales, que la compañía cita como base para afirmar que los revisores de WhatsApp no ​​son "moderadores de contenido". )


Los moderadores de WhatsApp deben emitir juicios subjetivos, sensibles y sutiles, según muestran las entrevistas y los documentos examinados por ProPublica.


Examinan una amplia gama de categorías, que incluyen "Informe de spam", "Actor cívico malo" (discurso de odio político y desinformación), "Terrorismo Amenaza global creíble", "CEI" (imágenes de explotación infantil) y "CP" (pornografía infantil) .


Otro conjunto de categorías aborda los mensajes y la conducta de millones de pequeñas y grandes empresas que usan WhatsApp para chatear con clientes y vender sus productos.


Estas colas tienen títulos como "prevalencia de suplantación de identidad comercial", "probables infractores de la política comercial" y "verificación comercial".


Los moderadores dicen que la orientación que obtienen de WhatsApp y Accenture se basa en estándares que pueden ser a la vez arcanos y perturbadoramente gráficos.


Las decisiones sobre imágenes sexuales abusivas, por ejemplo, pueden basarse en una evaluación de si un niño desnudo en una imagen parece adolescente o preadolescente, en función de la comparación de los huesos de la cadera y el vello púbico con un índice médico.


Un crítico recordó un video granulado en una cola de discurso político que mostraba a un hombre empuñando un machete sosteniendo lo que parecía ser una cabeza cortada: “Tuvimos que mirar y decir: '¿Es este un cadáver real o un cadáver falso? '”


A finales de 2020, se informó a los moderadores de una nueva cola por supuesta “extorsión sexual”. Se definió en un memorando explicativo como “una forma de explotación sexual en la que se chantajea a las personas con una imagen de sí mismos desnudos que ellos mismos u otra persona han compartido en Internet”.


El memorando decía que los trabajadores revisarían los mensajes informados por los usuarios que “incluyen palabras clave predefinidas que generalmente se usan en mensajes de sextorsión/chantaje”.


El sistema de revisión de WhatsApp se ve obstaculizado por impedimentos, incluida la traducción de idiomas con errores. El servicio tiene usuarios en 180 países, la gran mayoría ubicados fuera de los EE. UU.


Aunque Accenture contrata a trabajadores que hablan una variedad de idiomas, para los mensajes en algunos idiomas a menudo no hay un hablante nativo en el lugar para evaluar las denuncias de abuso.


Eso significa usar la herramienta de traducción de idiomas de Facebook, que según los revisores podría ser tan inexacta que a veces etiquetaba los mensajes en árabe como si estuvieran en español. La herramienta también ofreció poca orientación sobre la jerga local, el contexto político o las insinuaciones sexuales.


“En los tres años que he estado allí”, dijo un moderador, “siempre ha sido horrible”.


El proceso puede estar plagado de errores y malentendidos. Se ha señalado a empresas por ofrecer armas a la venta cuando venden navajas de afeitar.


Los sujetadores se pueden vender, pero si el lenguaje de marketing se registra como "para adultos", el vendedor puede ser etiquetado como un "negocio de orientación sexual" prohibido.


Y una herramienta de traducción defectuosa activó una alarma cuando detectó cabritos para la venta y el sacrificio, que, tras un examen más detallado, resultó ser cabritos destinados a ser cocinados y consumidos en comidas halal.


El sistema también se ve socavado por las fallas humanas de las personas que instigan los informes. Las denuncias se presentan con frecuencia para castigar, acosar o gastar una broma a alguien, según los moderadores.


En mensajes de Brasil y México, un moderador explicó: “Tuvimos un par de meses en los que AI prohibió grupos de izquierda a derecha porque la gente se metía con sus amigos cambiando los nombres de sus grupos” y luego los denunciaba.


“En el peor de los casos, probablemente obtuvimos decenas de miles de esos. Descubrieron algunas palabras que no le gustaban al algoritmo”.


Otros informes no cumplen con los estándares de WhatsApp para la prohibición de una cuenta. “La mayor parte no es una violación”, dijo uno de los moderadores. “Es contenido que ya está en Internet, y son solo personas que intentan meterse con los usuarios”.


Aún así, cada caso puede revelar hasta cinco mensajes sin cifrar, que luego son examinados por los moderadores.


El juicio de la IA de WhatsApp es menos que perfecto, dicen los moderadores. “Había muchas fotos inocentes allí que no estaban permitidas”, dijo Carlos Sauceda, quien dejó Accenture el año pasado después de nueve meses.


“Podría haber sido una foto de un niño bañándose, y no tenía nada de malo”. Como dijo otro moderador de WhatsApp: "La mayor parte del tiempo, la inteligencia artificial no es tan inteligente".


La guía escrita de Facebook para los moderadores de WhatsApp reconoce muchos problemas y señala que “hemos cometido errores y nuestras políticas han sido armadas por malos actores para prohibir a los buenos.


Cuando los usuarios escriben consultas relacionadas con asuntos abusivos como estos, depende de WhatsApp responder y actuar (si es necesario) en consecuencia de manera oportuna y agradable”.


Por supuesto, si un usuario apela una prohibición provocada por un informe de usuario, según un moderador, implica que un segundo moderador examine el contenido del usuario.

II. “Líderes de la industria” en la detección de malos comportamientos

En declaraciones públicas y en los sitios web de la compañía, Facebook Inc. es notablemente impreciso sobre el proceso de monitoreo de WhatsApp. La empresa no proporciona un informe regular de cómo WhatsApp supervisa la plataforma.


La página de preguntas frecuentes y el formulario de quejas en línea de WhatsApp indican que recibirá "los mensajes más recientes" de un usuario que haya sido marcado.


Sin embargo, no revelan cuántos mensajes sin cifrar se revelan cuando se presenta un informe, o que esos mensajes son examinados por contratistas externos. (WhatsApp le dijo a ProPublica que limita esa divulgación para evitar que los infractores "jueguen" con el sistema).


Por el contrario, tanto Facebook como Instagram publican extensos documentos de "Estándares de la comunidad" que detallan los criterios que usan sus moderadores para controlar el contenido, junto con artículos y videos sobre "los héroes no reconocidos que mantienen a Facebook seguro" y anuncios sobre nuevos sitios de revisión de contenido.


Los informes de transparencia de Facebook detallan cuántas piezas de contenido se "accionan" para cada tipo de infracción. WhatsApp no ​​está incluido en este informe.


Al tratar con los legisladores, los funcionarios de Facebook Inc. también ofrecen pocos detalles, pero están ansiosos por asegurarles que no permiten que el cifrado se interponga en el camino para proteger a los usuarios de imágenes de abuso y explotación sexual infantil.


Por ejemplo, cuando los miembros del Comité Judicial del Senado interrogaron a Facebook sobre el impacto del cifrado de sus plataformas, la empresa, en preguntas de seguimiento escritas en enero de 2020, citó a WhatsApp alardeando de que seguiría respondiendo a las fuerzas del orden.


“Incluso dentro de un sistema encriptado”, señaló una respuesta, “aún podremos responder a las solicitudes legales de metadatos, incluida la ubicación potencialmente crítica o la información de la cuenta... Ya tenemos un servicio de mensajería encriptada, WhatsApp, que, a diferencia de algunos otros servicios encriptados: proporciona una forma sencilla para que las personas informen sobre abusos o problemas de seguridad”.


Efectivamente, WhatsApp reportó 400,000 casos de posibles imágenes de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados en 2020, según su director, Cathcart.


Eso fue diez veces más que en 2019. “Somos, con mucho, los líderes de la industria en encontrar y detectar ese comportamiento en un servicio encriptado de extremo a extremo”, dijo.


Durante su entrevista en YouTube con el grupo de expertos australiano, Cathcart también describió la dependencia de WhatsApp en los informes de los usuarios y la capacidad de sus sistemas de inteligencia artificial para examinar la información de la cuenta que no está sujeta a encriptación.


Cuando se le preguntó cuántos empleados empleó WhatsApp para investigar las denuncias de abuso de una aplicación con más de dos mil millones de usuarios, Cathcart no mencionó a los moderadores de contenido ni a su acceso a contenido encriptado.


“Hay mucha gente en Facebook que ayuda con WhatsApp”, explicó. “Si miras a las personas que trabajan a tiempo completo en WhatsApp, está por encima de mil. No entraré en el desglose completo del servicio al cliente, informes de usuarios, ingeniería, etc. Pero es mucho de eso”.


En respuestas escritas para este artículo, el portavoz de la compañía dijo: “Construimos WhatsApp de una manera que limita los datos que recopilamos mientras nos proporciona herramientas para prevenir el spam, investigar amenazas y prohibir a quienes cometen abusos, incluso en función de los informes de usuarios que recibimos. . Este trabajo requiere un esfuerzo extraordinario por parte de los expertos en seguridad y un valioso equipo de confianza y seguridad que trabaja incansablemente para ayudar a proporcionar al mundo una comunicación privada”.


El portavoz señaló que WhatsApp ha lanzado nuevas funciones de privacidad, que incluyen "más controles sobre cómo los mensajes de las personas pueden desaparecer" o verse solo una vez.


Agregó: "Según los comentarios que hemos recibido de los usuarios, estamos seguros de que las personas entienden cuando informan a WhatsApp que recibimos el contenido que nos envían".

tercero “Engañar a los usuarios” sobre la privacidad personal

Desde el momento en que Facebook anunció planes para comprar WhatsApp en 2014, los observadores se preguntaron cómo le iría al servicio, conocido por su ferviente compromiso con la privacidad, dentro de una corporación conocida por lo contrario.


Zuckerberg se había convertido en una de las personas más ricas del planeta al utilizar un enfoque de "capitalismo de vigilancia": recopilar y explotar montones de datos de usuarios para vender anuncios digitales dirigidos.


La incansable búsqueda de crecimiento y ganancias de Facebook ha generado una serie de escándalos de privacidad en los que fue acusado de engañar a los clientes y los reguladores.


Por el contrario, WhatsApp sabía poco sobre sus usuarios aparte de sus números de teléfono y no compartía esa información con terceros. WhatsApp no ​​publicaba anuncios y sus cofundadores, Jan Koum y Brian Acton, ambos exingenieros de Yahoo, eran hostiles con ellos.


“En cada empresa que vende anuncios” , escribieron en 2012, “una parte importante de su equipo de ingeniería pasa el día ajustando la extracción de datos, escribiendo un mejor código para recopilar todos sus datos personales, actualizando los servidores que contienen todos los datos y asegurándose todo está siendo registrado, cotejado, rebanado, empacado y enviado”, y agregó: “Recuerde, cuando se trata de publicidad, usted, el usuario, es el producto”.


En WhatsApp, señalaron, “tus datos ni siquiera están en la imagen. Simplemente no estamos interesados ​​en nada de eso”.


Zuckerberg prometió públicamente en un discurso de apertura de 2014 que mantendría WhatsApp “exactamente igual”.


Declaró: “Absolutamente no vamos a cambiar los planes en torno a WhatsApp y la forma en que utiliza los datos de los usuarios. WhatsApp funcionará de forma completamente autónoma”.


En abril de 2016, WhatsApp completó su adopción largamente planificada de encriptación de extremo a extremo, lo que ayudó a establecer la aplicación como una plataforma de comunicaciones preciada en 180 países, incluidos muchos donde los mensajes de texto y las llamadas telefónicas tienen un costo prohibitivo.


Los disidentes internacionales, los denunciantes y los periodistas también recurrieron a WhatsApp para escapar de las escuchas del gobierno.


Sin embargo, cuatro meses después, WhatsApp reveló que comenzaría a compartir datos de usuarios con Facebook, precisamente lo que Zuckerberg había dicho que no sucedería, una medida que allanó el camino para una serie de futuros planes de generación de ingresos.


Los nuevos términos de servicio de WhatsApp decían que la aplicación compartiría información como los números de teléfono de los usuarios, fotos de perfil, mensajes de estado y direcciones IP con el fin de orientar anuncios, combatir el spam y el abuso y recopilar métricas.


"Al conectar su número de teléfono con los sistemas de Facebook", explicó WhatsApp, "Facebook puede ofrecer mejores sugerencias de amigos y mostrarle anuncios más relevantes si tiene una cuenta con ellos".


Tales acciones estaban poniendo cada vez más a Facebook en la mira de los reguladores. En mayo de 2017, los reguladores antimonopolio de la Unión Europea multaron a la empresa con 110 millones de euros (unos 122 millones de dólares) por afirmar falsamente tres años antes que sería imposible vincular la información del usuario entre WhatsApp y la familia de aplicaciones de Facebook.


La UE concluyó que Facebook había engañado a los reguladores “intencional o negligentemente”. Facebook insistió en que sus declaraciones falsas en 2014 no fueron intencionales, pero no cuestionó la multa.


Para la primavera de 2018, los cofundadores de WhatsApp, ahora ambos multimillonarios, se habían ido.


Acton, en lo que más tarde describió como un acto de “penitencia” por el “delito” de vender WhatsApp a Facebook, entregó 50 millones de dólares a una fundación que respalda Signal, una aplicación de mensajería cifrada gratuita que surgiría como rival de WhatsApp. (El fondo asesorado por donantes de Acton también ha dado dinero a ProPublica).


Mientras tanto, Facebook fue criticado por sus fallas de seguridad y privacidad como nunca antes. La presión culminó con una multa histórica de $ 5 mil millones por parte de la Comisión Federal de Comercio en julio de 2019 por violar un acuerdo anterior para proteger la privacidad del usuario.


La multa fue casi 20 veces mayor que cualquier sanción anterior relacionada con la privacidad, según la FTC, y las transgresiones de Facebook incluyeron "engañar a los usuarios sobre su capacidad para controlar la privacidad de su información personal".


La FTC anunció que estaba ordenando a Facebook que tomara medidas para proteger la privacidad en el futuro, incluso para los usuarios de WhatsApp: “Como parte del programa de privacidad obligatorio de Facebook, que cubre WhatsApp e Instagram, Facebook debe realizar una revisión de privacidad de cada nuevo o modificado producto, servicio o práctica antes de que se implemente, y documentar sus decisiones sobre la privacidad del usuario”.


Se requeriría que los oficiales de cumplimiento generen un “informe de revisión de privacidad trimestral” y lo compartan con la empresa y, previa solicitud, con la FTC.


Facebook aceptó la multa y la orden de la FTC. De hecho, las negociaciones para ese acuerdo fueron el telón de fondo, solo cuatro meses antes, del anuncio de Zuckerberg de su nuevo compromiso con la privacidad.


En ese momento, WhatsApp había comenzado a usar Accenture y otros contratistas externos para contratar a cientos de revisores de contenido. Pero la compañía estaba ansiosa por no pisar su mensaje de privacidad más amplio, o asustar a su base de usuarios global.


No dijo nada públicamente sobre la contratación de contratistas para revisar el contenido.

IV. “Matamos personas basándonos en metadatos”

Incluso cuando Zuckerberg estaba promocionando el nuevo compromiso de Facebook Inc. con la privacidad en 2019, no mencionó que su empresa aparentemente estaba compartiendo más metadatos de sus usuarios de WhatsApp que nunca con la empresa matriz y con las fuerzas del orden.


Para el oído lego, el término “metadatos” puede sonar abstracto, una palabra que evoca la intersección de la crítica literaria y la estadística.


Para usar una vieja analogía predigital, los metadatos son el equivalente de lo que está escrito en el exterior de un sobre: ​​los nombres y direcciones del remitente y el destinatario y el matasellos que refleja dónde y cuándo se envió por correo, mientras que el "contenido" es lo que está escrito en la carta sellada dentro del sobre.


Lo mismo ocurre con los mensajes de WhatsApp: el contenido está protegido, pero el sobre revela una multitud de detalles reveladores (como se indica: marcas de tiempo, números de teléfono y mucho más).


Aquellos en los campos de la información y la inteligencia entienden cuán crucial puede ser esta información. Después de todo, eran metadatos que la Agencia de Seguridad Nacional estaba recopilando sobre millones de estadounidenses que no eran sospechosos de ningún delito, lo que provocó una protesta mundial cuando fue expuesto en 2013 por el excontratista de la NSA Edward Snowden.


“Los metadatos te dicen absolutamente todo sobre la vida de alguien”, dijo una vez el ex asesor general de la NSA, Stewart Baker. “Si tiene suficientes metadatos, realmente no necesita contenido”.


En un simposio en la Universidad Johns Hopkins en 2014, el general Michael Hayden, exdirector tanto de la CIA como de la NSA, fue aún más lejos : “Matamos personas en función de los metadatos”.


Las fuerzas del orden de EE. UU. han utilizado los metadatos de WhatsApp para ayudar a encarcelar a las personas. ProPublica encontró más de una docena de casos en los que el Departamento de Justicia buscó órdenes judiciales para los metadatos de la plataforma desde 2017.


Estos representan una fracción de las solicitudes generales, conocidas como órdenes de registro de llamadas (una frase tomada de la tecnología utilizada para rastrear los números marcados por teléfonos fijos), ya que muchas más se ocultan a la vista del público por orden judicial.


Las solicitudes del gobierno de EE. UU. de datos sobre mensajes salientes y entrantes de todas las plataformas de Facebook aumentaron un 276 % desde la primera mitad de 2017 hasta la segunda mitad de 2020, según las estadísticas de Facebook Inc. (que no desglosan las cifras por plataforma).


La tasa de la empresa de entregar al menos algunos datos en respuesta a tales solicitudes aumentó del 84% al 95% durante ese período.


No está claro exactamente lo que los investigadores del gobierno han podido recopilar de WhatsApp, ya que los resultados de esas órdenes también a menudo se ocultan a la vista del público. Internamente, WhatsApp llama a tales solicitudes de información sobre los usuarios "pares de mensajes potenciales" o PMP.


Estos proporcionan datos sobre los patrones de mensajería de un usuario en respuesta a las solicitudes de las agencias de aplicación de la ley de EE. UU., así como de al menos otros tres países (Reino Unido, Brasil e India), según una persona familiarizada con el asunto que compartió esta información en condición de anonimato.


Es posible que las solicitudes de aplicación de la ley de otros países solo reciban información básica del perfil del suscriptor.


Los metadatos de WhatsApp fueron fundamentales en el arresto y la condena de Natalie "May" Edwards, exfuncionaria del Departamento del Tesoro de la Red de Ejecución de Delitos Financieros, por filtrar informes bancarios confidenciales sobre transacciones sospechosas a BuzzFeed News.


La denuncia penal del FBI detalló cientos de mensajes entre Edwards y un reportero de BuzzFeed utilizando una “aplicación encriptada”, que las entrevistas y los registros judiciales confirmaron que era WhatsApp.


“El o alrededor del 1 de agosto de 2018, aproximadamente seis horas después de que la pluma de Edwards se puso en funcionamiento, y el día después de que se publicó el artículo de Buzzfeed de julio de 2018 , el teléfono celular de Edwards intercambió aproximadamente 70 mensajes a través de la aplicación cifrada con el teléfono celular Reporter-1 durante un lapso de tiempo de aproximadamente 20 minutos entre las 00:33 y las 00:54”, escribió la agente especial del FBI Emily Eckstut en su denuncia de octubre de 2018. Edwards y el reportero usaron WhatsApp porque Edwards creía que la plataforma era segura, según una persona familiarizada con el asunto.


Edwards fue sentenciado el 3 de junio a seis meses de prisión luego de declararse culpable de un cargo de conspiración y reportarse a prisión la semana pasada . El abogado de Edwards se negó a comentar, al igual que los representantes del FBI y el Departamento de Justicia.


WhatsApp ha minimizado durante años la cantidad de información no cifrada que comparte con las fuerzas del orden, limitando en gran medida las menciones de la práctica al lenguaje repetitivo enterrado profundamente en sus términos de servicio.


No mantiene registros permanentes de forma rutinaria de con quién se comunican los usuarios y con qué frecuencia, pero los funcionarios de la compañía confirmaron que activan dicho seguimiento a su propia discreción, incluso para investigaciones internas de fugas de Facebook, o en respuesta a solicitudes de las fuerzas del orden.


La compañía se negó a decirle a ProPublica con qué frecuencia lo hace.


La página de privacidad de WhatsApp asegura a los usuarios que tienen control total sobre sus propios metadatos. Dice que los usuarios pueden "decidir si solo los contactos, todos o nadie pueden ver su foto de perfil" o cuándo abrieron por última vez sus actualizaciones de estado o cuándo abrieron la aplicación por última vez.


Independientemente de la configuración que elija un usuario, WhatsApp recopila y analiza todos esos datos, un hecho que no se menciona en ninguna parte de la página.

V. “Abriendo la apertura para abarcar los objetivos comerciales”

El conflicto entre privacidad y seguridad en plataformas encriptadas parece estar intensificándose. Los defensores de la seguridad infantil y las fuerzas del orden han instado a Zuckerberg a abandonar su plan para encriptar todas las plataformas de mensajería de Facebook.


En junio de 2020, tres senadores republicanos introdujeron la "Ley de acceso legal a datos cifrados", que requeriría que las empresas de tecnología ayuden a proporcionar acceso incluso a contenido cifrado en respuesta a órdenes de aplicación de la ley.


Por su parte, WhatsApp demandó recientemente al gobierno indio para bloquear su requisito de que las aplicaciones cifradas proporcionen "trazabilidad", un método para identificar al remitente de cualquier mensaje que se considere relevante para la aplicación de la ley. WhatsApp ha luchado contra demandas similares en otros países.


Otras plataformas encriptadas adoptan un enfoque muy diferente al de WhatsApp para monitorear a sus usuarios. Signal no emplea moderadores de contenido, recopila muchos menos datos de usuarios y grupos, no permite copias de seguridad en la nube y, en general, rechaza la noción de que debería controlar las actividades de los usuarios.


No presenta informes de explotación infantil al NCMEC.


Apple ha promocionado su compromiso con la privacidad como un punto de venta. Su sistema iMessage muestra un botón de "informe" solo para alertar a la empresa sobre la sospecha de spam, y la empresa ha realizado solo unos pocos cientos de informes anuales al NCMEC, todos ellos originados por el escaneo de correo electrónico saliente, que no está cifrado.


Pero Apple recientemente tomó un nuevo rumbo y pareció tropezar en el camino. En medio de la creciente presión del Congreso, en agosto, la compañía anunció un nuevo y complejo sistema para identificar imágenes de explotación infantil en las copias de seguridad de iCloud de los usuarios.


Apple insistió en que el nuevo sistema no representa una amenaza para el contenido privado, pero los defensores de la privacidad acusaron a la compañía de crear una puerta trasera que potencialmente permite a los gobiernos autoritarios exigir búsquedas de contenido más amplias, lo que podría resultar en el ataque a disidentes, periodistas u otros críticos del estado.


El 3 de septiembre, Apple anunció que retrasaría la implementación del nuevo sistema.


Aún así, es Facebook el que parece enfrentar el escepticismo más constante entre las principales plataformas tecnológicas. Está utilizando el cifrado para promocionarse como amigable con la privacidad, mientras dice poco sobre las otras formas en que recopila datos, según Lloyd Richardson, director de TI en el Centro Canadiense para la Protección Infantil.


“Toda esta idea de que lo están haciendo para la protección personal de las personas es completamente ridícula”, dijo Richardson.


“Estás confiando en una aplicación que pertenece y está escrita por Facebook para hacer exactamente lo que dice. ¿Confías en esa entidad para hacer eso?” (El 2 de septiembre, las autoridades irlandesas anunciaron que multarán a WhatsApp con 225 millones de euros, unos 267 millones de dólares, por no revelar adecuadamente cómo la empresa comparte la información de los usuarios con otras plataformas de Facebook. WhatsApp impugna el hallazgo).


El énfasis de Facebook en la promoción de WhatsApp como modelo de privacidad es evidente en el documento de marketing de diciembre obtenido por ProPublica.


La presentación de "Brand Foundations" dice que fue el producto de un equipo global de 21 miembros en todo Facebook, que involucró media docena de talleres, investigación cuantitativa, "entrevistas con partes interesadas" y "lluvias de ideas interminables".


Su objetivo: ofrecer "una articulación emocional" de los beneficios de WhatsApp, "un conjunto de herramientas inspirador que nos ayuda a contar nuestra historia" y un "propósito de marca para defender la profunda conexión humana que conduce al progreso".


La plataforma de marketing identifica una sensación de "cercanía" como el "territorio emocional propio" de WhatsApp, y dice que la aplicación ofrece "lo más parecido a una conversación en persona".


WhatsApp debería presentarse como "valiente", según otra diapositiva, porque está "adoptando una postura pública fuerte que no está motivada financieramente en cosas que nos importan", como defender el cifrado y luchar contra la desinformación.


Pero la presentación también habla de la necesidad de “abrir la apertura de la marca para englobar nuestros futuros objetivos comerciales. Si bien la privacidad seguirá siendo importante, debemos adaptarnos a futuras innovaciones”.


WhatsApp se encuentra ahora en medio de un gran impulso para ganar dinero. Ha tenido un comienzo difícil, en parte debido a las amplias sospechas de cómo WhatsApp equilibrará la privacidad y las ganancias.


Un plan anunciado para comenzar a publicar anuncios dentro de la aplicación no ayudó; se abandonó a fines de 2019, solo unos días antes de su lanzamiento.


A principios de enero, WhatsApp dio a conocer un cambio en su política de privacidad, acompañado de un plazo de un mes para aceptar la política o dejar de usar la aplicación. El movimiento provocó una revuelta, lo que impulsó a decenas de millones de usuarios a huir a rivales como Signal y Telegram.


El cambio de política se centró en cómo se manejarían los mensajes y los datos cuando los usuarios se comunican con una empresa en la variedad cada vez mayor de ofertas de WhatsApp Business.


Las empresas ahora podrían almacenar sus chats con los usuarios y usar la información sobre los usuarios con fines de marketing, incluida la orientación con anuncios en Facebook o Instagram.


Elon Musk tuiteó “Use Signal” y los usuarios de WhatsApp se rebelaron. Facebook retrasó durante tres meses el requisito de que los usuarios aprueben la actualización de la política.


Mientras tanto, luchó por convencer a los usuarios de que el cambio no tendría efecto en las protecciones de privacidad de sus comunicaciones personales , con una versión ligeramente modificada de su garantía habitual: “WhatsApp no ​​puede ver sus mensajes personales ni escuchar sus llamadas y Facebook tampoco. .”


Al igual que cuando la empresa compró WhatsApp por primera vez años antes, el mensaje era el mismo: confíe en nosotros.

Corrección

10 de septiembre de 2021: esta historia originalmente decía incorrectamente que el sistema iMessage de Apple no tiene un botón de "informe". El sistema iMessage tiene un botón de informe, pero solo para sospechas de spam (no para sospechas de contenido abusivo).


Foto de Eyestetix Studio en Unsplash