Este artículo fue escrito por Jennifer
Golbeck, directora del Laboratorio de Interacción Humano-Computador y profesora
asociada en la University of Maryland.
Hace un par de meses, un amigo mío preguntó en
Facebook:
Pasamos mucho tiempo pensando en qué postear en
Facebook. ¿Deberías argumentar en contra de la opinión política que publicó uno
de tus compañeros de secundaria? ¿Quieren realmente tus amigos ver otra foto de
tu gato (o hijo)? La mayoría de nosotros, alguna que otra vez, hemos comenzado
a escribir algo y luego, sabiamente, hemos cambiado de opinión.
Desafortunadamente, el código que ejecuta Facebook aún
sabe lo que escribiste – incluso si decidiste no publicarlo. Resulta que las
cosas que decidiste explícitamente no compartir no son del todo privadas.
Facebook llama a estos pensamientos no publicados
“autocensura” y es posible encontrar algunos rudimentos de cómo recolectar
estas no-publicaciones en un paper escrito recientemente por dos miembros de
Facebook. Sauvik Das, un estudiante de doctorado en Carnegie Mellon y
practicante de verano en la red social, en conjunto con Adam Kramer, analista
de datos en Facebook, han publicado un estudio acerca del comportamiento de
autocensura escrito a partir de la recolección de datos de 5 millones de
usuarios angloparlantes. Este revela mucho acerca de cómo Facebook monitorea
nuestros pensamientos no compartidos y lo que piensa acerca de ellos.
El estudio examinó actualizaciones de estado
abortadas, publicaciones en los muros de otras personas y comentarios en publicaciones
de otros. Para recolectar lo escrito, Facebook envía un código a tu navegador.
El código analiza automáticamente lo que escribes en cualquier recuadro de
texto y envía los datos de vuelta a Facebook.
La acumulación de este tipo de textos no es
infrecuente en otros sitios. Por ejemplo, si usas Gmail, habrás notado que tus
borradores se guardan automáticamente a medida que los escribes. Incluso si
cierras el navegador sin guardar, podrás encontrar una copia casi completa del
mail que estabas escribiendo en tu carpeta de “Borradores”. Facebook utiliza
esencialmente la misma tecnología. La diferencia es que Google guarda tus
mensajes para ayudarte. Los usuarios de Facebook no esperan que sus
pensamientos no publicados sean recolectados, ni se benefician de ese
ejercicio.
Para el lector promedio no está del todo claro el cómo
está cubierta esta recolección de datos, por las políticas de privacidad de
Facebook. En las políticas de uso de datos de la red social, bajo una sección
llamada “Información que recibimos y cómo es utilizada”, se deja en claro que
la compañía recolecta la información que eliges compartir o cuando “miras o
interactúas de otras formas con cosas”. Pero nada sugiere que recolecta el
contenido que decides explícitamente no compartir. Redactar y borrar texto
puede ser considerado una forma de interacción, pero sospecho que muy pocos de
nosotros esperarían que esos datos fuesen guardados. Cuando me comuniqué con la
compañía, un representante me dijo que Facebook cree que esta autocensura es
una forma de interacción cubierta por las políticas del sitio.
En su artículo, Das y Kramer aseguran que el código
sólo informa a Facebook de tu decisión de autocensura y no del contenido
redactado. El representante de Facebook con el que hablé confirmó que la
compañía no recolecta el texto de las publicaciones autocensuradas. Pero
ciertamente eso es tecnológicamente posible y está claro el interés de Facebook
en el contenido de tus publicaciones autocensuradas. El artículo de Das y
Kramer cierra con lo siguiente: “hemos llegado a un nivel mayor de comprensión
acerca de cómo y dónde se manifiesta la autocensura en las redes sociales;
pronto, necesitaremos entender de mejor manera qué y por qué”. Esto implica
necesariamente que Facebook quiere saber lo que estás escribiendo, para luego
entenderlo. El mismo código que Facebook usa para revisar la autocensura, puede
transmitirle a la compañía el contenido de tu no-publicación, por lo que este
siguiente paso es tecnológicamente posible de inmediato.
Es sencillo conectar toda esta historia con las
noticias recientes acerca de la vigilancia llevada a cabo por la NSA. A nivel
superficial, es bastante similar. Una organización recolecta metadatos – esto
es, todo menos el contenido de un acto de comunicación – y la analiza para
comprender de mejor manera el comportamiento de las personas. Sin embargo,
existen algunas diferencias importantes. Al tiempo que nos parece incómodo que
la NSA tenga acceso a nuestras conversaciones privadas, la agencia monitorea
contenidos que de hecho hemos decidido publicar online. Facebook, por otra
parte, analiza pensamientos que hemos decidido expresamente no publicar.
Esto puede estar más cerca de los informes recientes
acerca de la capacidad del FBI de encender una webcam sin activar el indicador
respectivo, con el fin de monitorear criminales. Las personas que son vigiladas
a través de las cámaras de sus computadores no están decidiendo compartir un
vídeo de ellos mismos, tal y como las personas que se autocensuran en Facebook
no están eligiendo compartir sus pensamientos. La diferencia es que el FBI
necesita una orden judicial, mientras que Facebook puede proceder sin permisos
de nadie.
¿Cuál es el interés de Facebook? Das y Kramer
argumentan que la autocensura puede ser negativa, debido a que retiene
información valiosa. Si alguien decido no publicar, aseguran, “[Facebook]
pierde valor debido a la falta de generación de contenidos”. Después de todo,
Facebook te muestra anuncios basados en lo que posteas. Más aún, argumentan que
no es justo que alguien decida no publicar en un intento de no spammear a sus
cientos de amigos – algunas personas podrían estar interesadas en el mensaje.
“Considera, por ejemplo, al estudiante universitario que desea promover un
evento social para un grupo de interés particular, pero no lo hace con el temor
de spammear al resto de sus amigos – algunos de los cuales podrían, de hecho,
apreciar su esfuerzo”.
Esta visión paternalista no es abstracta. Facebook
estudia estas acciones debido a que mientras más entiendan sus ingenieros
acerca de la autocensura, estos pueden afinar con mayor precisión su sistema
para minimizar la prevalencia de la autocensura. Este objetivo – diseñar
Facebook para disminuir la autocensura – está explícito en el paper.
Así, Facebook considera que tu sentida
discrecionalidad acerca de qué contenidos compartir es mala, debido a que
reduce el valor de Facebook y de otros usuarios. Facebook monitorea estos
pensamientos no compartidos para entenderlos de mejor manera, con el fin de
construir un sistema que minimice este comportamiento deliberado. Esto se
siente peligrosamente cercano a “todo lo que sucede debe saberse”, el slogan de
la compañía digital distópica en la novela más reciente de Dave Eggers, El
Círculo.
La nota es parte de Future Tense, una colaboración
entre la Arizona State University, el New American Foundation y Slate. Future
Tense quienes exploran las formas en que las tecnologías emergentes afectan a
la sociedad, la política y la cultura. Para leer más, visita el blog de Future
Tense y su página web.