Investigadores de la empresa Facebook y de una universidad experimentaron con usuarios sin haberlos consultado. La especialista en cibercultura Marian Moya analiza ese falso hecho científico, la manipulación cotidiana hacia los internautas y la peligrosa tendencia a humanizar Internet. ¿Qué hizo la compañía de Zuckerberg desde que usó los datos para incrementar sus beneficios hasta que el escándalo se hizo público?



Imaginate que volvés de trabajar y entrás a tu Facebook a ver qué onda tus “amigos”. Y encontrás el post de un conocido que se dice triste porque se separó, una foto de un perro lastimado, otra de niños armados en Medio Oriente y un texto de alguien recordando a su padre muerto. Vas pasando posts y todos son deprimentes. Al mismo tiempo, otra persona encuentra en sus “Noticias” una foto de sus amigas sonrientes en medio de un festejo, un hermoso jardín con flores coloridas y dos conocidos posando para una selfie.

 

¿Cómo reaccionamos emocionalmente frente al contenido negativo en Facebook, en comparación con otra persona que ve posteos 100% positivos?. Estas fueron las dos situaciones a las que tres investigadores expusieron durante una semana, en Enero de 2012, a 689.003 usuarios estadounidenses de la red social y que sirvieron, supuestamente, para verificar la hipótesis de su trabajo.

 

“Para Facebook, somos todos ratas de laboratorio” tituló The New York Times su artículo sobre el escándalo científico. En poquísimas palabras, con una metáfora bastante aterradora, la frase resume los tres ejes del problema, que atraviesan la gran mayoría de nuestras interacciones virtuales: 1) la manipulación de la información proporcionada por los usuarios en sitios web y plataformas; 2) la inconsciencia y el desamparo de los usuarios en esa situación y 3) la tendencia a humanizar Facebook, Twitter, Internet y demás algoritmos como si se trataran de orwellianos Big Brothers, ya una metáfora-cliché por lo menos desde el caso Snowden. Los tres puntos nos conducen a una reflexión político-ideológica, sociológica y, por supuesto, económica. Cabe aclarar que estas dimensiones quedan enmascaradas detrás de la poderosa y mistificada fachada de la tecnología.

 

El “escandaloso” artículo 

 

Una nota de color: al repasar la infinidad de crónicas, ensayos, posts en blogs, opiniones e interpretaciones variopintas, aparecidas en los últimos días, resulta apabullante la cantidad de actualizaciones de información sobre el tema. Pero las pocas que aparecen en defensa de los acusados actúan como paraguas que se abren después de que llovió: los cubren cuando ya están empapados. Revisemos los resultados de la investigación de Adam D.I. Kramer, investigador del staff de Facebook, y sus coautores, Jamie E. Guillory, hoy académico en la Universidad de California y Jeffrey T. Hancock, de la Universidad de Cornell.

 

En el sitio de Proceedings of the National Academy of Sciences of the United States of America (PNAS – Actas de la Academia Nacional de Ciencias de los Estados Unidos de América), unas letras rojas anuncian:“Se ha publicado una corrección”. Esas letras se vuelven más protagonistas que el propio resumen del trabajo que las sucede. Tras descargar el texto completo, se lee un título, cuanto menos, sugestivo: “Expresión Editorial de Preocupación”. El editor presenta tres párrafos que aclaran (o advierten), acerca de esta “importante y emergente” área de investigación en ciencias sociales, que requiere ser abordada con “sensibilidad y vigilancia” en lo que hace a la privacidad personal. ¿En qué consiste el trabajo? El abstract explica que los estados emocionales pueden ser transferidos a otros a través de “contagio emocional” (sic), conduciendo a la “gente” –sin especificar grupos etarios, sectores sociales, etc., tan sólo “gente”, cual masa homogénea- a experimentar las mismas sensaciones sin ser conscientes de ello. Facebook aplicó este experimento, dicen los autores, para testear si el contagio emocional puede darse fuera de una interacción personal, ante determinado contenido puesto en la sección Noticias de su plataforma. Durante la investigación, cuando las expresiones positivas eran reducidas, la “gente” producía menos posts positivos, y más negativos; cuando las expresiones negativas eran reducidas, se daba el patrón opuesto. La conclusión de los autores es que las emociones expresadas por otros en Facebook influencian las propias. Afirman tener “evidencia experimental” de un contagio en escala-masiva vía las redes sociales. Asimismo, sugieren que, en contraste con lo que se suponía, la interacción en persona y las señales no verbales no son estrictamente necesarias para el contagio emocional.

 

Y, por último, que la observación de las experiencias positivas ajenas constituye una experiencia positiva para la “gente”. En su texto afirman que “El experimento manipuló la medida en que la gente fue expuesta a expresiones emocionales en sus Noticias.” (la cursiva es mía).

 

Tras un fugaz examen del marco conceptual y la metodología propuestos, me atrevo a afirmar que el estudio en sí, de no haber mediado esta polémica, está muy lejos de representar un hito en los estudios de las ciencias del comportamiento aplicadas a las nuevas tecnologías, que ya de “nuevas” van teniendo poco. Kramer explica, con tono arrepentido en su descargo (vía Facebook, claro):

 

“El propósito de nuestra investigación en Facebook es conocer cómo proporcionar un mejor servicio. Tras haber escrito y diseñado yo mismo el experimento, puedo decirles que nuestro propósito nunca fue fastidiar a nadie. Puedo entender por qué algunas personas se sientan preocupadas por esto, y mis coautores y yo nos disculpamos por la forma en que el paper describió la investigación y cualquier ansiedad que ésta haya causado. En retrospectiva, los beneficios del paper podrían no haber justificado toda esta ansiedad.”

 

Kramer se equivoca (o se hace el ingenuo) al expresar que la preocupación se debe a la “descripción de la investigación”: el problema no es ese, sino la metodología aplicada para la recolección de datos. Por otra parte, surgen algunas dudas sobre la correlación entre el objetivo manifiesto –“proporcionar un mejor servicio”- y esa metodología propia del behaviorismo: inductivista, con tendencia a soslayar las condiciones sociohistóricas en que los fenómenos humanos se dan. Es decir, tratar la vida social como un mero asunto de laboratorio. Entonces, ¿manipular la información y, peor aún, las conductas y las emociones de los sujetos es una vía válida para “mejorar el servicio”? ¿significa al menos un avance para la ciencia?

 

La falsa asepsia de la ciencia

 

La propuesta de Susan Sontag, en su trabajo acerca de las enfermedades –cáncer, tuberculosis, sida- como metáforas, me llevó a asociar los contenidos de esta investigación con las discusiones posteriores. Las analogías inspiradas en las ciencias médicas son recurrentes. Por empezar, el concepto central del artículo, el “contagio” de las emociones, es un tropo que alude a la medicina. Asimismo, el mismo “consentimiento informado”, meollo de todo el debate, constituye un modelo extrapolado del campo de las ciencias médicas y biológicas.

 

La apelación a la medicina y a la biología confiere a la discusión un halo de rigurosidad, neutralidad, objetividad, precisión; atributos propios de las llamadas ciencias “duras”. La misma imagen de “ciencia aséptica” nos ubica en el escenario de los galenos. “La ciencia es neutral, prístina, incorruptible.” “La actividad académica no está reñida con la ética.” ¿Son realidades o prejuicios con carga positiva?

 

Entre los autores del artículo, quien queda más expuesto al vituperio, es Adam Kramer, en su rol de empleado de Facebook. Ya vimos su descargo. Sin embargo, es llamativo que las torres de marfil académicas se empeñen en defender lo indefendible de sus empleados Hancock y Guillory. Se entiende: Las instituciones universitarias suelen preservar a sus investigadores, ya que deben justificar las acciones que ellos realizan bajo su aval institucional, gracias a las cuales obtienen ingentes subsidios (al menos en EUA). En especial, cuando esas acciones cobran estado público. Cuando investigaban, Guillory y Hancock pertenecían a la Universidad de Cornell.

 

Cuando el debate se hizo público, Cornell fue acusada de no haber respetado los protocolos establecidos por su Institutional Review Board (IRB – Junta de Revisión Institucional), un comité de ética formalmente designado para aprobar, monitorear y examinar investigaciones que involucren a personas. Su principal objetivo es evitar que se produzcan daños físicos o psicológicos sobre los sujetos sometidos a observación. El argumento de los autores fue que el experimento era conducido por la empresa Facebook, para “objetivos internos”. Por eso, el IRB de Cornell determinó antes de la concreción del estudio que no entraría en su Programa de Protección de la Investigación Humana, aclaración avalada (¿qué duda cabe?) por la Universidad.

 

Estamos frente a una interesante tensión entre la ciencia, en su habitual intento por mantenerse aséptica, neutral, incorrupta, y las prácticas desreguladas en relación a estos asuntos en el ámbito corporativo. En este caso, la academia se lavó las manos amparándose en aquello. Este desequilibrio de responsabilidades entre academia y corporación, en un malabar retórico-legal, terminó favoreciendo a ambas.

 

Techie pero remanido

 

cobayos_facebook_WalterMDO_1_CAJA

 

No hay nada nuevo bajo el sol, ni bajo el techo de las universidades, por más impolutas que pretendan exhibirse. Los antecedentes de casos reñidos con la ética en ciencias sociales costó años de reclusión a renombrados científicos. La ciencia “aplicada” fue denostada y estigmatizada por culpa de casos paradigmáticos. El primero, del campo de la psicología, es el famoso Experimento Milgram, sobre la obediencia a la autoridad, de 1963. Buscaba responder la pregunta del momento: ¿era posible que Eichmann y otros criminales de guerra sólo estuvieran cumpliendo órdenes? Si bien las motivaciones podrían ser entendibles, los métodos escogidos para responder a esa cuestión pudieron dañar psicológicamente a las personas implicadas. Es uno de los ejemplos por excelencia para ilustrar situaciones en que la ciencia rompe con la deontología. En el campo de la antropología, el actual proyecto Human Terrain System (HTS – Sistema de Terreno Humano) pone esta disciplina al servicio de los intereses político-militares estadounidenses en naciones extranjeras invadidas y genera los mismos debates que Milgram.

 

A favor de la empresa, en contra de los usuarios

 

En un comentario al pie de un blog, cuyo autor es partidario de estas “investigaciones” impulsadas por Facebook, se lee:

 

“La empresa tiene intereses comerciales. Todo lo que obtenemos “gratis”, por algún lado lo tenemos que pagar. Es el mercado. Entendámoslo”.

 

Pero las argumentaciones en defensa de Kramer y sus coautores son débiles. Tal como afirma “codingconduct” ,en la “Política de Uso de Datos”, se lee que Facebook podría utilizar la información que recibe de sus usuarios “para operaciones internas, incluidos la solución de problemas, el análisis de datos, la investigación, el desarrollo y la mejora del servicio.” Pero, cuidado: este punto fue agregado a la Política en cuestión en Mayo de 2012: tres meses después del controvertido estudio. Por otra parte, esa sola frase parece un revoltijo de retórica corporativa (“mejorar el servicio”) y científica (“investigación”, “análisis”, “desarrollo”), contribuyendo a la confusión, la ambigüedad, y la ininteligibilidad propias de estos documentos legales, cuya aceptación es requisito ineludible para participar en determinados sitios. En definitiva, esa mixtura de lógicas acaba por favorecer los intereses de la empresa y por desproteger a los usuarios.

 

El consentimiento desinformado


Pero la mayoría de los que usamos redes sociales no solemos implicarnos en una “autogestión de la privacidad” ni en la “protección de datos”. Según estudios como “Privacy Self-Management and the Consent Dilemma” de Daniel Solove, esto pasa, en primer lugar, porque muy pocas personas leen la totalidad de los agobiantes términos de uso. A esta sencilla razón se suman varias otras, menos evidentes: 1) si las personas leen la totalidad de los términos y condiciones, no los entienden totalmente; 2) si los entienden, a menudo carecen del suficiente conocimiento para tomar una decisión fundamentada; 3) si los leen, entienden y están en condiciones de tomar una decisión fundamentada, esa decisión puede estar sesgada por otras variables (por ejemplo, cuando la información está descontextualizada, los marcos de referencia han sido simplificados, etc.); 4) los datos que hoy uno carga en Internet pueden ser inocuos, pero mañana podrían usarse en nuestro perjuicio (porque lo que sube a la red, “no baja nunca”) y la información específica que proporcionemos en un sitio, cruzada con información incluida en otro, potencialmente podría acarrearnos consecuencias nocivas.

 

Otro problema relacionado es, justamente, la focalización en el individuo aislado, principio básico de la ideología liberal, cuando se trata de un fenómeno producido (y consumido) socialmente. Nuestros comportamientos, decisiones y actitudes están condicionados por el contexto social, una dimensión poco explorada en la literatura sobre “privacidad” y “protección de datos” en la red.

 

La problemática del consentimiento informado, el rey de los embrollos aquí, es medular en esta crítica. Porque representa un protocolo estandarizado propio del ámbito de las ciencias médicas y biológicas (otra vez “las ciencias de la vida” marcándonos la cancha). Pero la extrapolación mecánica de ese modelo biologicista y experimental no encaja con las condiciones de producción de conocimiento de las ciencias humanas y sociales. El lenguaje de la biología y de la medicina, sus métodos de experimentación en ámbitos controlados como los laboratorios, la posibilidad del participante en el experimento de salir cuando quiera, difieren de las condiciones de trabajo empírico del científico social. En este caso, las interacciones entre las personas no son observadas bajo condiciones preestablecidas, sino que prima la espontaneidad: el comportamiento humano no es mensurable ni predecible. En suma, el entorno no es pasible de control y la única posibilidad asimilable a las pruebas de las ciencias médicas es decidir retirarse del experimento o directamente no participar en él. Los cobayos humanos de Kramer ni siquiera tuvieron estas opciones, porque desconocían que participaban del experimento.

 

¿Por qué Facebook quieren transformarnos en cobayos?

 

La investigación se llevó a cabo hace más de dos años (enero de 2012) y el debate nos sorprende recién ahora. ¿Qué hizo Facebook durante todo este tiempo con esa información? Ningún artículo de los tantos que hemos repasado sobre el tema alude a este punto. Pero recordemos un dato perdido en la inmensidad de los alborotos que van jalonando la historia facebookiana. En 2012, General Motors –por esa época, el tercer anunciante de EEUU, además de haber llegado a ser la empresa número 1 del mundo en términos de facturación- decidió cancelar su publicidad en la plataforma, aduciendo razones de baja “efectividad y rentabilidad”, exactamente la misma semana en que la plataforma de Zuckerberg protagonizara “la mayor salida a bolsa de la historia de Internet.” nota periodística .

 

Muchas interpretaciones, sospechas, y aún conclusiones fundamentadas pueden elaborarse con los argumentos, datos y situaciones expuestos aquí, y son dos los puntos que merecen cerrar el asunto.

 

En primer lugar, es necesario romper con el prejuicio de que la ciencia es neutral. Porque, no lo es. Detrás de la producción de conocimiento científico siempre existe una ideología, que a su vez, sustenta determinados intereses. Ese conocimiento científico es la materia prima para la elaboración y el diseño de políticas públicas y privadas. Una “política” se define como un conjunto de decisiones cuyo objeto es la distribución de determinados bienes o recursos. Esas decisiones pueden favorecer a unos grupos y/o afectar a otros. La decisión que toma Facebook es “mejorar el servicio”, pero ¿a quién favorece (y/o perjudica) esa política?

 

En segundo lugar, cuando decimos “Facebook”, estamos en realidad refiriéndonos a seres de carne y hueso, como Mark Zuckerberg y sus acólitos, incluido Kramer. Es hora de dejar las metáforas del “Big Brother” y otras entelequias a quienes no pueden responsabilizarse de las acciones de personas concretas.

 

“Internet no olvida”, leo en una nota sobre privacidad online en La Nación. Esta personificación de un objeto –Internet- no es inocente. Asignar a objetos como Facebook, Internet, computadora o celular, atributos humanos como inteligencia, capacidad de olvidar, y demás, conduce directamente a una mistificación de la tecnología. Mistificada y fetichizada, la tecnología no solo encubre las relaciones sociales que están por detrás de ella, sino también el riesgo de ocultar y desresponsabilizar a quienes toman decisiones perjudiciales para los demás.

 

La Ing. Roxana Saint Nom, experta en tecnología de punta en una empresa local, afirma: “La tecnología es tonta. En realidad, nunca una computadora puede ganarle a una persona porque siempre hubo antes otra persona que la programó.” He ahí que los hoy tan temidos algoritmos superpoderosos son, en realidad, apenas una secuencia de instrucciones que componen un modelo de solución para determinado tipo de problemas. Aunque las definiciones matemáticas no nos resulten siempre amigables, lo importante aquí es que esta manipulación de “instrucciones” se hizo, posiblemente, para buscar “soluciones” a problemas de Facebook, no de los usuarios. En otras palabras, ¿Facebook –sus propietarios y administradores- necesitaban “mejorar el servicio” en términos de sus intereses, es decir, cotizar en bolsa, ajustar o renovar sus estrategias ineficientes- de marketing y publicidad, fortalecer el control social sobre los usuarios-cobayos, a fin de que respondieran, casi “por reflejo pavloviano”, de manera funcional a esos fines?

 

No intento alimentar una teoría conspirativa. Sin embargo, todos estos aguijonazos podrían ser útiles para comprender cabalmente de qué se trata en realidad participar en las redes sociales. No tenemos por qué ser cobayos, siempre y cuando comprendamos que detrás de algoritmos, políticas de uso, y “muros de face”, no existe ninguna mano invisible del Big Brother. Es problable que sigamos siendo cobayos. Pero una actitud más reflexiva y atenta hará que Facebook nos encuentre, por lo menos, con los dientes más afilados.


¿Te gustó la nota?

Suscribite al boletín de Anfibia

AUTORES

LECTURAS RELACIONADAS