Todos tenemos días más o menos malos. Lo que no entra dentro de lo normal es que una red social como Facebook quiera experimentar con las emociones humanas provocando, a propósito que tengamos un día expresamente negativo. Tal vez te sorprenda, pero hace solo unos días ha salido a la luz un singular experimento iniciado por la famosa empresa en el cual alteraba expresamente el contenido de los New Feeds de 690.000 usuarios, con la finalidad de estudiar las razones psicológicas por las que nosotros, los usuarios, tendemos a actualizar nuestros estados con contenido emocional.

¿Sorprendido? Veamos un poco más sobre el tema.

El experimento de Facebook sobre nuestras emociones

¿Cómo te encuentras hoy? ¿Qué estás pensando? Cada vez que abrimos la famosa red social nos encontramos con esas persistentes preguntas en nuestro muro. Y sí, para muchos es inevitable responder, al mismo tiempo que damos un ligero repaso por las actualizaciones en la sección de noticias, viendo comentarios de amigos, conocidos y publicidades varias que el propio Facebook nos pone en su apartado de publicidad.

Pero ¿qué pasaría si un día te encontraras únicamente con noticias negativas, publicaciones de connotación trágica, desesperada o fatalista? Por sorprendente que te parezca esto sucedió en el 2012, a principios de año, justo cuando cerca de 690,000 usuarios empezaron a recibir publicaciones negativas. Pero eso sí, también hubo buena parte de ellos que solo veían noticias positivas, ya que el experimento intentaba obtener datos de ambas vertientes.

Se trataba de un experimento realizado por investigadores de Cornell, la Universidad de California, San Francisco y del propio Facebook que tenía como finalidad ahondar en los comportamientos de los usuarios según las emociones que los determinaran. Los datos de este experimento encubierto por parte de la famosa empresa de Mark Zuckerberg se han publicado recientemente en la revista académica Proceedings of the National Academy of Science. Y así es cómo se han explicado los responsables de la misma:

[quote_box_center]La razón por la cual realizamos esta investigación es que nos importa el impacto emocional de una red tan importante como Facebook en la gente que usa nuestro producto. Sentimos que era importante investigar cómo ver amigos actualizando posts con contenido positivo o negativo podía llevar a algunas personas a sentirse mal, o dejadas de lado, o al contrario. Al mismo tiempo, estábamos preocupados por la posibilidad de que mensajes negativos de otros amigos, nos empuje alguna vez a dejar de visitar Facebook.[/quote_box_center]

¿Y cuáles fueron los resultados del estudio? Bien, se descubrió que  todos aquellos usuarios expuestos a más contenido negativo, bajaban el número de sus propias publicaciones en la red. Es decir, utilizaban menos Facebook, y si lo hacían, eran efectivamente contenidos no muy esperanzadores. Mientras que aquellos que recibía solo información positiva, como es obvio, se mostraban más optimistas.

Así pues, Facebook logró lo que deseaba: cambiar el estado emocional de sus usuarios. Bien es cierto que fue a escala pequeña, pero tuvo implicaciones significativas para su estudio. Lo que suele hacer esta red social es aplicar un algoritmo para determinar cuáles de los aproximadamente 1,500 posts disponibles se mostrarán en tu muro de noticias, es decir, mezcla anuncios, historias personales y noticias de otros usuarios a propósito según el perfil de los usuarios. Realmente asombroso.

Facebook-pide-perdón-por-su-experimento
Mark Zuckerberg (Creador de Facebook) en una conferencia

Después de conocerse este experimento de Facebook y de cómo llegó a manipular las emociones de un pequeño grupo de usuarios se han alzado infinidad de voces críticas. Se reclama que la red social con más poder siga los estándares de ética científica a la hora de realizar sus investigaciones, preguntando al menos si cada uno de nosotros deseamos o no formar parte de cualquier estudio.

La respuesta y defensa por parte de Mark Zuckerberg no ha tardado tampoco en aparecer: «cada vez que los usuarios acceden a estos programas, la empresa es libre de  aplicar en esquemas de mejoras de producto, cualquier acción».

¿Piensas que esto es ético? ¿Cual es tu opinión?

Imagen: mkhmarketingRobert Scoble

4 Comentarios

  1. Entonces haciendo memoria con el post de «NUNCA AGREGAR UN BOTÓN DE NO ME GUSTA» En Facebook, su objetivo de no ponerlo es para no bajar el autoestima de los usuarios al hacerlos sentir menos importantes o dejándolos a un lado, sin embargo, en defensa por el experimento iniciado en 2012 para ver las tendencias en los posts negativos de los usuarios y en defensa al hecho, el creador de Facebook; Marck Zuckerberg, argumentó que se llevó a cabo para saber las tendencias en los post de una red social tan importante como la susodicha, y también expresó el magnate qu «el usuario al acceder a la red social ACEPTA LAS ACTUALIZACIONES Y CAMBIOS REALIZADOS en la página web, sin importar lo que esto implique» es decir;
    «NO NOS PONEN UN BOTON DE NO ME GUSTA PERO SI EXPERIMENTAN CON NUESTRA INFORMACIÓN Y NUESTRAS EMOCIONES»
    .l. A la red social!!!

Dejar respuesta

Please enter your comment!
Please enter your name here