Entrada de blog

Investigando la moralidad y la responsabilidad de las redes sociales y los motores de búsqueda

Otro de una serie de informes de los pasantes de verano de 2017 de Common Cause Nueva York.

Parte de una serie.

Nota del editor: Cada verano, Common Cause New York tiene la suerte de contar con el talento y la energía de un grupo de pasantes. Nos ayudan con la investigación sobre nuestros temas, la organización de nuestros activistas y prácticamente todo lo que se necesita hacer. Cuando regresaban a sus campus, les pedimos que reflexionaran sobre su tiempo en Common Cause y los desafíos que enfrenta nuestra democracia.

Por Erica Hobby, pasante de investigación y políticas

Tras las elecciones presidenciales del año pasado, empresas como Facebook y Google fueron objeto de críticas por su papel percibido en el aumento del partidismo y la perpetuación de noticias falsas. Nuestra oficina decidió explorar estas cuestiones y su alcance para comprender mejor el problema y sus posibles soluciones.

Reconociendo que estas empresas deben hacerse responsables de sus acciones, en particular debido a la naturaleza omnipresente de las redes sociales, primero necesitábamos comprender qué problemas estas empresas perpetúan y producen. A través de una exploración de escritos recientes sobre estos temas, yo y otro pasante de investigación y políticas aquí en Common Cause New York recopilamos datos, análisis y otras anécdotas en un memorando de trabajo, que nos ayudó a ver los problemas y cómo se discuten en Facebook y Google en particular. Usando la polarización y el aumento del partidismo como nuestro punto de partida, nuestra investigación nos llevó a otros temas: noticias falsas, contenido violento y ofensivo, el aspecto humano de los algoritmos de los sitios y la salud mental de los monitores de contenido.

Descubrimos una sorprendente variedad de problemas relacionados con estas empresas. No solo debemos preocuparnos por ponernos en “cámaras de eco” a través de nuestras cuentas de Facebook, sino que también debemos preocuparnos por el hecho de que los algoritmos de estas empresas, la columna vertebral del servicio, son en última instancia vulnerables a la manipulación, lo que puede promover ciertos contenidos en detrimento de otros. Esta manipulación se vuelve problemática cuando el contenido que se ve obligado a aparecer en la parte superior de tu sección de noticias de Facebook o en la página de resultados de tu búsqueda de Google es violento, falso y/o extremo.

Al comenzar el proceso de investigación de estas cuestiones y de cómo se manifiestan en diversos aspectos de nuestra vida cotidiana en Internet, se pone de manifiesto que no podemos dar por sentado que estas empresas puedan o vayan a tomar decisiones que promuevan nuestros mejores intereses. Esto sienta las bases para ahondar en cuestiones más profundas y, en última instancia, avanzar hacia principios rectores que todos deberíamos pedir a estas empresas que adopten para que asuman la responsabilidad por el contenido y las consecuencias de sus sitios.

###

Cerca

Cerca

¡Hola! Parece que te unes a nosotros desde {estado}.

¿Quieres ver lo que está pasando en tu estado?

Ir a causa común {estado}