El profesor Siva Vaidhyanathan alerta sobre el fundamentalismo tecno del fundador de Facebook, Mark Zuckerberg y cuestiona el ciberoptimismo de las transnacionales tecnológicas.
Siva Vaidhyanathan (Buffalo, Nueva York, 1966) es historiador cultural y escribe sobre temas culturales, tecnológicos y de comunicación. Trabajó durante varios años en el Departamento de Cultura y Comunicación de la Universidad de Nueva York. Autor de The googlization of everything (La googlelización de todo), donde analiza desde un punto de vista crítico el impacto del buscador en la economía y la vida cotidiana. En 2011 obtuvo la cátedra del Departamento de Estudios de Comunicación de la Universidad de Virginia.
El fundamentalismo tecno no te salvará, Mark Zuckerberg
Siva Vaidhyanathan
Era como un tic verbal. La semana pasada, en dos días de testimonio ante el Congreso, Mark Zuckerberg, el Director Ejecutivo de Facebook, invocó una frase de sonido mágico cada vez que estaba acorralado sobre un tema difícil. El problema era la moderación del contenido, y la frase era «inteligencia artificial». En 2004, explicó Zuckerberg, cuando Facebook comenzó, era solo él y un amigo en su dormitorio en Harvard. «No teníamos tecnología de inteligencia artificial que podría mirar el contenido que la gente estaba compartiendo», dijo a los comités judiciales de Comercio, Ciencia y Transporte del Senado estadounidense. «Así que básicamente teníamos que aplicar nuestras políticas de contenido de forma reactiva». En los catorce años transcurridos desde entonces, la plataforma ha crecido a 2,2 mil millones de usuarios activos mensuales; hablan más de cien idiomas, cada uno con sus propias variaciones sutiles sobre discurso de odio, contenido sexual, acoso, amenazas de violencia y suicidio, y reclutamiento de terroristas. El tamaño e influencia asombroso de Facebook, admitió Zuckerberg, junto con una serie de escándalos de alto perfil, dejó en claro que «debemos asumir un papel más proactivo y una visión más amplia de nuestra responsabilidad». Se comprometió a contratar muchos miles de humano –revisores de contenidos de todo el mundo, pero parecía ver la inteligencia artificial como la última panacea. En total, pronunció la frase más de treinta veces.
Tarleton Gillespie, en su próximo libro «Custodias de Internet», explica cuál es la raíz del problema de Zuckerberg:
La moderación es difícil porque consume muchos recursos y es implacable; porque requiere distinciones difíciles y a menudo insostenibles; porque no está del todo claro cuáles deberían ser los estándares; y porque una falla puede causar suficiente indignación pública como para eclipsar un millón de éxitos silenciosos.
¿Podrán los valores del Director Ejecutivo superar los de un ingeniero o un usuario final? Si, como declaró Zuckerberg ante el Congreso, se aplica algún tipo de «normas comunitarias», ¿qué constituye una «comunidad»? Para Facebook en Iraq, ¿deberían ser los estándares kurdos o los estándares chiítas? ¿Y qué son exactamente los estándares sunitas? En Illinois, ¿deberían ser estándares rurales o estándares urbanos? Imagine tratar de responder estas preguntas a través de una plataforma tan amplia como Facebook. Imagine tratar de contratar, entrenar y retener a jueces de valor en lugares como Myanmar, donde la mayoría budista está librando una brutal campaña de expulsión y opresión contra los Rohingya, un grupo minoritario musulmán. Imagine encontrar moderadores para los once idiomas oficiales de Sudáfrica.
Contratar a más humanos, si son suficientes, no resolverá estos problemas, ni es probable que sea bueno para los mismos humanos. Sarah Roberts, investigadora de información en la Universidad de California, Los Ángeles, ha entrevistado a moderadores de contenido en todo Silicon Valley y más allá, y ella informa que muchos están traumatizados por la experiencia y trabajan por bajos salarios sin beneficios. Pero la solución de inteligencia artificial de Zuckerberg, que puede convertirse en una realidad «durante un período de cinco a diez años», es igualmente insostenible. Es como el yanqui de Mark Twain, Hank Morgan, engañando a la gente de Camelot con su «magia» tecnocrática. Pero, más importante, es también una expresión del tecno-fundamentalismo, la creencia inquebrantable de que uno puede y debe inventar la próxima tecnología para arreglar el problema causado por la última tecnología. El tecno-fundamentalismo es lo que nos ha llevado a este problema. Y es la forma incorrecta de sacarnos de él.
El principal punto de la moderación automatizada de contenido es que pretende eludir los dos obstáculos que frustran a los humanos: la escala y la subjetividad. Para una máquina que aprende de la experiencia histórica: «Este es un ejemplo de lo que queremos marcar para su revisión” la escala es una ventaja. Cuantos más datos consuma, más precisos se volverán sus juicios. Incluso los errores, cuando se identifican como errores, pueden refinar el proceso. A las computadoras también les gustan las reglas, razón por la cual la inteligencia artificial ha visto sus mayores éxitos en entornos altamente organizados, como los partidos de ajedrez y los torneos Go. Si combina reglas y mucha información histórica, una computadora puede incluso ganar en «Jeopardy!», Como lo hizo en 2011. Al principio, las reglas deben ser desarrolladas por programadores humanos, pero hay alguna esperanza de que las máquinas se refinarán, revise, e incluso reescriba las reglas a lo largo del tiempo, teniendo en cuenta la diversidad, el localismo y los cambios en los valores.
Aquí es donde la promesa de la inteligencia artificial se rompe. En el fondo, se parte de la suposición de que los patrones históricos pueden predecir con fiabilidad las normas futuras. Pero el pasado, incluso el pasado más reciente, está lleno de palabras e ideas que muchos de nosotros ahora consideramos repugnantes. Ningún sistema es lo suficientemente hábil como para responder a las variedades rápidamente cambiantes de expresión cultural en un solo idioma, por no hablar de cien. La jerga es fugaz pero poderosa; la ironía es lo suficientemente dura como para que algunas personas la lean. Si confiamos en la inteligencia artificial para escribir nuestras reglas de conducta, nos arriesgamos a favorecer esas reglas sobre nuestra propia creatividad. Además, pasamos la vigilancia de nuestro discurso a las personas que pusieron el sistema en movimiento en primer lugar, con todos sus sesgos y puntos ciegos incrustados en el código. Las preguntas sobre qué tipo de expresiones son dañinas para nosotros mismos o para otros son difíciles. No deberíamos pretender que serán más fáciles.
¿Cuál es, entonces, el objetivo del encantamiento de Zuckerberg con la inteligencia artificial? Para tomar la visión cínica, él ofrece una manera conveniente de diferir el escrutinio público: Facebook es un trabajo en progreso, y esperar a que se desarrollen las herramientas correctas requerirá paciencia. (Una vez que esas herramientas estén en su lugar, por supuesto, la compañía puede culpar cualquier metida de pata a los algoritmos defectuosos o datos incorrectos.) Pero Zuckerberg no es cínico; él es un tecno-fundamentalista, y ese es un hábito de la mente igualmente insano. Crea la impresión de que la tecnología existe fuera, más allá, incluso por encima de decisiones y relaciones humanas desordenadas, cuando la verdad es que no existe tal brecha. La sociedad es tecnológica. La tecnología es social. Las herramientas, como nos dijo Marshall McLuhan hace más de cincuenta años, son extensiones de nosotros mismos. Amplifican y distorsionan nuestras fortalezas y nuestros defectos. Es por eso que debemos diseñarlos con cuidado desde el principio.
El problema de Facebook es Facebook. Se ha movido demasiado rápido. Ha roto demasiadas cosas. Se ha vuelto demasiado grande para gobernar, ya sea por un grupo de humanos o un conjunto de computadoras. Para trazar el camino a seguir, Zuckerberg tiene pocas herramientas efectivas a su disposición. Debería ser honesto acerca de sus limitaciones, no solo por el bien de su compañía, sino por el nuestro.
Publicado en The New Yorker, 21 de abril 2018.