La alfombra de Meta

La alfombra de Meta

¿Quién no ha escondido alguna vez esas últimas pelusas que no suben al recogedor bajo la alfombra? Especialmente en nuestras cabezas. Eso de «ya lo pensaré mañana» es una forma de meterlo bajo la alfombra con la esperanza de que ahí desaparezca. Todos tenemos alfombras, Meta y cualquier red social también tiene una importante: la de los moderadores.

Por si no lo sabéis, Meta (Instagram/Facebook/Threads/Whatsapp…) tiene todo un equipo de miles de personas revisando la mayor parte del contenido que se sube. Filtrando lo que infringe sus reglas, eliminando contenido erótico, violento, pornográfico, delictivo… Miles de PER-SO-NAS humanas viendo diariamente cientos de videos que ningún ser humano normal debería ver. Contenidos que, por extraño que nos parezca, la gente sube a redes.

No es un trabajo fácil

Puedes estar muy preparado psicológicamente para ver ciertas imágenes, tener una integridad mental a prueba de bombas pero cuando entre 300 y 400 veces al día ves basura que haría vomitar o llorar a gente normal, esa integridad se va minando. Las bajas por depresión y ansiedad en esos entornos, o los abandonos directamente del trabajo, son frecuentes.

En este artículo de El País de hace ya un tiempo se relatan las circunstancias en las que trabajan empleados que se encargan de mantener limpias la redes de meta de ese contenido deplorable. Que tú puedas pasear por Instagram viendo Reels de gente bailando en la cola de la montaña rusa y el siguiente video no sea el de un adolescente pegándose un tiro en la cabeza.

Quien ve ese video, para eliminarlo, debe verlo entero y decidir si debe dejarlo o no. Quizás no se llegue a ver el disparo. ¿Es suficiente para eliminarlo? Esas decisiones pesan sobre la conciencia de esas personas que, día tras día, los ven. Y obviamente no los pueden comentar.

Además, estas bajas ni siquiera se consideran, o se consideraban, enfermedad laboral. Las bajas por enfermedad mental siempre son enfermedad común porque no se acepta que un trabajo pueda ser el único responsable. Y esto lo sé por experiencia propia. Siempre se considera que hay más causas que el trabajo, por mucho que fuera de él no tengas ningún problema o que, como en el caso de Meta, estas personas entraran totalmente sanas emocionalmente y el trabajo las haya hundido. Peleando están los trabajadores por cambiar esto y ojalá lo consigan.

Meta alega que existen médicos de apoyo y que las bajas se está reduciendo, pero claro, no pueden decir otra cosa y, no nos engañemos, ese trabajo es necesario y alguien debe hacerlo. Sólo pueden apoyarles y ayudarles en la medida de lo posible.

Meta tiene el trabajo perfecto para una Inteligencia Artificial

Y aquí es donde entra en juego hablar de Inteligencia Artificial. Nadie habla claro pero, por lo que insinúan algunas fuentes con toda la precaución del mundo por las cláusulas de confidencialidad leoninas a las que están sometidos, parece que algunos grupos están sirviendo de aprendizaje para modelos de IA especializados en este tipo de filtros. Enseñando los horrores de los que son capaces algunos seres humanos para que aprendan a distinguirlos y eliminarlos sin intervención humana.

Si esto llega a funcionar, que estoy convencido de que sí, por supuesto que caerán muchos puestos de trabajo dedicados a esta labor. Habrá quien se plantee que es un desastre para todos esos profesionales, habrá quien piense que nadie debería trabajar en eso y que será una gran liberación. Yo me posiciono claramente en el segundo grupo.

Siento si Meta anuncia algún día, dentro de no mucho tiempo, que despide a unos cuantos miles de empleados encargados de la moderación de contenidos y se queda sólo con un pequeño porcentaje. Los suficientes para seguir formando a la IA, tomando decisiones finales si alguien reclama un error en la moderación y cosas así.

Es tan lógico que desparezcan estos trabajos como los catadores que probaban la comida antes que el rey para ver si estaba envenenada. O que los especialistas en desarmar explosivos sean sustituidos por robots controlados a distancia. Son trabajos que es mucho mejor que hagan máquinas.

Veremos caer estos puestos de trabajo, sí, pero también veremos disminuir la gente hundida por ver lo que nadie debería ver.

No será perfecta

Ya te conté la semana pasada hablando del reconocimiento facial que estos algoritmos no serán perfectos nunca. Siempre habrá casos en los que requieran intervención humana para ser o no eliminados. O incluso si debe denunciarse al autor del video. Sin duda esto se debe ir ajustando poco a poco.

Los generadores de imágenes interpretan ciertas peticiones de forma que no generan las imágenes porque consideran que buscas un resultado violento o sexual. ¿Es violente dibujar una pistola humeante en una mesa, sin sangre ni muertos alrededor? Sólo esa imagen. Algunos motores no lo consideran violencia, otros sí. Cuestión de subir o bajar el potenciómetro que marque el nivel del filtro. O de pasarlos por una criba humana.

No será perfecta pero Meta, y cualquier red social, necesita un ejercito de inteligencias artificiales para luchar contra la maldad intrínseca a muchos seres humanos, desgraciadamente. No seré yo quien me queje de esos despidos y espero que los que salgan por esa puerta lo hagan en el mejor estado posible y encuentre un trabajo mucho más humano pronto.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.