El algoritmo y yo…

 



Busco en la wikipedia el significado del término “un algoritmo (del latín, dixit algorithmus y este del griego arithmos, que significa «número»... es un conjunto de instrucciones o reglas definidas y no-ambiguas, ordenadas y finitas que permite, típicamente, solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas o actividades.​ Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia.” Líneas más adelante, señala que sin embargo esta definición no es unánime ya que no necesariamente el número de pasos es finito, sino que puede haber algoritmos infinitos.

De acuerdo, podemos simplificar diciendo que es una ecuación o conjunto de ellas que partir de determinados datos, produce una solución.

Un apreciado amigo psicoanalista, Néstor Braunstein, nos comparte una anécdota interesante que resumo. Interesado en suscribirse a un periódico, procede al llenado en línea de la forma de suscripción, uno de los items pide “estado civil”, selecciona “viudo”. Hace la suscripción y momentos después en su navegador aparece un anuncio que promueve citas con mujeres en Barcelona. El algoritmo ha detectado “viudo”, “Barcelona”, y propone “conocer mujeres en Barcelona”.

Algo similar me ha pasado y lo aprovecho con fines cómico-criticos. En mi perfil de Facebook aparece mi estado civil (divorciado) y también aparece que no hay información de mi situación sentimental, pero no me aparecen anuncios para conocer mujeres, sino sugerencias de perfiles de amistad que “puedo conocer”. Extraño, porque en mi perfil solo pueden contactarme y ver mi perfil “amigos de amigos”, lo segundo que me llama la atención es que ninguna de esas personas y yo tenemos amigos en común, por lo que, al menos en teoría, no deberían poder contactarme ni aparecer como sugerencias.

Dije que era “lo segundo que me llama la atención” porque lo primero, es que se trata de fotografías de mujeres (muchas de ellas jovencitas) en ropa interior y algunas prácticamente desnudas. Incluso en una ocasión Facebook bloqueó mi perfil por tres días, por publicar la foto de la persona que el propio Facebook me había sugerido, ya que se veían sus pezones. Todos los perfiles son muy similares, solo fotografías semidesnudas y, como lugar de trabajo, aparecen cosas como “Independiente”, “Facebook app” o similares. No hay que pensar mucho para darse cuenta de que se trata de sexoservicio. La lógica algorítmica parece ser que un hombre maduro, divorciado y sin una relación de pareja estará “interesado en sexoservicio”.

De pronto, el algoritmo deja de producir estas sugerencias y ahora en el borde derecho (donde generalmente aparece publicidad) aparece un anuncio de una página gay. Parece que, al no responder a los perfiles de chicas, el algoritmo hubiera cambiado el “output” por “gay”…

Algo parecido me ocurrió hace algunos años, cuando luego de compartir post que hablaban sobre los derechos de las comunidades LGBT, me empezaron a aparecer anuncios que promocionaban una app como AirBnB solo que para personas gay o “cruceros gay” “para gente como yo” Ambos acompañados de fotos de unos tipos mamados.

Puedo argumentar sobre la política de Facebook y su doble moral, que censura “malas palabras” como “pinche”, “imbécil”, etc. o censura obras de arte como “el origen del mundo” de Couvert, o incluso desnudos antropológicos, como una vez que publiqué un vínculo a un artículo universitario sobre el genoicidio Shelknan en el siglo XIX, y que estaba ilustrado con fotografías de los indígenas desnudos; pero parece promocionar abiertamente perfiles de personas que se dedican a la prostitución.

Sin embargo, esto va más allá, y sirve para cuestionar lo que podemos llamar (al menos en este nivel) la inteligencia artificial que el algoritmo lleva implícita, resulta claro que tal “inteligencia” es algo enormemente limitado que se reduce a un circuito de identificación de palabras.

Esto me lleva a un artículo de Frenando Santillanes publicado en Milenio (Acá el link) donde planteaba la angustia de algunos mercadólogos por ser desplazados ante estas “inteligencias artificiales” que podían elegir casi quirúrgicamente los destinatarios de la publicidad; sin embargo, y bien aclara Santillanes, el asunto no es tan sencillo y lo ilustra con casos reales.

Resulta que el periódico inglés The Guardian, y muchas marcas como AT&T, Verizon, Mc Donalds y Loreal, deciden retirar su publicidad de Youtube ya que su publicidad empezó a aparecer en videos que promovían el racismo, xenofobia e incluso el terrorismo y demás discursos de odio. Curiosamente esto era porque las marcas coincidían con el objetivo, “target”, de quienes se identificaban con los discursos de odio. Una publicidad que nadie (en su sano juicio) quiere tener. Youtube decidió entonces dejar de usar su algoritmo de manera ciega y poner a personas a hacer una revisión de los resultados. Algo que, al menos desde mi punto de vista, Facebook no ha hecho, o solo lo ha hecho de modo muy deficitario. Pues constantemente aparecen no solo estas “extrañas sugerencias” como les llamo, sino multitud de anuncios falsos con “ofertas ganga”, “scam”, etc.


Comentarios

Entradas populares de este blog

Perversión ¿Síntoma o estructura"

La tuya en vinagre...

Schreber, los archivos de la locura