Reducir la inteligencia colectiva a procesos de decisión es simplificador (Entrevista a Ramón Sangüesa)

Share Button

ramon-sanguesa-2

Ramón Sangüesa es un viejo conocido de esta casa. Además de ser un amigo, sigo sus trabajos desde hace mucho tiempo, y aparece citado en varios de mis posts. Por presentarlo brevemente, es profesor de la universidad Politécnica de Catalunya (Inteligencia Artificial), Affiliate Researcher del Center for Organizational Innovation (Universidad de Columbia, NYC) y coordinador del consorcio Data Transparency Lab (datatransparencylab.org).

Esta conversación forma parte del seriado de entrevistas que vengo haciendo para el trabajo de campo del libro que escribo sobre Inteligencia Colectiva, así que pudiendo hablar también de muchos otros temas con Ramón, que es un conversador erudito, todas las preguntas que hago aquí se centran sólo en la temática de mi libro. Allá vamos:

Sé que abrigas cierto escepticismo respecto de cómo se usa el término “Inteligencia Colectiva”. Cuéntame tus dudas…

Estos días cuando oigo “Inteligencia Colectiva” en  alguna conversación mi reacción o bien es “ahí va otro buzzword de la Ideología Californiana” o “aquí tenemos al viejo tío Karl informatizado” o “mira qué formas tan cool que puede adoptar la dictadura”.  En fin, me pillas descreído. Las apelaciones a la inteligencia colectiva  proceden de varios campos de práctica y de diversas tradiciones pero oscilan entre una serie de mecanismos propuestos desde los núcleos de la ideología tecnológica dominante o desde sus oponentes. Esta coincidencia nos debería llamar la atención y llevarnos a una posición un tanto cauta o claramente escéptica, dados los actores que generan este tipo de retóricas. Desde hace tiempo, hay una continua apropiación, bastante ambigua, de conceptos de un lado y otro del espectro ideológico. No creo que el caso de la Inteligencia Colectiva sea una excepción. Al contrario merecería estudiarse en el sentido de apropiación de retóricas por parte de la élite.

Pero ese (intento de) “apropiación” se da en casi todos los campos, así que igual deberíamos defender cierta terminología en lugar de huir constantemente a crear nuevas con las que sentirnos cómodos, ¿no?

Esa apropiación y difuminado tanto de lenguajes como de campos es un mecanismo ubicuo y de una efectividad fascinante. Es la cabalgata triunfal de los nerds tecnocientíficos y tecnocapitalistas.

En torno a la Inteligencia Colectiva se ha creado un campo de atracción donde todos quedamos confinados al marco de discurso inicial. ¿Quién no se va a interesar por conseguir “grupos de individuos que actúan colectivamente de manera que parece inteligente” con la de problemas que tenemos como sociedad?. Pero convendrás que es una estrategia bien antigua ésta de fijar de entrada el marco en la manera que más conviene a un grupo de interés. Y sirve para casi todo: democracia, producción, creación de conocimiento, investigación …

Tomamos sensores, sistemas informáticos y veamos cómo conectarlos para que sean más inteligentes. En este ámbito se maneja de forma preponderante el concepto de inteligente como toma de decisión y autonomía. Lógico, lo técnico informacional no se escapa a la metáfora de su nacimiento: el bucle de feedback para el control de realidades y sistemas cada vez más complejos y variados. Ya lo extrapolamos a colectivos no técnicos, grupos humanos, por ejemplo, pero no nos quedamos ahí, nos envalentonamos con  los resultados sobre sistemas técnicos y vamos a por el resto del mundo.

Me ronda como un rumor travieso pensar que se pueden manejar muchos otros conceptos de inteligencia, individual o colectiva. Pero que no aparecen en los relatos de la “inteligencia colectiva”. A bote pronto se me ocurre que eso se debe a una pura comodidad de ajuste al marco informacional.

¿Pero dónde crees que están las limitaciones del enfoque tecno-racional con que se intenta interpretar el comportamiento colectivo humano?

Para empezar, como digo, el concepto de inteligencia que se maneja recuerda mucho al que se usa en inteligencia artificial y en teoría del actor racional en economía. No es extraño, dado que uno de los padres fundadores de la IA, Herbert Simon, es bien conocido por este enfoque. No es casualidad que recibiera el Premio Nobel de Economía por su trabajo en el área de la decisión y el actor racional. A grandes rasgos ese actor racional tiene objetivos, actúa para llegar a ellos y sigue un camino que va conformándose con sucesivas  decisiones, vistas como la selección entre varias alternativas posibles. Cuando en vez de un agente tenemos varios o muchos, entramos en el comportamiento (inteligente) colectivo. Y aquí se abre la caja de los truenos…

¿Cómo sabe un agente cuáles son los objetivos, preferencias y utilidades de los otros agentes? ¿Cómo realiza un “guessing”? ¿Sólo interactuando con los otros agentes? ¿Quién, cómo y cuándo decide que debe renunciar a sus objetivos a favor de la acción del grupo? En suma: ¿cómo surge una coreografía de la decisión que alguien pueda llamar inteligente? Otra cuestión es quién y cómo decide: ¿Deliberando con los otros? ¿Sopesando pros y contras (utilidades mayormente)? ¿Cómo se articula esta deliberación? ¿Qué coste tiene?

Tanto Tom Malone como otros proponentes de la inteligencia colectiva justifican su interés como una aproximación entre personas y máquinas para resolver problemas. Esto retoma las propuestas de Douglas Engelbart para construir inteligencias colectivas híbridas  a partir de sistemas computacionales. Estudiar y avanzar en estas cuestiones desde este marco informacional y de rendimiento ha llevado a la igualación –vía tratamiento de la información- de la consideración de los  agentes humanos y no humanos (que, por el momento, tienen competencias y capacidades bien diferentes).

Me has insistido a menudo que reducir la inteligencia colectiva a procesos de decisión te parece una simplificación útil pero excesiva, ¿por qué lo dices?

Sí, parece que cerramos el marco de discurso a una caracterización de inteligencia basada en evaluar la toma de decisiones de una entidad (persona o grupo) a partir de información. Pero los componentes colectivos van mucho más allá de la simple decisión conjunta o de la agregación de decisiones que es más típica del mainstream de la inteligencia artificial y colectiva. Tendríamos, por ejemplo, inteligencias basadas en procesos de deliberación conjunta o de aprendizaje que no son fáciles de caracterizar como una decisión o cadena de decisiones.

También podemos recurrir a otras tradiciones para desenterrar otras formas de caracterizar la inteligencia. La etimología nos echa una mano ahí: “inter-legere”,  del latín, es tanto “saber escoger” entre alternativas (opción mainstream de la definición de inteligencia) como saber “leer entre líneas”. Esto es, saber interpretar, que supone una mirada atenta a una realidad compleja.

La visión de la inteligencia como proceso dialógico también tiene su tradición y su interés. Ahí lo inteligente surge del diálogo entre personas. Es curioso, como ya notó Unamuno el siglo pasado, que en catalán “hablar” se diga “en-raonar”, esto es: razonar juntos.  Me ha hecho mucha gracia leer en el libro de Sandy Pentland “Social Physics” que ha descubierto el papel del diálogo en el comportamiento inteligente de un grupo después de estudiar exhaustivamente las pautas de comunicación entre sus miembros y el efecto que el diálogo tiene en lo que él llama el “coeficiente intelectual del grupo”.

Si reducimos la inteligencia a la conducta observable ante una decisión nos perdemos todo el camino de la conversación interna o conjunta que lleva a ello y el conocimiento que se va acumulando en ese camino. Tú que estás en el Design Thinking sabrás que el “problem solving” va después del “problem framing” ¿no sería esta fase más inteligente? Por todo eso me daría con un canto en los dientes si supiera de un concepto de inteligencia colectiva que fuera más amplio que el del agente racional.

Como bien sabes, Thomas Malone, Director del MIT Centre for Collective Intelligence, define la inteligencia colectiva así: “Grupos de individuos que actúan colectivamente en una forma que parece inteligente”. Esa definición se nos queda vacía porque… ¿qué es “(no) parecer inteligente”? ¿qué es “actuar colectivamente”?

Respecto a esa definición, me resulta un criterio problemático, como algunos similares que se usan para caracterizar la inteligencia humana o el concepto mismo de “inteligencia artificial”. ¿Quién es quien decide que la acción de un grupo de individuos “parece inteligente”? Es más. ¿quién y por qué decide con su mirada aislar el grupo, ese grupo y no otro? ¿cómo sabemos si esos individuos se sienten parte del grupo o no? Etc, etc. ¿No crees que en todas estas aportaciones hay una mirada que “in-forma” (da forma) al grupo?

Me llama la atención, por ejemplo, la lasitud con la que la mayoría de proponentes de la inteligencia colectiva se mueven al hablar de la “dimensión colectiva”.  Como mínimo he detectado las siguientes denominaciones usadas casi de forma intercambiable: grupo, colectivo, multitud (crowd), equipo, sujeto colectivo, masa, etc. En cambio, son conceptos muy distintos con sólo atender, por ejemplo, a los siguientes aspectos: número de individuos que conforman la agregación, grado en que cada individuo dice participar en la agregación, grado de identidad (autoimagen) entre individuo y agregación, reconocimiento y aceptación o no de una identidad y subjetividad colectiva única. Es un ejercicio curioso revisar la definición de “masa” de Elias Canetti, la de “multitud” de Toni Negri y Antonio Hardt y luego releerse algún paper de “collective intelligence” o de dinámica de grupos y equipos. Uno tiene la impresión que se nos pierde algo en el camino.

¿Qué opinas de la posibilidad de generar “inteligencia colectiva” sin que haya colaboración, ni interacción directa, entre los miembros del grupo?

Para empezar, ¿qué entiendes por “interacción directa”? ¿Un paso de mensajes? ¿Hay que considerar ahí sólo la comunicación de intenciones, objetivos, para coordinarse o para colaborar? La colaboración no implica comunicación, como saben los que hayan trabajado en robótica distribuida. Cuando menos, no necesita paso de mensajes: actuar sobre el entorno es una manera de comunicarse con los otros (véase variantes de la “Estigmergía” o varios trabajos de Luc Steels, por ejemplo). Por tanto nuestros usuarios pueden perfectamente realizar una tarea inteligente –si la agregación de información lo es- sin comunicarse directamente con el mismo lenguaje, sintaxis y protocolos que utilizan para otra colaboraciones más explícitas y mutuamente reconocidas.

Hablando de su contrario, la “estupidez colectiva”, ¿Cómo la definirías? Desde mi experiencia, es extremadamente difícil fijar un marco de referencia que ayude a discernir qué es “estúpido” o “sabio” colectivamente. Pensemos, por ejemplo, en el caso de Trump…

En principio, una definición clásica y basada en el paradigma más sencillito de la inteligencia basada en información nos diría que lo estúpido sería el caso en que la acción que toma el agente va contra los objetivos del agente inteligente. Pero, ¿Cuáles son los objetivos del grupo? ¿Se explicitan o son la agregación de los objetivos de los agentes?

También habría que preguntarse sobre quién se atribuye poderes para decir que un grupo es inteligente o estúpido: ¿quién te legitima a ti (o a mí) para tener la arrogancia de saber qué es lo mejor para un grupo a raíz de los resultados de un mecanismo de agregación sencillo (y bastante opaco para el observador) como es, por ejemplo, la votación? Por cierto, ¿qué quiere decir “intereses”? En el marco de la teoría del agente racional hay objetivos, utilidades y preferencias. Todos ellos son opacos para el resto de agentes, que sólo podemos adivinarlos por las decisiones y acciones de los otros con un gran riesgo de equivocarnos. ¿Desde qué posición podemos arrogarnos semejante clarividencia?

Ahondemos un poco más en el caso de Donald Trump, sobre el que ya hemos hablado tú y yo: ¿Qué estamos haciendo en realidad cuando votamos a un candidato? ¿Sólo velamos por nuestros intereses? ¿Apostamos a que llevará a todo el grupo mejor que otros candidatos aunque vaya contra nuestros intereses?. ¿O proyectamos frustraciones y votamos a partir de eso? ¿Nos movemos en el ámbito de la decisión racional?

En tu opinión, ¿por qué tenemos tan pocos casos de éxito (Wikipedia, Linux) de proyectos de Inteligencia Colectiva basados en la colaboración a gran escala? ¿Crees que es viable la colaboración a gran escala?

Defíneme “éxito”. ¿En qué sentido Wikipedia y Linux son éxitos? ¿Por qué? ¿Cuál es el criterio? Me parecen ejemplos notables de colaboración pero, insisto, ¿qué quiere decir “éxito”?  ¿Y por qué consideras que son proyectos de inteligencia colectiva? Lo que caracteriza a Unix y a Wikipedia es su estructura de decisiones sobre sus procesos de producción… ¿o es el hecho de que sean entornos de producción colaborativa?

Admitiendo ese criterio velado de éxito que viene a ser  el de “sostenerse en el tiempo”, creo que  la causa de tantas “muertes” de proyectos son múltiples y muy variadas. Entiendo tu preocupación por los factores de diseño que pueden llevar a que un mecanismo que funcione con una cantidad de agentes falle cuando se intenta aplicar a un volumen alto de individuos, pero no sé si todos se reducen a los costes de coordinación. De todas maneras, la sostenibilidad de uno u otro modelo creo que tiene mucho más que ver con la estructura de incentivos para los participantes a lo largo del tiempo. Y, ciertamente, ese es un aspecto del diseño de mecanismos.

Un debate clásico en este ámbito es si se puede prescindir de los expertos  y confiar en la opinión colectiva (el “crowd”) para cualquier tema: ¿Cuándo es mejor confiar en la sabiduría colectiva y cuándo en la opinión informada de los expertos?

Cabría introducir en la discusión la dimensión de la responsabilidad. Los expertos son muy útiles para transferir la responsabilidad de la decisión a “los que saben”. Esto es, tecnificamos todos los problemas para desentendernos de nuestra decisión, cuando alguien nos ha otorgado la capacidad y obligación de decidir por nosotros y para otros (Ulrich Beck da mucho de sí aquí). Dicho de otra forma, “escógeme el resultado que quieres y te buscaré los expertos que necesites”.

Pero este es un trampantojo cada vez más conocido. Por lo tanto es más cool y democrático, transferir a la multitud las cuestiones de decisión que o bien requieren valentía o bien requieren un refinamiento y un largo tiempo de práctica. Porque somos cobardes y no queremos asumir nuestra responsabilidad ante nuestra falta de competencia y conocimiento, ni nuestra obligación de decidir. Ahora, además, amplificamos la cuestión, si la decisión no se revela como correcta, es problema de la multitud que ha decidido. ¿Qué mecanismos de transferencia de responsabilidad están operando aquí? ¿Por qué? ¿Por qué ahora? ¿Por qué con estos dispositivos informacionales? ¿Y qué garantías hay de que una plataforma de inteligencia colectiva no operará según los intereses/preferencias/objetivos de sus diseñadores? ¿Estamos transfiriendo los mecanismos de sesgo de las decisiones individuales y su agregación desde los “media” a las plataformas de decisión colectiva?

Claro que también podríamos ser mal pensados y creer que el mismo poderoso que encarga trabajos a expertos para justificarse …. puede lanzar una consulta externa sobre una plataforma de inteligencia colectiva “bien diseñada” para abrirse a otras preferencias, aceptarlas y legitimarse. Llámame paranoico si quieres pero he visto cosas en sistemas colectivos que no creerías.

A propósito de las consultas colectivas, que están tan de moda, ¿crees que tiene sentido pedirle a la gente que opine/decida sobre algo que le afecta pero que (por la complejidad del asunto) no sabe cómo le afecta?

Si le afecta, debería tener voz. Por otra parte, ¿Cómo sabes que algo es demasiado complejo para alguien? Me parecen preguntas muy necesarias y presunciones ética y políticamente muy pegajosas las que se plantean aquí.  ¿Vamos a replicar el discurso de Platón en la República? ¿Quién debe decidir quién es el que sí que entiende? ¿Utilizar la “inteligencia colectiva” para imponer la dictadura de los nuevos expertos?

Sin embargo, a veces da la impresión de que las consultas colectivas tienden a generar soluciones previsibles y al aplanamiento mediocre de las ideas: ¿Será que la innovación radical es incompatible con la Inteligencia Colectiva?

No necesariamente. Recuerda resultados de elecciones bien sorprendentes, por ejemplo. En cualquier caso puede ser útil recordar que hay fases bien distintas en los procesos que tú mismo has recordado en la reflexión que hicimos juntos. Fases en que se buscan cosas distintas y suceden cosas diferentes.

Por ejemplo, en la fase generativa, como bien apuntas, lo que sucede es que aparecen ideas que no habíamos anticipado porque alguien se sale de su marco “experto” de práctica y no siente las limitaciones habituales en la construcción de alternativas. En la fase selectiva es donde casi siempre he visto que se tiende al punto medio y se eliminan las propuestas más arriesgadas. Tanto si es por votación como por otro mecanismo de agregación o incluso por justificación deliberativa ante el grupo, la tendencia es irse “al centro”. Depende de la cultura del grupo pero en general, la gente se retrae de ser demasiado atrevida, reprogramando ante el grupo su preferencia por las ideas más ex-céntricas con las que ha contribuido en la fase generativa. Lo he visto tantas veces  en talleres de co-creación que ya no me sorprende. Aquí es donde alguien con criterio y poder de decisión puede marcar la diferencia. En el caso de los talleres, un participante con valentía o con poder, o un facilitador sin complejos.

Por terminar, Ramón, ¿las críticas más legítimas a la “inteligencia colectiva” indican un fallo estructural, que la hacen una aspiración utópica e inviable, o carencias de diseño que podemos resolver con una mejor gestión?

Yo creo que no se trata de una cuestión utópica sino muy prosaica. Aparentemente responde a una democratización de la colaboración. La pregunta sobre la mejora de los rendimientos colectivos creo que tiene su interés. Y el peligro de manipulación es bien presente.

Dicho esto me inclino más a pensar que es un problema de diseño de incentivos conjuntado con mecanismos de comunicación y coordinación que pueden tener su límite de eficiencia ante la decisión. Pero a lo mejor el problema es igualar “inteligencia” a “decisión”.

NOTA: Si quieres leer otras entrevistas de este seriado, aquí tienes estos tres enlaces:

Participación genuina e Inteligencia colectiva (Eugenio Moliní)

Blockchain y las herramientas cívicas digitales incorruptibles (Santiago Siri)

La inteligencia colectiva como un desafío de diseño (Gonzalo de Polavieja)

Nota:  Si te ha gustado el post, puedes suscribirte para recibir en tu buzón las siguientes entradas de este blog. Para eso solo tienes que introducir tu dirección de correo electrónico en el recuadro de “suscribirse por mail” que aparece en la esquina superior derecha de esta página. También puedes seguirme por Twitter o visitar mi blog personal: Blog de Amalio Rey.

 

 

 

Share Button

One Comment

  1. Pingback: Reducir la inteligencia colectiva a procesos de...

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*