Inteligencia artificial: vivimos en un falso directo
Carta del director ·
«Hay robots que, como máquinas perfectas en el arte de la retórica, nos van a querer convencer de pedir, de comprar, de apoyar, de rechazar, de creer, de desconfiar, de odiar, de desear, de aborrecer…»El siguiente párrafo está extraído del libro 'Contra la tercera España', de Armando Zerolo, presentado en Valladolid la semana pasada en un acto celebrado ... en el Círculo de Recreo: «La opinión pública es tan frágil como la libertad y, por ello, debe ser regulada, controlada y protegida. Lo más valioso es lo más frágil, como una flor en un jardín. Y no hay nada más frágil que la libertad. Esto es lo que no entienden los anarquistas. La libertad no se impone por sí misma, sino que es el resultado de un humus complejo que presupone un orden. Si se prescinde del jardinero, nacen los cardos y mueren las rosas. La vida política es un jardín aún más frágil que el botánico y, como él, necesita de un cuidado constante. Hoy florecen cardos por doquier en la plaza pública y, en nombre del liberalismo, hace falta arrancarlos sin miramientos». Así, sin contexto, puede parecer demasiado tajante, hasta agresivo. Pero este profesor de Filosofía y Derecho no habla de marcos legales ni censuras, se refiere al efecto destructivo de las redes sociales y el salvaje mundo digital del anonimato. No le falta razón.
Rescato sus palabras porque esta semana la arrancamos con otra inquietante noticia para nuestra salud democrática, que redundará en una mayor fragilidad de nuestra opinión pública: «Un nuevo estudio publicado en 'Nature Human Behaviour' revela que los modelos de inteligencia artificial como GPT-4 son sorprendentemente persuasivos en conversaciones directas, superando a los humanos en debates online, especialmente cuando tienen acceso a información personal básica de sus oponentes». Así resumía la publicación especializada 'Wired' esta investigación. De un modo u otro, todos los medios de comunicación reflejamos en nuestras páginas, analógicas y digitales, la misma información. Y yo recordé una frase que escuché decir a alguien muy cercano a mí hace muy poco respecto de sus tres hijos adolescentes: viven en un falso directo. Así es. Cada vez vivimos más en un falso directo. Es decir, en un realidad de apariencia humana, pero guionizada, condicionada y anticipada por nadie sabe muy bien qué propósitos ni intereses. Ni con qué criterios o reglas.
Debido a la velocidad con que perfeccionan los nuevos modelos de lenguaje artificiales entrenados con cantidades ingentes de información (GPT-NeoX, Bloom, LLaMA, Falcon, Mistral, Mixtral o Flux, por ejemplo), el problema comienza a ser inabarcable, temible a una escala desconocida, con consecuencias impredecibles y, en todo caso, poco o nada halagüeñas. Porque ya no se trata de detectar bulos o mentiras, protegerse de intoxicaciones como la que destacaba el jueves en su titular de portada El Confidencial («Seguridad Nacional identifica a Rusia tras toda la desinformación sobre la tragedia de la dana»). Hablamos del manejo de otro ámbito significativamente más sofisticado y crítico, el de la conversación humana. Estos algoritmos, que se cuelan en cada vez más canales de contacto y comunicación cotidianos, no solo podrán ayudarnos a aprender, a obtener información o a resolver problemas o tareas más o menos rutinarias. Hay robots que, como máquinas perfectas en el arte de la retórica, nos van a querer convencer de pedir, de comprar, de apoyar, de rechazar, de creer, de desconfiar, de odiar, de desear, de aborrecer… Ya lo están haciendo, seguramente.
En 2016 guardé dos fotos que, en cuanto las vi, identifiqué como proféticas. Me llamaron poderosamente la atención, dicho sea de paso. Las recupero de vez en cuando para demostrar que hace mucho que se sabe que pasaría esto que nos pasa. Y nadie ha hecho nada. La primera es de Mark Zuckerberg, dueño de Instagram y Whatsapp, entrando en una sala de conferencias llena de público. Todos con unas gafas de realidad virtual menos él. La segunda es de Hillary Clinton, candidata demócrata a la presidencia de los Estados Unidos, en un acto político. Decenas de jóvenes se hacían a la vez un selfie con ella dándole la espalda. Fueron dos instantes en los que se mostraba la multirealidad individualizada que ha hecho desvanecer el debate social, la conciencia colectiva y el discurso público. Solo los fotógrafos de las instantáneas estaban viendo lo que realmente pasaba... A partir de ahí, inocular bulos, memeces y todo tipo de basura intelectual en mentes aisladas y desprotegidas es coser y cantar. Especialmente cuando hablamos de niños y adolescentes. Lo siguiente, en lo que ya estamos, es un cambio profundísimo: el cambio de impactos unidireccionales, a través de redes sociales o cualquier otro medio, por relaciones argumentativas. Es como cambiar un buzón lleno de publicidad por una persona que a cada poco llama a tu puerta, le tienes que abrir, sabe mucho de ti y debes esperar que te acabe convenciendo de lo que sea en un alto porcentaje de ocasiones: contratar un seguro, comprar un aspirador, integrarte en una secta o votar a un partido político. Eso por ahora. Lo previsible es que los porcentajes de éxito de las herramientas de inteligencia sintética sigan aumentando. Los autores del estudio instan a investigadores y plataformas en línea a «considerar seriamente la amenaza que suponen los modelos de lenguaje artificial que alimentan la división y difunden propaganda maliciosa y a desarrollar las contramedidas adecuadas». Nadie les va a hacer caso.
¿Tienes una suscripción? Inicia sesión