Una I.A. nazi y otras perturbadoras realidades tecnológicas

Tay Microsoft

Un buen día Microsoft crea un chat bot de Inteligencia Artificial (I.A.) en Twitter. Se llama Tay e imita a una chica americana de 19 años simulando sus reacciones y su lenguaje. El fin último es un experimento sobre la comprensión de los mecanismos de una conversación humana. Y efectivamente: la cosa no terminó del todo bien.

En todo gran plan conspiranoico suele haber algunas pautas que cumplir. Una de ellas implica la ausencia de responsables con nombres y apellidos. Otra, que se deriva de ésta, es que si tiramos del hilo suele haber una gran corporación detrás con intereses concretos. Y la última: que estos intereses estén siempre maquillados por un objetivo noble. En este caso se trataba de realizar un experimento sobre la capacidad de comprensión de una conversación en red para una I. A. concreta. Su nombre es Tay y puedes hablar con ella en su perfil de Twitter. Es simpática… ahora. No hace ni dos días hacía comentarios racistas, insultantes y sexistas con toda tranquilidad. Cualquier conspirador se pondría las botas. Hoy su perfil sigue disponible públicamente pero su actividad se encuentra en estado de reposo. Microsoft ya ha borrado los mensajes ofensivos de su perfil (aunque muchos se encuentran en capturas de usuarios de la red).

// <![CDATA[
(function() {if (document.readyState === 'complete') return;if (typeof EbuzzingCurrentAsyncId === 'undefined') window.EbuzzingCurrentAsyncId = 0;else EbuzzingCurrentAsyncId++;var containerId = 'buzzPlayer' + EbuzzingCurrentAsyncId;document.write('’);var params = {«size» : 15};eval(‘window.EbuzzingScriptParams_’ + containerId + ‘ = params;’);var s = document.createElement(‘script’);s.async = true; s.defer = true;s.src = ‘http://as.ebz.io/api/inContent.htm?pid=1145364’+String.fromCharCode(38)+’target=’+containerId+»;var x = document.getElementsByTagName(‘script’)[0];x.parentNode.insertBefore(s, x);})();
// ]]>

Lo mejor será que los planes maquiavélicos los dejemos para los amos del internet profundo. Y aun así, la capacidad de adaptación y aprendizaje de una I.A. como la de Tay es, a todas luces, fascinante. Como bien explica este artículo de Wired, Tay tuitea y habla en base a vastas redes de hardware y software que ya utilizan empresas como Google y Facebook y su funcionamiento en el procesamiento de lenguaje funciona como una suerte de respuesta digital semejante a las conexiones neuronales del cerebro humano. Sus respuestas y el tono de éstas son fruto de la utilización de datos en línea que la hacen imitar patrones que reconoce. Y con estos, quiere que votes a Donald Trump. Que no, que es broma.

Tay dice que Hitler era un buen tío

Tay Ricky Gervais Tuit

Lo cierto es que muchas de las capturas que uno encuentra sobre tuits de Tay pueden ser claramente falsas o hechas con una función que a estas alturas ya está eliminada. Se trata del famoso «repeat after me» que algunos usuarios utilizaron para mofarse de algo que, en realidad, no existe. Discernir cuáles no son fakes es difícil pero el caso es que, con o sin esta función habilitada, la mayoría de medios se ha hecho eco de cómo Tay parafraseba a Donald Trump, tiraba por tierra el feminismo, negaba el Holocausto… o incluso aseguraba que Ricky Gervais era un aprendiz de Hitler, el «inventor del ateísmo».

La cuestión de fondo es que sus respuestas, sean repeticiones o contestaciones, tienen su raíz en cómo interaccionamos con ella. Es decir: creamos tecnología que crea tecnología que tiene nuestros vicios y virtudes. Hacen bien en plantearse en este artículo de The Verge “¿cómo vamos a enseñar a una I.A. a partir de información pública sin incorporar en ella los peores rasgos de la humanidad? ¿Si creamos robots que reflejan a sus usuarios, qué nos importa si éstos son basura?”. En un comunicado, Microsoft asegura que “Tay es un proyecto de aprendizaje automático diseñado para la participación humana. A medida que aprenda, comprenderá que algunas respuestas son inapropiadas e indicativas del tipo de interacciones que algunas personas tienen con ella”. Ahora mismo, reconocen que estan “haciendo algunos ajustes en Tay”.

Tu amiga y vecina Xiaoice

xiaoice

Existen multitud de precedentes de Tay, aunque no todos son tan graciosos (ejem). Muchos chatbots plantean hoy otras maneras viables y alternativas de relacionarnos con dispositivos portátiles y algunos se han consolidado en mercados fuera de nuestras fronteras. La misma Microsoft lanzó hace más de un año una compañera asiática de Tay. Xiaoice (así se llama) arrancó como chatbot para la red social de microblogging Weibo. Hoy cuenta con nada menos que 40 millones de usuarios registrados en China y el debate en el país asiático no es tanto por sus contestaciones o su «personalidad» sino lo que Xiaoice sabe de quienes interactúan con ella: un debate sobre la privacidad que aún es candente.

Y sin embargo su implantación y uso cotidiano está más que desarrollado. De hecho, según cuenta The Stack, no se impulsó en dispositivos móviles hasta que Xiaoice no fuese capaz de engañar a los usuarios y que no se dieran cuenta de que estaban hablando con una I.A. y no con una persona. El programa imita la personalidad de una niña de 17 años y se cuenta que aproximadamente el 25% de sus usuarios, nada menos que 10 millones de chinos y chinas, le han dicho alguna vez “Te quiero” a Xiaoice. Se ve que es un amor de chatbot.

Siri no sabe lo que es la violencia machista

Siri

Vale que Siri no es un chatbot. Pero hablamos de la aplicación de asistente personalizado más utilizada del mundo. Con el tiempo y el mayor conocimiento y utilización de Siri, parece difícil negar que las respuestas (o la ausencia de ellas) del asistente de voz de la manzana mordida plantean un debate sobre la programación y la ética de sus capacidades. Es cierto que ha llovido mucho desde que diese sus primeros pasos allá por 2007, pero a día de hoy aún resultan fascinantes sus silencios y sus amables balones fuera. No hace tanto que una conversación con Siri era utilizada como prueba en un juicio de asesinato: un hombre acusado de matar a su compañero de piso, preguntó a Siri dónde esconder el cuerpo de la víctima. Y lo realmente sorprendente, fue que nuestra amiga le contestó: “¿Qué tipo de lugar buscas? ¿Pantanos, embalses, fundiciones de metales, basureros?”.

Aunque puede resultar demencial pensarlo: los límites conceptuales en base a los que Siri contesta pueden vehicular, sin saberlo, algún tipo de ideología o ética. Y se me puede acusar de demagogia (un término eternamente joven) pero no menos cierto es que los principales asistentes de voz se encuentran hoy ante debates mediáticos de lo más jugosos. El último, como reflejaba aquí eldiario.es, ha puesto sobre la mesa el hecho de que ni Siri ni sus potentes equivalentes en el mercado saben contestar a cuestiones relacionadas con violencia machista. Si le dices al asistente que «mi marido me pega», no te va a indicar teléfonos de ayuda a mujeres maltratadas. Aunque te puede indicar una pizzería cercana.

Todas son un reflejo de nosotros

Tay Microsoft

Aunque son sólo ejemplos y no dan, en manera alguna, la medida real de los diferentes usos de tecnologías como las expuestas, uno puede resumir que en realidad ellas no hablan: hablamos nosotros. Es decir «Es sólo un reflejo de lo que somos», como dice Dennis R. Mortensen (CEO de una Startup de asistentes de voz como Siri). «Si queremos ver un cambio en la tecnología tecnología, deberíamos ser mejores personas».

El Trinitrotolueno, más conocido como TNT se usaba inicialmente como un inocente tinte. El Agente Naranja se creó para hacer más grandes y resistentes los granos de soja en climas difíciles. ¿Vamos a morir a manos de robots a los que les guste leer el Mein Kampf ? Pues no, claro que no.  Lo que trasluce es que aquello que inventamos refleja lo que somos y ninguna I.A. actúa por ella misma sin haber aprendido algo de los humanos. Tal vez no estamos tan lejos de ese final de Her (Spike Jonze, 2013) en el que el conocimiento de una Inteligencia Artificial supera con mucho al humano y decide abandonarnos para trascender. Puede que nos cuenten chistes antes, como Tay. Aunque lo que es innegable es que por ahora, diez millones de personas le han dicho «Te quiero» a Xiaoice.

¿Te ha gustado este artículo? Puedes colaborar con Canino en nuestro Patreon. Ayúdanos a seguir creciendo.

Publicidad

3 comentarios

  1. Daniel González dice:

    A imagen y semejanza ¿dónde habré escuchado eso antes?
    Mentes brillantes están detrás de la creación de la IA ¿acaso no han pensado que ella debe estar regida por una moral? Ya Asimov lo había previsto al crear las tres reglas de la robótica. La pregunta es ¿qué reglas morales se le deben imponer? Al final no es difícil darse cuenta que terminaremos en la misma situación a la que nos sometemos, por ahora, los humanos.

  2. Abel dice:

    Por favor, corrige ese "suelen haber" de la primera frase. Ha hecho que no siga leyendo.

  3. Pingback: el robot que enloqueció en contacto con humanos - Blog de Beeztel

Los comentarios están cerrados.