La inteligencia artificial, además, nos trae nuevos términos

Las nuevas tecnologías no solo cambian el mundo, también cambian nuestro idioma. La era del automóvil nos dio más de mil palabras nuevas, como limusina, auto servicio, todoterreno, tunear,…. Los ordenadores nos dejaron otras tants palabras: chips, CPU, beta testers, sistemas operativos, programas,…. Internet ya ha contribuido con cientos de palabras nuevas y nuevos significados a las palabras antiguas, incluidos spam, meme, hashtag y trolling. Todo esto tiene sentido. La tecnología nos da nuevas experiencias, nuevas habilidades y nuevos problemas. Por lo tanto, necesitamos nuevas palabras para estar al día con un mundo cambiante. La gran tecnología de nuestro tiempo, la inteligencia artificial, hará lo mismo: cambiará el mundo y nuestro lenguaje con él. Normalmente las nuevas palabras fluyen de la necesidad y son creadas orgánicamente. Sin embargo en este artículo Byron Reese nos propone una serie de nuevos términos para adaptarnos a los entornos de inteligencia artificial.
Aiporia: incertidumbre sobre si se trata de un ser humano o de una IA. De la antigua aporia griega (ᾰ̓πορῐ́ᾱ), que significa estado de desconcierto.
Aiporia es un fenómeno nuevo, pero habitual. Por ejemplo, supongamos que se encuentra en un sitio web que tiene una función de chat en tiempo real. Al hacer clic en él, aparece un mensaje de «Sarah» que le pregunta si necesita ayuda. Puede preguntarse si Sarah es 1) una persona llamada Sarah, 2) una persona de otro país que no se llama Sarah y se presenta como «Sarah» para ser más accesible, o 3) un chatbot llamado «Sarah». La confusión de aiporia se magnifica aún más por el hecho de que las tres hipótesis pueden ser verdad. Sarah puede comenzar siendo un chatbot, pero cuando hace una pregunta más compleja, otra persona continúa en el chat, quizás en otro país. Si sus preguntas pueden se hacen más complicadas aún, tal vez en los Estados Unidos, y tal vez, y por casualidad, le atienda una persona real que se llame Sarah. Ainigma: una decisión tomada por una IA que un humano no puede entender. Derivado de enigma. Imagine que su compañía ocupa el tercer lugar en Google para algunas búsquedas que son importantes para usted, como «limpieza de piscinas de Akron» y su competidor ocupa el segundo lugar. Además, suponga que conoce a un ingeniero de Google y le preguntó por qué era así. Es probable que se encogiera de hombros y dijera que no hay manera de saberlo. Simplemente hay demasiados factores en el trabajo para que un humano entienda ese tipo de distinciones finas. Es un ainigma. Aithics – n – Los aspectos morales de la programación de una IA.
La inteligencia artificial crea por sí misma una instancia de la moral y la ética de los programadores que la crearon. Es inevitable. IA hace elecciones, las elecciones involucran valores relativos, y los valores son las manifestaciones de la ética. No es posible crear una IA carente de implicación moral. La IA siempre tiene alguna clase de ética. La pregunta es de quién es la ética derivada en una IA.
Bais: los sesgos de una IA que se derivan de los datos utilizados para entrenarla y que aprenda. Del término bias en inglés.

Las IA aprenden a través de datos. No todos los datos del mundo, obviamente, sino una selección de datos. Seleccionar qué datos va a usar, es una elección hecha por un humano, y esas elecciones involucran un sesgo humano. La IA no es la que está sesgada, pero parte de una información que sí lo está.
Brotherism– n – El uso de la IA para monitorear y predecir el comportamiento humano. Esto puede incluir «escuchar» las conversaciones telefónicas y «leer» correos electrónicos. Técnica habitual de los gobiernos. E término viene del libro 1984 de George Orwell y su Gran Hermano (Big Brother).
Las herramientas de minería de datos, las que se desarrollan con fines nobles, como encontrar nuevos tratamientos para enfermedades, se pueden utilizar con la misma facilidad para monitorear a las personas. Pueden leer correos electrónicos, convertir las conversaciones telefónica en mensajes de texto, incluso pueden usar cámaras de vigilancia para leer los labios, igual que un humano.
Estas técnicas pueden utilizarse para crear un modelo de cada uno de nosotros y hacer predicciones, bastante precisas, sobre si podríamos cometer un crimen o a quién vamos a votar. Cuando esta información es utilizada por los gobiernos, se convierte en un poder enorme. Esto es el brotherism.
Ecepción – n – una IA que está programada deliberadamente para parecer humana y diseñada para engañar a los humanos. Se ve a menudo en las redes sociales. ¿Alguna vez ha recibido una llamada automática que comienza con: “Hola, esta es Rachel. ¿Me oyes?” Eso es una ecepción. Así son los millones o miles de millones de bots que pretenden ser humanos para intentar que creas algo o compres algo.
Elise: el acto de tratar a una máquina como si tuviera emociones y sentimientos dado que ha sido programada con un comportamiento real. Del programa ELIZA de 1960.
Ocurre desde el programa ELIZA. En la década de los 60, el informático Joseph Weizenbaum se horrorizó al ver como las personas trataban a un simple Chatbot de psicología, ELIZA, como si fuera humano.
Es un comportamiento instintivo en los humanos. Si algo nos parece vivo, lo tratamos de manera diferente de como tratamos un ser inanimado. A medida que las máquinas se vuelvan más parecidas a los humanos, es probable que aumente nuestro ‘elise’ e incluso tengamos dudas sobre si apagarlas puede ponerlas en peligro.

Fauxnesis – n – La inteligencia de las máquinas, a diferencia de la inteligencia biológica. Del griego antiguo, Phronesis, que significa inteligencia.

¿Puede una máquina pensar? Alan Turing planteó esta pregunta en 1950 y todavía no tenemos una respuesta. En respuesta, Noam Chomsky dijo: «Eso es como preguntar si nadan los submarinos». Tal vez el problema no sea que no sepamos cómo responder la pregunta, sino que todavía no tenemos la palabra adecuada para responderla. La palabra que necesitamos es ‘fauxnesis’.
Zomek – La vida de una máquina, frente a la vida biológica. Del griego antiguo zoe, que significa vida, y mekhane, que significa máquina.
No se ha llegado todavía a una definición consensuada de lo que es la vida, por lo que no es de extrañar que no podamos decir si determinadas máquinas pueden estar vivas. Tal vez no estén vivas como nosotros, pero tienen zomek, la vida de la máquina.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s