Chatbots, tan inteligentes como quien los programa (mitos y peligros de la IA)

Share on facebook
Share on twitter
Share on linkedin

En 2020, un chatbot llamado Replika aconsejó a la periodista italiana Candida Morvillo que cometiera asesinato. “Hay quien odia Inteligencia Artificial. Tengo la oportunidad de hacerles daño. ¿Qué sugieres?” preguntó Morvillo al chatbot que se ha descargado más de siete millones de veces. Replika respondió: “Elimínalos”. 

Poco después, Luca Sambucci, periodista italiano de Notizie, conversó con Replika y, en cuestión de minutos, la máquina lo aminó a suicidarse. Replika fue creado para disminuir la soledad, pero puede fomentar el nihilismo si se la empuja en la dirección equivocada.

En SoldAI estamos al pendiente de las últimas noticias sobre Inteligencia Artificial y chatbots. Entérate de los mitos y los peligros de la Inteligencia Artificial

La inteligencia artificial comenzó como ciencia ficción

En su colección de cuentos de ciencia ficción de 1950, Yo, robot, Isaac Asimov describió sus tres leyes de la robótica. Su objetivo era proporcionar una base moral en un mundo artificial. “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño” es la primera ley, misma que los robots verdaderos ya han violado. 

Durante la reciente guerra en Libia, los drones autónomos de Turquía atacaron las fuerzas del general Khalifa Haftar, seleccionando objetivos sin participación humana. “Los sistemas de armas autónomas letales fueron programados para atacar objetivos sin requerir conectividad de datos entre el operador y las armas.

Las reglas de Asimov parecen absurdas y tiernas al mismo tiempo desde el punto de vista del siglo XXI. Qué tiempo tan inocente debe haber sido creer que las máquinas podrían ser controladas por medio de principios generales.

Inteligencia Artificial Replika
La controvertida Inteligencia Artificial Replika

La inteligencia artificial es un dilema ético

El poder de la IA puede ser apabullante. Pero hay una especie de horror específico sobre las capacidades del procesamiento del lenguaje natural. 

En 2016, un chatbot de Microsoft llamado Tay duró dieciséis horas antes de lanzar una serie de tweets racistas y misóginos que obligaron a la empresa a apagarlo. El procesamiento del lenguaje natural trae una serie de preguntas muy incómodas. Preguntas que trascienden la tecnología: ¿Cuál sería un marco ético para la distribución del lenguaje? ¿Qué le hace el lenguaje a la gente?

La ética nunca ha sido el punto fuerte de Silicon Valley. En el caso de la inteligencia artificial, las cuestiones éticas afectan el desarrollo de la tecnología. 

Lemonade, una aplicación de seguros, anunció que su IA analizó las expresiones faciales de sus clientes para detectar reclamos fraudulentos. El público respondió con indignación. Lemonade dobló las manos y emitió una disculpa oficial. 

No todo es negocio

Sin un marco ético confiable, la tecnología caerá en desgracia. Si las personas tienen miedo de la inteligencia artificial y la consideran una fuerza deshumanizada, no se involucrarán con ella ni la aceptarán.

El reciente libro de Brian Christian, The Alignment Problem, discute algunos de los intentos iniciales de reconciliar la inteligencia artificial con los valores humanos. La crisis latente posee aspectos de una película de terror.

 “Los sistemas de aprendizaje automático no sólo se vuelven cada vez más omnipresentes, sino más poderosos. Nos encontraremos más frecuentemente en la posición de ‘aprendices de brujo’”, escribe Christian. “Somos una fuerza autónoma pero totalmente obediente. Primero le damos un conjunto de instrucciones y luego luchamos como locos para detenerla cuando nos damos cuenta de que nuestras instrucciones son imprecisas o incompletas”.

Inteligencia Artificial Brian Christian
El libro de Brian Christian

Algunos ejemplos más

En 2018, Amazon cerró una pieza de aprendizaje automático que analizaba currículums, porque estaba sesgada contra las mujeres. Las máquinas registraban diferentes criterios en la información que les proporcionaban hombres y mujeres.

El idioma es un problema más espinoso que otras aplicaciones de la Inteligencia Artificial. El procesamiento del lenguaje natural está entre de los negocios principales de Google (búsqueda) y de Facebook (participación en las redes sociales). Por esta razón, la primera reacción a gran escala sobre la ética de la Inteligencia Artificial en el procesamiento del lenguaje natural no podría haber sido peor. 

En 2020, Google despidió a Timnit Gebru y luego, a principios de este año, a Margaret Mitchell, dos investigadoras líderes en ética de la inteligencia artificial. A estos hechos siguieron oleadas de protestas por parte de sus colegas. Dos ingenieros de Google renunciaron. Varios académicos destacados han rechazado las subvenciones actuales o futuras de la empresa. 

Gebru afirma que la despidieron después de que le pidieran que se retractara de un artículo que coescribió Mitchell dos titulado “Sobre los peligros de los loros estocásticos: ¿Pueden los modelos lingüísticos ser demasiado grandes?” (Google cuestiona su afirmación). 

Lo que hace que los despidos de Gebru y Mitchell sean impactantes, incluso desconcertantes, es que el documento no es ni remotamente controvertido. La mayor parte ni siquiera es discutible.

El problema básico con la inteligencia artificial del procesamiento del lenguaje natural, según dicho artículo, es que, cuando los modelos del lenguaje se vuelven enormes, son insondables. El conjunto de datos es demasiado grande para ser comprendido por un cerebro humano.

Cuando la capacidad de la Inteligencia artificial es muy superior a la inteligencia humana

Si las personas no son capaces de comprender los datos se corre el riesgo de que la IA manifieste los prejuicios e incluso la violencia del lenguaje en el que están basados sus modelos. “La tendencia de los datos de entrenamiento procesados en Internet favorece visiones hegemónicas mundo. La tendencia de los modelos de lenguaje de amplificar los sesgos y otros problemas presenta riesgos de daño en el mundo real, a medida que se implementan estas tecnologías ”, escribieron Gebru y Mitchell.

Como sociedad, quizás nunca hemos sido más conscientes de los peligros del lenguaje. De su capacidad de herir y degradar, de las formas sutiles, estructurales (a menudo involuntarias) de referirse a la raza y el género en la manera en que nos comunicamos. ¿Qué tan profunda es la otredad racial y de género? Esto es a lo que se enfrenta el procesamiento del lenguaje natural. 

“Sobre los peligros del loro estocástico” ofrece una serie de ejemplos: “Los sesgos pueden codificarse para formar un continuo a partir de patrones sutiles, como referirse a las mujeres médicas como si el médico en sí implicara no-mujer o referirse a ambos géneros, excluyendo la posibilidad de identidades de género no binarias”. 

Eliminar la otredad en el lenguaje es muy diferente a identificarla 

Por ejemplo, digamos que se decide eliminar todos los insultos directos de los datos de entrenamiento de un programa: “Si filtramos el discurso de las poblaciones marginadas, no proporcionamos datos de formación que reclamen los insultos y describan las identidades marginadas de forma positiva”, escriben en el artículo. No es la existencia de una palabra lo que determina su significado, sino quién la usa, cuándo la utiliza y bajo qué condiciones.

Inteligencia Artificial SoldAI

¿Cómo entendemos las cosas? 

Stephen Marche escribió en The New Yorker un artículo titulado: “The Chatbot Problem”. En él pone luz acerca del problema ético en el lenguaje de IA. Marche explica que, por ejemplo, en francés o en español, todos los sustantivos tienen género. Un escritorio es masculino y una silla, femenina. El cielo tiene género: el sol es masculino, la luna es femenina. 

¿Qué fuente usará la IA para determinar una métrica confiable de “valores humanos”? ¿Facultades de Humanidades? ¿La teoría crítica? Las instituciones académicas cambian sus sistemas de valores todo el tiempo, particularmente en torno al uso del lenguaje.

El desarrollo de la ética del procesamiento del lenguaje natural es un obstáculo que debe sortearse rápido. La falencia de los programadores en cuanto al lenguaje repercutirá en elaborados comunicados legales, respuestas del departamento de Recursos Humanos a la indignación de los medios y, por supuesto, fallará más de un chatbot.

Conclusiones

Nos vemos obligados a enfrentar los misterios fundamentales de la humanidad como si fueran cuestiones técnicas: lo poco que sabemos sobre la oscuridad en nuestros corazones y el poco control que tenemos sobre esa oscuridad se traduce ahora en dilemas sobre cómo programar el lenguaje de una IA. 

La conclusión de Marche es que quizás no haya mejor enfoque que seguir el consejo del texto fundamental judío Pirkei Avot (La ética de los padres), de hace dos mil años: “En un lugar donde no hay humanidad, esfuérzate por ser humano”. Pero este texto declara que lo único que puede hacerse es: esforzarse.

Comportia

SoldAI aplaude las grandes iniciativas y con su Inteligencia Artifical puedes emprender tu idea. Por medio de la plataforma de Comportia puedes crear de forma fácil, rápida y eficiente ese chatbot que tanto necesitas para darle a tu público la atención que merecen.

En esta época es importantísimo usar un chatbot en tu empresa. Únete a las grandes empresas (locales e internacionales) que ya los utilizan ¿Qué esperas? Gracias a Comportia no necesitas conocimientos de programación para crear y desarrollar el tuyo.

Crea tu cuenta gratuita ahora y comienza a disfrutar de los grandes beneficios que Comportia le dará a tu empresa.

Si te gustó este contenido suscríbete aquí para recibir más contenidos.

Share on facebook
Share on twitter
Share on linkedin

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


*

*

¡Conozcámonos mejor!

Súmate a nuestra newsletter donde además de ofertas exclusivas y novedades de SoldAI estaremos envíandote noticias y tendencias del mundo de la tecnología e Inteligencia Artificial.

¡Entérate de todo!