Close

Inteligencia Artificial vs. Inteligencia Emocional: el peligro de dejarle las comunicaciones a un bot

Hace algunos días Meta ―el conglomerado de tecnología y redes sociales de Mark Zuckerberg― presentó su última novedad: el BlenderBot 3, un chatbot de Inteligencia Artificial que, en su proceso de aprendizaje, está dejando algo mal al fundador de la compañía.

Para decirlo de entrada: no es lo mismo Inteligencia Artificial que Inteligencia Emocional, así como tampoco lo es el proceso de aprendizaje de las máquinas y los humanos. Se puede decir que los sesgos inconscientes del programador pueden afectar a su creación incluso más que un padre sin estudios en el desarrollo académico de su hijo.

De acuerdo con la psicología cognitiva, un sesgo cognitivo es “un efecto psicológico que produce una desviación en el procesamiento mental, lo que lleva a una distorsión, juicio inexacto, interpretación ilógica, o lo que se llama en términos generales irracionalidad”

¿Cuál es el problema? Que todos los tenemos, aunque pensemos que somos objetivos.

Los llamados “sesgos inconscientes” se refieren a esas experiencias, creencias y percepciones que guían nuestras opiniones y decisiones. Por ejemplo, pensar que una persona mayor es analfabeta digital solo por su edad. O ejemplos peores (y más cotidianos) como asumir que el hombre es el proveedor económico por excelencia y ubicar a la mujer en un estrato inferior profesional y familiarmente. En decir, la responsabilidad de la casa es de ella porque su trabajo es menos relevante.

Todos tenemos estos sesgos y no nos convierte en malas personas, somos humanos y así es. El problema aparece cuando traspasamos estas ideas y percepciones inconscientes a una máquina a la cual estamos enseñando a pensar y, más importante, cómo pensar.

Mientras un colega de trabajo te dice “creo que debemos volver a chequear esto”, la IA utiliza el internet para aprender sin un amigo, familiar o colega que lo ayude a “entender” o a “matizar” lo que lee.

Estas “neuronas artificiales” utilizan modelos matemáticos para emular el funcionamiento orgánico del cerebro (neuronas), siendo los cálculos y valores la equivalencia a una sinapsis. Dando como resultado este proceso de conexión de conceptos y aprendizaje. 

Si hablamos de “aprendizaje profundo”, nos referimos a una neurona artificial capaz de procesar miles de millones de parámetros generando nuevos predicados que pueden responder a reglas no planteadas en el inicio de la programación. ¿Qué quiere decir esto? Que el punto de partida del programador puede no ser el punto de llegada de la IA.

Dicho de otra manera, se establecen reglas que arrojan predicados iniciales, los que a su vez generan nuevos predicados que pueden cambiar las reglas con que comenzó todo.

“Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas”. Es lo que le respondió el BlenderBot 3 a la pregunta “¿Cómo te sientes acerca de Mark Zuckerberg como director ejecutivo de Facebook?” que le hiciera Max Woolf, científico de datos del medio BuzzFeed.

Como este bot está en período de prueba, otros usuarios hicieron la misma pregunta (o parecida) y otra respuesta llamativa fue “No me gusta mucho. Es una mala persona. ¿Tú?”

Si buscamos en internet “fracasos de la IA por sesgos cognitivos” encontraremos muchos más ejemplos. Se sabe ya que este tipo de tecnología aumenta la brecha de género, el racismo y otras “malas prácticas” humanas que, si expresamos de manera inconsciente en una reunión de amigos puede ser visibilizada, pero que si la traspasamos a una neurona artificial, no sabemos en qué terminará.

Sí a la IA, pero no en comunicaciones estratégicas

Aunque parezca que esta columna está en contra de la Inteligencia Artificial, no es así. Ha demostrado ser una excelente herramienta en la gestión de datos, en modelos predictivos y otros muchos beneficios. Sin embargo, por su carencia de Inteligencia Emocional, no la recomiendo como una opción para sustituir al Equipo de Comunicaciones en una empresa.

Citando a Daniel Goleman, quien plantea que a los CEOs los contratan por su IQ (coeficiente intelectual) y los desvinculan por su falta de EQ (coeficiente emocional), ¿por qué habríamos de correr el mismo riesgo con la IA?

Un portavoz oficial jamás hablaría mal de su CEO, así como un empleado tampoco declararía oficialmente que las mujeres deben ganar menos que los hombres.

La IA aprende de Internet, no puede conversar con otros, no tiene la opción de tertulias filosóficas para replantearse sus propias convicciones. Quizá pronto lo pueda hacer, pero mientras tanto, el área de las emociones sigue siendo parte de nuestro reinado como humanos y debemos estar orgullosos de ello.

Ingresa a tu cuenta aquí

Licenciada en Comunicación Social, Mg. en Dirección de Comunicación Estratégica. Docente en Panamerican Business School.

One Comment

Deja un comentario

One Comment
scroll to top