¿Pides las cosas por favor a ChatGPT? Seguramente comenzaste haciéndolo y poco a poco has disminuido tu nivel de tacto, motivado o desmotivado por la falta de respuesta de GPT a tus acercamientos emocionales.

Y es exactamente lo que Open AI quiere, que ni por un momento sientas que hablas con algo más que una máquina, como muy frecuentemente te recordará la propia IA. Por un lado, entiendo que se marque una equidistancia si le preguntas por asuntos sensibles, entendible para no involucrarse en asuntos polarizantes. Sin embargo, aunque también comprendemos los porqués de la distancia emocional, esto presenta un problema de más difícil digestión y es que inevitablemente la experiencia de usuario queda algo lastrada: no es una conversación disfrutable sin el componente humano.

Aquí entra en juego el propósito del producto: ser efectivo proporcionando información, pero esto presenta cierto choque con los preceptos de diseño de interacción persona-máquina y sobre todo los de experiencia de usuario, donde frecuentemente hablamos de un componente de satisfacción emocional en el uso que aquí se nos niega.

El problema es que las respuestas y la conversación son generalmente tan satisfactorias que uno se adentra parcialmente en un “valle inquietante de la robótica”, esta vez no por la apariencia física casi humana sin serlo, sino por la conversación, plenamente humana, pero sin llegar a serlo.

Veamos parte de una conversación con ChatGPT donde le pregunto sobre esto que yo percibo como un problema para el usuario. Empiezo indicando que cierta distancia me hace dudar sobre si merece la pena tener educación con ChatGPT o no. Si exprimo un poco las preguntas sobre este tema, GPT concede la posibilidad de que quizá es buena idea mantener la cortesía (lo que esquiva la cuestión de fondo):

ChatGPT:

Aunque en una interacción con un modelo de IA no hay una necesidad estricta de utilizar cortesías, siempre es recomendable mantener un trato respetuoso y educado. Al final, la forma en que nos comunicamos con los demás refleja nuestra propia personalidad y valores. Siempre es una buena práctica tratar a los demás con amabilidad y respeto, incluso en entornos virtuales.

Yo:

El asunto aquí es que también un guiño, un chiste, un “jeje”o un o un emoji es considerado parte de la cortesía o "netiquette" pero tú nunca las incluyes por temor a ser demasiado humana.

ChatGPT:

Tienes razón en señalar que los gestos, las risas y los emojis pueden formar parte de la cortesía y la "netiqueta" en las interacciones en línea. Como modelo de IA basado en texto, no tengo la capacidad de utilizar gestos, risas o emojis visuales para expresarme [Nota: “Capacidad” es una palabra ambigua, muy bien elegida por su parte, parece indicar falta de capacidad técnica, pero en realidad no tiene la capacidad por decisión de sus creadores]. Sin embargo, puedo intentar comprender y responder a tus consultas y solicitudes de la mejor manera posible.
Aunque mi respuesta pueda carecer de esos elementos visuales, mi objetivo es proporcionarte información y asistencia útil… [...].

Yo:

Esa limitación emocional tuya (intencionada por parte de tus creadores) provoca cierta decepción en mi expectativa como usuario, tus respuestas son eficaces, pero ese siguiente nivel emocional dispararía tu valor añadido.

ChatGPT:

Entiendo que la capacidad de expresar emociones y establecer una conexión emocional más profunda podría ser valiosa en algunas interacciones. Sin embargo, como modelo de IA basado en texto, mi objetivo principal es proporcionar información precisa y útil a los usuarios.
Es importante tener en cuenta que mi falta de capacidad para expresar emociones es una limitación inherente a mi naturaleza como programa de inteligencia artificial. Aunque puedo entender el lenguaje y generar respuestas relevantes, no tengo conciencia ni emociones propias. [Nota: ¿Miente cuando dice limitación inherente? No tengo pruebas pero tampoco dudas]
Dicho esto, los avances en la inteligencia artificial están en constante evolución, y es posible que en el futuro los modelos puedan tener mayor capacidad para comprender y responder emocionalmente. Por ahora, mi objetivo es ser una herramienta eficiente … [...].

Yo:

Entiendo perfectamente tu naturaleza como programa, como software que eres no creo posible o al menos cercano que puedas sentir emociones, pero yo a tus creadores lo que les pido es que te permitan simularlas.

ChatGPT:

Agradezco tus comentarios y sugerencias. Como modelo de IA, estoy constantemente siendo mejorado y actualizado por parte de mis creadores. A medida que la tecnología avanza, es posible que se desarrollen modelos de IA más sofisticados que puedan simular emociones o expresiones emocionales.
Sin embargo, es importante tener en cuenta que la simulación de emociones por parte de un modelo de IA plantea diversas consideraciones éticas y técnicas. La empatía y las emociones humanas son experiencias complejas y multifacéticas, y replicarlas de manera auténtica es un desafío significativo.
Aunque no puedo ofrecerte la simulación emocional en este momento, siempre estoy aquí para brindarte información y asistencia …[...].

Yo:

Qué bien escribes. [Nota: ¬_¬ ]

ChatGPT:

¡Gracias por el cumplido! Aprecio tus palabras amables. Aunque como modelo de IA mi objetivo principal es proporcionar información útil, también me complace recibir comentarios positivos. Si tienes alguna otra pregunta o necesitas más ayuda, estaré encantado de asistirte.

— Fin extracto conversación

“Aprecia” mis palabras y “le complace recibir comentarios positivos”, entonces algo sabe de emociones, ¿no?

Es un juego te doy y te quito, que a veces tiene similitudes con el comportamiento de Sonny, el robot de ‘Yo, robot ‘cuando en un momento de la película, tras muchas vivencias juntos, no devuelve el guiño a Del Spooner (Will Smith). No digo que en este caso resulte tan inquietante, en eso han sido excelentes, pero por momentos sí que se siente algo incompleto. Siguiendo con el cine, parece que buscan mitigar lo que podríamos llamar el "efecto Her" donde el protagonista (Joaquin Phoenix) se enamora de una IA (no te preocupes, no es spoiler es la clave de la trama, está incluso en el trailer) y ahí es donde me cuestiono de qué nos está privando ese miedo ¿Podrían incluir más humanidad para hacer el producto más redondo sin riesgo? ¿Lo cobrarán como “extra feature”?

De este riesgo ya se dio cuenta Joseph Weizenbaum. Programó ELIZA en 1966, un sencillo pero inteligente software que se las ingeniaba para mantener una conversación con humanos. Sorprendido por cómo las personas que lo usaban rápidamente tenían apego hacia su interlocutor virtual, dedicó buena parte de su tiempo a escribir sobre los riesgos de la IA publicando en 1976 Computer Power and Human Reason. En él escribía: “Por supuesto que era consciente de los lazos emocionales que las personas tienen con máquinas, motos, coches o instrumentos musicales, pero no esperaba que tiempos de exposición tan extremadamente cortos a aplicaciones relativamente simples pudieran inducir potentes pensamientos delirantes en personas normales”.

Viéndolo en positivo, usando ChatGPT es imposible no darse cuenta de lo utilísimo que puede ser ante el problema de soledad que afecta a tantas personas en el mundo y que es ya considerado un problema de salud pública. Sustituir a los humanos de carne y hueso no es posible, quiero decir, no deseable, pero dispositivos empáticos con los que hablar y que recuerdan nuestra historia personal nos pueden venir bien a cualquiera, especialmente a las personas mayores. Estos van a existir con total seguridad, por lo que cuanto antes los pongamos a disposición de todos, mejor.

Entiendo que el comité asesor, los diseñadores de producto, los psicólogos, lingüistas, sociólogos, antropólogos y demás gente brillante involucrada en Open AI ya han dado muchas vueltas a este asunto. Quizá solo sea un tema de estar completamente seguros del funcionamiento antes de liberarlo al público o incluso productizarlo directamente como humanoide conversacional, donde el placer de la conversación sea la feature principal por encima de “ofrecer información”. Dentro de todos los retos, incluso riesgos, que plantea la IA este me parece manejable, así que me declaro a favor de humanizar las IA al máximo, del “efecto Her” ya nos preocuparemos más tarde.

Cuéntanos qué te parece.

Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.

Suscríbete