¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.dev
3 autores 07/11/2023 Cargando comentarios…
Los chatbots han llegado para quedarse, pero ¿tienen sentido ahora que todo el mundo habla de la IA Generativa? ¿Qué ha supuesto esta tecnología? ¿Hay que tirar los chatbots actuales? En este episodio respondemos a muchas de estas preguntas y dejamos también alguna nueva en el aire…
Primero, especialmente para las personas más despistadas, definiremos qué es un chatbot antes de ponernos a hablar de sus nuevos poderes. Según Wikipedia: “Los chatbots son aplicaciones software que surgen en los años 60 y que simulan mantener una conversación con una persona”.
Como vemos en la definición, los chatbots no son nada nuevo, aunque es verdad que con la llegada de la IA han mejorado una barbaridad en los últimos años con la llegada de productos como Dialogflow.
Desde hace un año, ha llegado la explosión de la IA Generativa, que promete hacer chatbots casi sin esfuerzo. Y es que gracias a los LLM y su capacidad de dar respuestas con sentido a una entrada de texto, podemos tener chatbots casi casi humanos. Como ejemplo podemos poner a los dos productos más famosos de IA Generativa de texto del mundo: ChatGPT y Bard.
Aunque la experiencia de conversación con estos productos sea muy avanzada, debemos tener en cuenta que estos servicios no sustituyen a los chatbots tradicionales y crear nuestro chatbot no es lo mismo que darle un texto a Bard/ChatGPT y pedirle que nos haga un resumen.
Dialogflow CX, la versión más avanzada del producto, permite crear flujos conversacionales de manera sencilla y potente siendo la solución usada por una gran cantidad de empresas para sus chatbots.
Ahora, con la llegada de la IA Generativa, se han añadido varias funcionalidades que hacen uso de estos modelos para simplificar el proceso de creación y mantenimiento de los chatbots.
Si durante la conversación el agente no es capaz de entender qué estamos queriendo hacer o le es imposible hacer match con lo que él espera, en ese momento de conversación se disparan los event fallbacks.
Mediante estos eventos vamos a controlar lo que sucede ante estos errores para realizar alguna acción en concreto o devolver algún mensaje informativo como “no te he entendido”.
Estos mensajes son definidos de una manera determinista, pero gracias a los LLMs ahora podemos generar respuestas automáticamente y que sean mucho más naturales que el clásico: “perdona, pero no sé qué quieres hacer”.
Estos agentes van a ser capaces de respondernos preguntas de un contexto informativo dado, bien sea una web pública, un bucket con documentos de texto o un fichero con preguntas y respuestas.
Este componente nos permite añadir llamadas a los LLMs fundacionales de Google casi desde cualquier lugar de la conversación, pudiendo usar la potencia de estos modelos para completar la experiencia conversacional haciendo tareas tales como completar información de la conversación, resumirla o incluso traducirla.
Puedes escucharlos en las principales plataformas de podcast: Ivoox, Spotify, YouTube, Google Podcast, Apple Podcast y Amazon Music.
Imagen de portada licencia Creative Commons: Pexels
Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.
Cuéntanos qué te parece.