Los chatbots basados en inteligencia artificial, como ChatGPT o Bard, emplean para su funcionamiento los LLM (large language models) o, lo que es lo mismo, modelos de lenguaje de gran tamaño. Gracias a ellos, los chatbots son capaces de ‘hablar’ e interactuar con los humanos.
Para su funcionamiento, los LLM son entrenados con grandes cantidades de datos, lo que posibilita al chatbot interactuar y resolver las dudas del usuario. Si bien, pese a que se catalogue como inteligencia artificial a los chatbots, estos ‘no saben’ lo que dicen, sino que han aprendido a poner una palabra tras otra para responder al humano.
Para estos procesos de entrenamiento, se emplean millones de datos que circulan por internet, que posteriormente se procesan en una red neuronal. El modelo LaMDA (empleado por Bard) utiliza los datos de la Wikipedia, así como los presentes en “foros públicos” y “documentos de código de sitios relacionados con la programación, como sitios de preguntas y respuestas, tutoriales, etc.”.
La mayoría de los LLM usan una red neuronal llamada ‘transformador’, un sistema compuesto por nodos y capas, capaz de leer y procesar grandes cantidades de texto. Además, detecta patrones sobre cómo formular frases y relacionar palabras, lo que unido a que se ajusta en cada situación y dependiendo del contexto de la conversación, logra interpretar y dar sentido a la información que tienen almacenada para dar lugar a conversaciones que parecen tan reales como las de un humano.
Estos LLM, además de aprender a formular frases coherentes y creativas, ponen atención a no repetir palabras. Por ello, es habitual que empleen términos que no son los más correctos. También pueden dar lugar a respuestas genéricas, con el objetivo de sintetizar la información.