LaMDA es la abreviatura de Language Model for Dialogue Applications, que significa «Modelo de lenguaje para aplicaciones de diálogo», es una familia de modelos de lenguaje neuronal conversacional desarrollado por Google.
Al igual que otros modelos de lenguaje para aplicaciones de diálogo como pueden ser ChatGPT de OpenAI.
La primera generación se anunció durante el discurso de apertura de Google I/O de 2021.
En junio de 2022, el ingeniero de Google, Blake Lemoine, afirmó que el chatbot se había vuelto inteligente.
La comunidad científica ha rechazado en gran medida las afirmaciones de Lemoine, aunque ha dado lugar a conversaciones sobre la eficacia de la prueba de Turing, que mide si una computadora puede pasar por un ser humano.
Google anunció el modelo de lenguaje neuronal conversacional LaMDA durante el discurso de apertura de Google I/O en mayo de 2021, impulsado por inteligencia artificial.
Basado en la arquitectura de red neuronal Transformer desarrollada por Google Research en 2017, LaMDA se capacitó en diálogos humanos e historias, lo que le permitió entablar conversaciones abiertas.
Google afirma que se ha asegurado de que las respuestas generadas por LaMDA sean «sensatas, interesantes y específicas para el contexto».
El 11 de mayo de 2022, Google presentó LaMDA 2, que sirve como sucesor de LaMDA, durante el discurso de apertura de Google I/O de 2022.
La nueva encarnación del modelo extrae ejemplos de texto de numerosas fuentes, usándolo para formular «conversaciones naturales» únicas sobre temas para los que puede no haber sido entrenado para responder.
Google lanzó AI Test Kitchen, una aplicación móvil impulsada por LaMDA 2 capaz de proporcionar listas de sugerencias a pedido basadas en un objetivo complejo.
Originalmente abierta solo para los empleados de Google, la aplicación estaba configurada para estar disponible para «académicos, investigadores y legisladores selectos» por invitación en algún momento del año.
En agosto de 2022, la empresa comenzó a permitir a los usuarios de EE. UU. registrarse para obtener acceso anticipado.
LaMDA utiliza un modelo de lenguaje de transformador de solo decodificador.
Se entrena previamente en un corpus de texto que incluye tanto documentos como diálogos que constan de 1,56 billones de palabras y luego se entrena con datos de ajuste generados por respuestas anotadas manualmente para sensatez, interés y seguridad.
Las pruebas realizadas por Google indicaron que LaMDA superó las respuestas humanas en el área de interés.
El modelo de transformador LaMDA y un sistema externo de recuperación de información interactúan para mejorar la precisión de los datos proporcionados al usuario.
LaMDA puede participar de manera fluida sobre una cantidad aparentemente infinita de temas, una capacidad que podría desbloquear formas más naturales de interactuar con la tecnología y categorías completamente nuevas de aplicaciones útiles.
Las habilidades conversacionales de LaMDA, al igual que muchos modelos de lenguaje como, BERT y GPT-3, se basan en Transformer, una arquitectura de red neuronal que Google Research inventó y abrió en código abierto en 2017.
Esa arquitectura produce un modelo que se puede entrenar para leer muchas palabras, una oración o párrafo, y cómo esas palabras se relacionan entre sí y luego prediga qué palabras cree que vendrán después.
A diferencia de la mayoría de los otros modelos de lenguaje, LaMDA fue entrenado en diálogo.
Captando varios de los matices que distinguen una conversación abierta de otras formas de lenguaje, como por ejemplo la sensatez.
LaMDA se basa en una investigación anterior de Google, publicada en 2020, que mostró que los modelos de lenguaje basados en Transformer entrenados en el diálogo podían aprender a hablar de prácticamente cualquier cosa.
Una vez entrenado, LaMDA puede ajustarse para mejorar significativamente la sensatez y la especificidad de sus respuestas.
Aunque la sensatez y la especificidad no son las únicas cualidades que se buscan en modelos como LaMDA.
También se exploran dimensiones como el «interés», al evaluar si las respuestas son perspicaces, inesperadas o ingeniosas.
Haciendo incapie en un aspecto muy importante, como es la factualidad, esto quiere decir, el apego a los hechos, garantizando que las respuestas no solo sean convincentes, sino correctas.
Aunque su mayor preocupación, se basa en que esta tecnología se adhiera a los Principios de IA, evitando que pueda ser mal utilizado y se pueda propagar un uso indebido, como internalizando prejuicios, problemas relacionados con los modelos de aprendizaje automático, como el sesgo injusto, reflejando discursos de odio o replicando información engañosa.
Para ello construyen recursos de código abierto que los investigadores pueden usar para analizar modelos y los datos en los que están capacitados; analizando LaMDA en cada paso de su desarrollo, para incorporar habilidades conversacionales.
Te puede interesar;
Inteligencia Artificial (IA) para Crear Textos
¿Es la Inteligencia OpenAI ChatGPT la evolución a Google?
¿Qué es Machine Learning? Aprendizaje automático
Imagen; de starline > robot-estructura-metalica-ai-inteligencia-artificial-mano-robotica-aprendizaje-automatico-concepto-dominacion-mente-cibernetica > de iuriimotov > en freepik.es