Glosario de Términos y Definiciones de Inteligencia Artificial (IA)
Aa
Neurona artificial de activación
Método de búsqueda que consiste en probar diferentes soluciones hasta encontrar la que funciona.
Active Learning ó Aprendizaje Activo es una técnica de aprendizaje automático en la que el modelo se involucra activamente en el proceso de selección de datos para entrenarse.
En el contexto de la inteligencia artificial (IA), accuracy o exactitud es una medida de rendimiento.
Redes generativas adversarias
Redes generativas adversariales (GAN) son un tipo de algoritmo de aprendizaje automático que se utiliza para generar datos nuevos y realistas.
Simulación de agentes
Agent simulation ó simulación de agentes es un enfoque de la inteligencia artificial que modela el comportamiento de agentes individuales en un entorno.
Capacidad de IA
Es la capacidad de una máquina para realizar una tarea que, hasta la fecha, se ha considerado el dominio exclusivo de los humanos.
Competencia de IA
AI competition ó competencia de IA es la capacidad de una máquina de realizar una tarea que, hasta la fecha, se consideraba exclusiva de los humanos.
Frameworks de desarrollo de IA son conjuntos de herramientas y bibliotecas que se utilizan para desarrollar sistemas de IA.
La explicabilidad de la IA, también conocida como XAI, es el conjunto de procesos y métodos que permiten a los usuarios humanos comprender.
Confiar en los resultados creados por los algoritmos de aprendizaje automático o machine learning (ML).
Imágenes generadas por IA son imágenes creadas por un programa informático utilizando inteligencia artificial.
Hardware de IA es el hardware informático especializado diseñado para realizar tareas relacionadas con la IA de manera eficiente.
IA en el borde (Edge AI), también conocida como IA en el borde, es el despliegue de algoritmos y modelos de IA directamente en dispositivos locales de borde.
Como sensores o dispositivos de Internet de las cosas (IoT).
Organización de investigación en IA
Organización de investigación en IA es una institución que se dedica a la investigación y el desarrollo de la inteligencia artificial.
El software de IA es un software que utiliza técnicas de inteligencia artificial para realizar tareas.
Interfaz de usuario de IA (AI UI) es una interfaz de usuario que incorpora la inteligencia artificial para mejorar la experiencia del usuario.
En informática, un algoritmo es una secuencia de pasos lógicos que se utilizan para realizar una determinada tarea.
Algoritmo Evolutivo (AE) es una técnica de optimización inspirada en los principios de la evolución biológica.
AlexNet es una arquitectura de red neuronal profunda que marcó un hito en el campo de la visión por computadora y el aprendizaje profundo.
Detección de Anomalías
Es el proceso de identificar datos que no siguen el patrón o comportamiento esperado en un conjunto de datos.
Es útil en áreas como la detección de fraudes y el mantenimiento predictivo.
API Interfaz de Programación de Aplicaciones, por sus siglas en inglés: Application Programming Interface.
Es un conjunto de definiciones y protocolos que permite que las diferentes aplicaciones de software se comuniquen entre sí.
La conciencia artificial es la conciencia que se hipotetiza posible en una inteligencia artificial (IA) o algún otro objeto creado por la tecnología humana.
Es un enfoque inspirado en la evolución biológica donde algoritmos genéticos u otros métodos evolutivos.
Se utilizan para optimizar soluciones a problemas.
Simulando procesos como la selección natural y mutación.
Inteligencia artificial general (AGI)
Inteligencia artificial general (AGI) es un tipo de inteligencia artificial que tiene la capacidad de realizar cualquier tarea intelectual que un humano puede realizar.
Inteligencia Artificial (IA)
Se refiere a la simulación de la inteligencia humana en máquinas que están programadas para pensar y actuar como humanos.
Estas máquinas inteligentes pueden entrenarse para realizar diversas tareas procesando grandes cantidades de datos y aprendiendo de ellos.
Los sistemas de IA se pueden clasificar en dos categorías principales: limitados o generales.
Inteligencia artificial estrecha (ANI)
Inteligencia artificial estrecha (ANI), también conocida como inteligencia artificial débil, es un tipo de inteligencia artificial que está diseñada para realizar una tarea específica.
Neurona artificial es un modelo matemático que se inspira en la estructura y el comportamiento de las neuronas biológicas.
Red neuronal artificial
Un tipo de algoritmo de aprendizaje automático modelado a partir de la estructura y función del cerebro humano.
Que consta de capas de «neuronas» interconectadas que pueden procesar y transmitir información.
Modelos de Atención
Los modelos de atención, o mecanismos de atención, son técnicas de procesamiento de entrada para redes neuronales.
Permiten que la red se centre en aspectos específicos de una entrada compleja, uno a la vez hasta que se categoriza todo el conjunto de datos.
El objetivo es dividir las tareas complicadas en áreas de atención más pequeñas que se procesan secuencialmente.
Tipo de red neuronal utilizada para la reducción de la dimensionalidad y el aprendizaje de funciones.
Consiste en un codificador y un decodificador que aprenden a comprimir y reconstruir datos respectivamente.
Robótica autónoma es el campo de la robótica que se ocupa del desarrollo de robots que pueden operar sin intervención humana.
Bb
La retropropagación (backpropagation en inglés) es un algoritmo de optimización utilizado para entrenar redes neuronales artificiales (ANN).
Bootstrap Aggregating (Bagging)
Una técnica de conjunto de aprendizaje automático en la que se entrenan varios modelos en diferentes subconjuntos aleatorios.
De los datos de entrenamiento y se combinan para hacer predicciones.
Con el objetivo de reducir la varianza y mejorar la generalización del modelo.
Línea base es un punto de referencia contra el cual se puede comparar el rendimiento de un nuevo modelo o algoritmo.
Es un tipo de aprendizaje en el que el modelo se entrena utilizando un conjunto completo de datos de una vez.
Contrasta con el aprendizaje en línea donde el modelo se actualiza de manera continua.
La normalización por lotes es una técnica de aprendizaje supervisado que convierte las salidas de la capa intermedia.
De una red neuronal en un formato estándar, llamado normalización.
Esto «restablece» efectivamente la distribución de la salida de la capa anterior.
Para que la capa posterior la procese de manera más eficiente.
El teorema de Bayes es una fórmula que rige cómo asignar un grado subjetivo de creencia a una hipótesis.
Actualizar racionalmente esa probabilidad con nueva evidencia. Matemáticamente, es la probabilidad de un evento.
Aprendizaje profundo bayesiano
Bayesian Deep Learning ó aprendizaje profundo bayesiano es una rama del aprendizaje automático.
Combina el aprendizaje profundo con la teoría de la probabilidad bayesiana.
Es un método de inferencia estadística que utiliza el teorema de Bayes para actualizar la probabilidad.
De una hipótesis a medida que se obtienen más datos.
Las redes bayesianas, también conocidas como redes de creencia, redes de opinión o modelos gráficos probabilísticos.
Un tipo de modelo probabilístico que representa un conjunto de variables aleatorias.
Y sus dependencias condicionales a través de un grafo acíclico dirigido.
Es una técnica utilizada para optimizar funciones costosas de evaluar, frecuentemente usada en la optimización de hiperparámetros de modelos de IA.
Evaluación Comparativa
Es el proceso de comparar el rendimiento de modelos o algoritmos de IA contra estándares establecidos o mejores prácticas en una tarea específica.
Bidirectional Encoder Representations from Transformers
Es un modelo de lenguaje basado en transformadores que ha mejorado significativamente el procesamiento del lenguaje natural.
Al comprender el contexto de las palabras en ambos sentidos (izquierda y derecha).
En el contexto de la IA, el sesgo puede referirse a la tendencia de un modelo a cometer errores sistemáticos debido a suposiciones incorrectas en los datos de entrenamiento o el diseño del algoritmo.
En el contexto de aprendizaje automático, es el equilibrio que debe lograrse entre un modelo con demasiado sesgo.
Simplifica en exceso y uno con demasiada varianza.
Se ajusta demasiado a los datos de entrenamiento.
Grandes conjuntos de datos que se pueden analizar y utilizar para obtener información y tomar decisiones informadas.
Es una decisión que tiene solo dos posibles resultados, como «sí» o «no».
Los clasificadores binarios son comunes en IA para tareas.
Como detección de spam o análisis de sentimientos.
Es un algoritmo de búsqueda que divide el conjunto de datos a la mitad en cada paso, hasta que se encuentra el elemento deseado.
Bioinformática es una disciplina científica que combina la biología, la informática y las matemáticas para el análisis de datos biológicos.
Caja Negra
Un sistema o modelo de IA cuyo funcionamiento interno no es fácilmente interpretable o comprendido por los humanos.
Puede dificultar la explicación de las decisiones tomadas por el modelo.
Una técnica de conjunto de aprendizaje automático en la que los alumnos débiles se combinan para formar un alumno fuerte.
Con el objetivo de mejorar la precisión general de la predicción.
Un bot es un programa automatizado que realiza tareas en Internet o en otras plataformas.
Los bots de IA, como los chatbots, están diseñados para interactuar con usuarios de manera natural.
Algoritmo que busca la solución a un problema probando todas las combinaciones posibles
Cc
Una capa en redes neuronales es un componente fundamental del modelo.
Donde los datos son procesados y transformados.
Aprendizaje de máquina basado en casos (CBR)
El aprendizaje de máquina basado en casos (CBR) es un enfoque de aprendizaje automático que utiliza casos previos para resolver nuevos problemas.
Causalidad
Es el estudio de las relaciones causa-efecto, donde una variable o evento influye directamente en otro.
En IA, comprender la causalidad es clave para la toma de decisiones robusta y para evitar correlaciones engañosas.
ChatGPT es un chatbot de OpenAI construido sobre su modelo de lenguaje grande GPT3.5, entrenado con datos públicos.
El proceso de categorizar datos en clases o grupos predefinidos.
Las técnicas de clasificación son métodos específicos empleados para resolver problemas.
El proceso de agrupar puntos de datos en función de similitudes o características comunes.
Técnicas de agrupamiento o clustering se refieren a un conjunto de métodos.
Que buscan agrupar o segmentar un conjunto de datos.
Red Neuronal Convolucional
Es un tipo de red neuronal profunda diseñada principalmente para procesar datos con estructuras de tipo cuadrícula, como imágenes.
Las CNN son muy efectivas en el reconocimiento de imágenes y visión por computadora.
Computación Cognitiva
Es un campo que combina IA y modelos cognitivos humanos para crear sistemas que imitan el pensamiento humano.
En tareas complejas como la toma de decisiones y la resolución de problemas.
Carga Cognitiva
En IA, hace referencia a la cantidad de esfuerzo mental que se requiere para que una IA interprete.
Aprenda o procese información en situaciones complejas.
Arranque en Frío
Se refiere al problema que enfrentan los sistemas de recomendación o modelos de IA cuando no tienen datos suficientes.
Sobre un usuario o elemento nuevo para hacer predicciones o recomendaciones precisas.
Límites de confianza
Los límites de confianza son intervalos de valores que se cree que contienen un cierto valor con una cierta probabilidad.
Conocimiento Común
Se refiere a la información general que las personas conocen sobre el mundo y que las IA intentan capturar.
Para comprender mejor el lenguaje y tomar decisiones más inteligentes.
Convolución
Es una operación matemática fundamental utilizada en las redes neuronales convolucionales (CNN).
Permite extraer características o patrones locales de los datos, como imágenes.
Cognición
Es la capacidad de los seres vivos de procesar información y aprender.
Automatización cognitiva es un enfoque de la automatización que utiliza la inteligencia artificial (IA) para automatizar tareas.
Que requieren razonamiento, aprendizaje y comprensión.
Computación cognitiva
El desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren una inteligencia similar a la humana.
Como el aprendizaje y la resolución de problemas.
Robótica colaborativa
Robótica colaborativa es un campo de la robótica que se centra en el desarrollo de robots.
Que pueden trabajar de forma segura y eficiente junto a los humanos.
Gráfico Computacional
Es una representación en forma de grafo de las operaciones matemáticas que un modelo de IA realiza sobre los datos.
Las bibliotecas como TensorFlow y PyTorch utilizan gráficos computacionales.
Para optimizar y distribuir el procesamiento de las redes neuronales.
Imagenología Computacional
Es el uso de algoritmos y modelos de IA para procesar y mejorar imágenes, como en la visión por computadora.
Esto puede incluir la mejora de la resolución, la reconstrucción 3D, o el procesamiento de imágenes médicas.
Diagnóstico asistido por computadora
Diagnóstico asistido por computadora (DAC) es un campo de la medicina que utiliza la inteligencia artificial (IA).
Para ayudar a los médicos a diagnosticar enfermedades.
Visión por computador
La capacidad de una computadora para interpretar y comprender datos visuales del mundo, como imágenes y videos.
Red Neuronal Convolucional (CNN)
Un tipo de red neuronal diseñada específicamente para tareas de reconocimiento de imágenes y videos.
Utiliza capas convolucionales para aprender y reconocer patrones en los datos.
Es un sistema de inteligencia artificial (IA) desarrollado por Microsoft que está diseñado para ayudar a los usuarios a escribir código.
Crear contenido y realizar tareas de productividad.
Es una herramienta poderosa que puede acelerar el proceso de trabajo,
Ayudar a los usuarios a ser más productivos.
Costo
Es una función que mide qué tan bien se ajusta un modelo a los datos observados.
El objetivo del entrenamiento es minimizar esta función de costo.
Puede ser el error cuadrático medio u otras métricas.
Entropía Cruzada
Es una función de pérdida comúnmente utilizada en modelos de clasificación, como redes neuronales.
Mide la diferencia entre dos distribuciones de probabilidad: la verdadera y la predicha por el modelo.
Validación cruzada
Una técnica de evaluación de modelos en la que los datos de entrenamiento se dividen en varios pliegues.
El modelo se entrena y evalúa en cada pliegue para obtener una estimación de su rendimiento de generalización.
Cruzamiento
Es una técnica utilizada en los algoritmos genéticos donde dos soluciones se combinan para producir una nueva solución.
Simulando el cruce genético en los organismos vivos.
Dd
Datos
Es la información que se utiliza para entrenar o alimentar un modelo de aprendizaje automático.
Asociación de datos
La asociación de datos es una tarea de procesamiento de datos que se ocupa de la combinación de datos relacionados.
Aumento de datos
Aumento de datos es una técnica utilizada en el aprendizaje automático.
Para aumentar el tamaño de un conjunto de datos de entrenamiento.
Recolección de datos
La recolección de datos es el proceso de recopilar datos para su uso en el aprendizaje automático.
Exploración de datos
La exploración de datos (EDA) es un proceso de análisis de datos que se utiliza para comprender mejor los datos.
Extrapolación de datos
La extrapolación de datos es un método de análisis de datos que se utiliza.
Para predecir valores de datos fuera del rango de datos conocidos.
Fusión de datos
La fusión de datos es el proceso de combinar datos de diferentes fuentes para crear un conjunto de datos más completo y preciso.
Generación de datos
Proceso de crear datos nuevos a partir de datos existentes o de crear datos completamente nuevos.
Instalación de Datos
Es el proceso de importar, transferir y cargar datos de diversas fuentes a un sistema central, como un modelo de IA o una base de datos.
Es un paso fundamental en el procesamiento de datos antes del análisis o modelado.
Integración de datos en IA
La integración de datos es el proceso de combinar datos de diferentes fuentes en un solo conjunto de datos.
Gestión de datos en IA
La gestión de datos en IA es el proceso de recopilar, almacenar, organizar y analizar datos para su uso en sistemas de IA.
Procesamiento de datos
El proceso de extraer patrones y conocimientos útiles de grandes conjuntos de datos.
Normalización de datos
La normalización de datos es un proceso de escalar los valores de los datos para que estén en un rango similar.
Elaboración de datos
Es el proceso de transformar los datos en un formato adecuado para el análisis.
Preprocesamiento de datos
El preprocesamiento de datos es el proceso de preparar los datos para su uso en el aprendizaje automático.
Elaboración de datos
Proceso de transformación de los datos en un formato adecuado para su análisis.
Conjunto de datos
Conjunto de datos es una colección de datos que se utilizan para entrenar o evaluar un modelo de aprendizaje automático.
Workflow de datos
Flujo de trabajo de datos es un proceso sistemático para recopilar, limpiar, preparar, analizar y visualizar datos.
Hoja de Decisión
Es el nodo final en un árbol de decisión. Después de que el árbol se ha ramificado en varias decisiones.
La hoja representa la clasificación o predicción final basada en las características evaluadas.
Soporte para la toma de decisiones
El soporte para la toma de decisiones es el proceso de utilizar la IA para ayudar a las personas a tomar mejores decisiones.
Sistemas de Soporte para la Toma de Decisiones (DSS)
Los sistemas de soporte para la toma de decisiones (DSS) son sistemas informáticos que ayudan a los usuarios a tomar decisiones.
Umbral de decisión
El umbral de decisión es un valor que se utiliza para determinar a qué clase pertenece un punto de datos.
Árbol de Decisión
Es un modelo de aprendizaje automático que se utiliza tanto para clasificación como para regresión.
Un árbol de decisión divide iterativamente el conjunto de datos en subconjuntos basados en reglas de decisión.
Una técnica de generación de imágenes desarrollada por Google que utiliza una red neuronal convolucional.
Para generar imágenes de ensueño al amplificar las funciones de la red.
Aprendizaje profundo
Un subcampo del aprendizaje automático que implica entrenar redes neuronales de varias capas.
Para aprender y tomar decisiones por sí mismas.
Red Neuronal Profunda (DNN)
Una red neuronal profunda (DNN) es un tipo de red neuronal artificial que se compone de múltiples capas de neuronas artificiales.
Es un tipo de algoritmo de aprendizaje por refuerzo profundo que utiliza redes neuronales.
Para aprender las políticas de acción en un entorno basado en recompensas.
Es famoso por su aplicación en juegos de Atari.
Aprendizaje por refuerzo profundo (DRL)
El aprendizaje por refuerzo profundo (DRL) es un subcampo del aprendizaje automático.
Combina el aprendizaje reforzado con el aprendizaje profundo.
Gradiente descendente
El descenso del gradiente es un algoritmo de optimización que se utiliza para encontrar el mínimo de una función.
Gradiente Descentralizado
Es una variante del descenso de gradiente que se utiliza en sistemas distribuidos.
Permite que varios nodos o dispositivos colaboren para entrenar un modelo de IA.
Compartiendo y actualizando gradientes localmente.
En el contexto de redes neuronales, se refiere a la capacidad de una función de ser diferenciada.
Esto es crucial para el entrenamiento de redes neuronales.
El descenso de gradiente depende de la diferenciabilidad de la función de costo.
Difuminación diferenciable
Difuminación diferenciable es una técnica de procesamiento de imágenes.
Difumina una imagen sin perder su información original.
Dimensionalidad
La dimensionalidad es el número de variables o características en un conjunto de datos.
Reducción de dimensionalidad
El proceso de reducir la cantidad de características o dimensiones en un conjunto de datos.
Mientras se conserva la mayor cantidad de información posible.
Grafo Dirigido Acíclico
Es una estructura de datos utilizada para representar relaciones entre nodos, donde las conexiones tienen una dirección y no hay ciclos.
En IA, los DAGs son fundamentales para modelos de probabilidad como las redes bayesianas.
Factor de descuento
El factor por el cual las recompensas futuras se descuentan en el algoritmo de aprendizaje por refuerzo.
Para equilibrar la compensación entre las recompensas a corto y largo plazo.
Modelos discriminativos
Modelos discriminativos son modelos de aprendizaje automático que se utilizan para clasificar datos en dos o más clases.
Discriminador
En redes generativas antagónicas (GANs), el discriminador es la parte del modelo que intenta distinguir entre datos reales.
Y datos generados por la otra parte del modelo, el generador.
Dominio
En IA, el dominio se refiere al área o campo específico en el que se aplica un sistema de inteligencia artificial.
Ejemplos incluyen el dominio médico, financiero, o de comercio electrónico.
Aprendizaje por refuerzo doble (Double DQN)
El aprendizaje por refuerzo doble (Double DQN) es un algoritmo de aprendizaje por refuerzo profundo.
Aborda el problema de la sobreestimación del algoritmo de red Q profunda (DQN).
Es una técnica de regularización utilizada en redes neuronales profundas para prevenir el sobreajuste.
Consiste en apagar aleatoriamente algunas neuronas durante el entrenamiento para hacer el modelo más robusto.
Programación dinámica
Un método para resolver problemas de optimización dividiéndolos en sub problemas más pequeños y almacenando las soluciones a estos sub problemas en una tabla o matriz.
Ee
Parada Temprana
Es una técnica utilizada para evitar el sobreajuste durante el entrenamiento de redes neuronales.
El entrenamiento se detiene si el rendimiento en los datos de validación no mejora después de un número específico de iteraciones.
Es una arquitectura de computación distribuida que trae el procesamiento y análisis de datos más cerca de la fuente.
Sensores, dispositivos IoT, reduce la latencia y permite una toma de decisiones más rápida en aplicaciones de IA.
Incrustaciones
Las incrustaciones son representaciones vectoriales de datos no numéricos.
Las incrustaciones se utilizan para representar datos de texto, imágenes y audio.
Aprendizaje conjunto
Una técnica de aprendizaje automático en la que se entrenan y combinan varios modelos.
Para hacer predicciones, con el objetivo de mejorar el rendimiento general del modelo.
Entropía
Es una medida de la incertidumbre de una variable aleatoria.
Entorno
En el aprendizaje por refuerzo, el entorno es el espacio en el que el agente interactúa.
Toma decisiones y recibe retroalimentación en forma de recompensas o penalizaciones.
Episodio
La secuencia de estados, acciones y recompensas que experimenta un agente en un problema.
De aprendizaje por refuerzo antes de llegar a un estado terminal.
Época
En el entrenamiento de redes neuronales, una época es una iteración completa sobre todo el conjunto de datos de entrenamiento.
Cuantas más épocas, mayor es el tiempo de entrenamiento, pero puede mejorar la precisión del modelo.
Estimador
Es una función o técnica utilizada para aproximar un valor desconocido basado en datos observados.
En aprendizaje automático, los algoritmos entrenan modelos que actúan como estimadores.
De la función que mapea las entradas a las salidas.
Número de Euler
El número de Euler, e, es un número irracional que aparece en muchas áreas de las matemáticas, incluida la IA.
Métricas de evaluación
Métricas de evaluación son herramientas que se utilizan para medir el rendimiento de un modelo de aprendizaje automático.
Computación evolutiva
Un conjunto de algoritmos que utilizan los principios de la evolución natural, como la reproducción.
La mutación y la selección, para encontrar soluciones a los problemas.
Ejecución
Proceso de poner en práctica un modelo de aprendizaje automático en un entorno de producción.
Imitación de expertos
La imitación de expertos es un enfoque para el aprendizaje automático.
Se basa en la idea de que los modelos de IA pueden aprender de los expertos humanos.
Experto en Sistemas
Un programa de computadora que utiliza técnicas de inteligencia artificial.
Para imitar las habilidades de toma de decisiones de un experto humano en un campo específico.
Explicabilidad
Es la capacidad de un modelo de IA para proporcionar explicaciones claras y comprensibles sobre cómo toma sus decisiones.
Esto es crucial para aplicaciones de IA que requieren transparencia, como en los sectores de salud o finanzas.
Exploitation tradeoff
Intercambio de exploración-explotación; La tensión en el aprendizaje por refuerzo entre explorar nuevas acciones.
Explotar las buenas acciones conocidas, para equilibrar el aprendizaje,
Y los objetivos de maximización de recompensas del agente.
Ff
Reconocimiento facial
El proceso de identificación y verificación de personas en función de sus rasgos faciales.
Descriptores de características
Descriptor de características es una representación vectorial de una característica de un objeto o escena.
Codificación de Características
Es el proceso de transformar datos categóricos o no numéricos en una representación numérica adecuada.
Para que un modelo de IA pueda procesarlos y hacer predicciones.
Ingeniería de características
El proceso de seleccionar y crear funciones informativas y relevantes a partir de datos sin procesar.
Para su uso en un modelo de aprendizaje automático.
Extracción de características
Extracción de características es un proceso de convertir datos de entrada en un formato.
Que sea más fácil de usar para un algoritmo de aprendizaje automático.
Selección de características
El proceso de elegir un subconjunto de las funciones más relevantes de un conjunto más grande.
De funciones para usar en un modelo de aprendizaje automático.
Aprendizaje profundo federado
Aprendizaje profundo federado es un enfoque para entrenar modelos de aprendizaje profundo sin compartir los datos subyacentes.
Retroalimentación
En el contexto de IA, la retroalimentación es la información que un sistema recibe sobre su rendimiento.
Permite al modelo ajustar su comportamiento o aprender a partir de sus errores.
Es clave en el aprendizaje por refuerzo.
Aprendizaje federado
Aprendizaje federado es un método para entrenar un modelo de aprendizaje automático sin compartir los datos subyacentes.
Ciclo de retroalimentación
Ciclo de retroalimentación es un proceso iterativo en el que las decisiones y los resultados de un modelo de IA.
Se recopilan y utilizan para mejorar o volver a entrenar el mismo modelo.
Es un tipo de aprendizaje automático donde el modelo es capaz de aprender nuevas tareas con solo unos pocos ejemplos de entrenamiento.
Es útil en situaciones donde los datos etiquetados son escasos.
Función que permite seleccionar o descartar ciertos elementos de un conjunto de datos.
Fine-Tuning
Sintonia FINA
Una técnica de aprendizaje automático que implica ajustar los hiperparámetros o parámetros de un modelo.
Previamente entrenado en un nuevo conjunto de datos para optimizar su rendimiento para una tarea específica.
Sistema formal de razonamiento
Sistema formal de razonamiento es un sistema que utiliza lógica y matemáticas.
Para representar y razonar sobre el conocimiento.
Propagación Hacia Adelante
Es el proceso mediante el cual los datos se introducen en una red neuronal y se propagan a través de las capas.
Hasta generar una predicción o salida final. Contrasta con la retropropagación
Marco de Trabajo
Es un conjunto de herramientas y bibliotecas que proporcionan una infraestructura para desarrollar y entrenar modelos de IA.
Ejemplos populares incluyen TensorFlow, PyTorch y Keras.
Aproximación de funciones
El uso de una función para aproximar la función de valor o la política en un problema de aprendizaje por refuerzo.
Cuando los espacios de estado o acción son demasiado grandes para ser representados explícitamente.
Lógica difusa
Una forma de lógica matemática que permite la incertidumbre y la imprecisión en la entrada y salida de un sistema.
Gg
Un tipo de modelo generativo que consta de dos redes neuronales en competencia, un generador y un discriminador.
Que aprenden a generar y reconocer datos sintéticos respectivamente.
Modelo de Mezcla Gaussiana
Es un modelo probabilístico que asume que los datos provienen de una combinación de varias distribuciones gaussianas.
Se utiliza en técnicas como la clusterización y para modelar datos con distribuciones complejas.
Es un tipo de ruido aleatorio con una distribución normal, que a menudo se agrega a los datos o modelos durante el entrenamiento.
Para mejorar la robustez y evitar el sobreajuste.
Proceso Gaussiano
Es un enfoque no paramétrico para la regresión y clasificación, que asume que las observaciones son muestras de un proceso gaussiano.
Permite hacer predicciones con intervalos de confianza.
Entrenamiento Adversarial General
Es una técnica de entrenamiento que fortalece un modelo de IA exponiéndolo a ejemplos perturbados o adversariales.
Lo hace más robusto ante ataques o perturbaciones que intentan engañar al modelo.
Inteligencia Artificial General (AGI)
Tipo de inteligencia artificial que tiene la capacidad de realizar cualquier tarea que un humano pueda realizar.
Generalización
Se refiere a la capacidad de un modelo para aplicarse correctamente a nuevos datos que no ha visto durante el entrenamiento.
Un modelo que generaliza bien evita el sobreajuste a los datos de entrenamiento.
Capacidad Generalizada
Se refiere a la habilidad de un modelo de IA para aplicar lo que ha aprendido a nuevos datos que no ha visto durante el entrenamiento
En lugar de simplemente memorizar los datos de entrenamiento.
Red Adversaria Generativa (GAN)
Un tipo de red neuronal que consta de dos redes en competencia, un generador y un discriminador.
Aprenden a generar y reconocer datos sintéticos respectivamente.
Una red antagónica generativa, o GAN, es un marco de red neuronal profunda.
Puede aprender de un conjunto de datos de entrenamiento y generar nuevos datos.
Con las mismas características que los datos de entrenamiento.
Formación generativa adversarial
Formación generativa adversarial (GAN) es un tipo de aprendizaje automático no supervisado que utiliza dos redes neuronales.
El generador y el discriminador, para generar datos realistas.
Modelo generativo
Un modelo de aprendizaje automático que aprende la distribución subyacente de los datos.
Puede generar nuevas muestras sintéticas a partir de ellos.
Un gran modelo de lenguaje desarrollado por OpenAI que utiliza una arquitectura transformadora.
Un aprendizaje auto supervisado para generar texto similar al humano.
Generador
Es la parte de una GAN que intenta crear datos falsos (como imágenes) que sean indistinguibles de los datos reales.
El generador mejora continuamente para engañar al discriminador.
Algoritmos genéticos
Algoritmo de búsqueda que utiliza los principios de la evolución natural, como la reproducción.
La mutación y la selección, para encontrar soluciones a los problemas.
Programación genética
Programación genética (GP) es una técnica de aprendizaje automático que se basa en la evolución natural.
Para encontrar soluciones a problemas complejos.
Impureza de Gini
Es una métrica utilizada para evaluar la calidad de una división en un árbol de decisión.
Mide la probabilidad de que un elemento seleccionado al azar sea clasificado incorrectamente.
Si se clasifica de acuerdo con la distribución de etiquetas de la partición.
Índice de Gini
Es una métrica utilizada para medir la pureza de una división en un árbol de decisión.
Un índice de Gini más bajo indica que las instancias de una clase predominan en una partición.
Que significa mayor pureza.
Graph Networks for Materials Exploration la herramienta de inteligencia artificial GNoME es una tecnología desarrollada por Google DeepMind.
Ha predicho 2.2 millones de nuevos materiales, incluyendo 380,000 materiales estables.
Estos materiales tienen el potencial de impulsar tecnologías futuras, especialmente en la fabricación de dispositivos.
Como baterías, chips y componentes electrónicos.
Google Bard Gemini es una nueva tecnología de inteligencia artificial multimodal que permite a Bard entender y responder a texto, imágenes y sonido.
Esto abre un mundo de posibilidades para el uso de Bard, ya que puede ser utilizado para una variedad de tareas.
Es una medida que indica cómo cambiarán los valores de la función objetivo con respecto a los cambios en los parámetros del modelo.
En el entrenamiento de redes neuronales, el gradiente guía el ajuste de los pesos durante el proceso de optimización.
Impulso de Gradientes
Es una técnica de ensemble learning que combina varios modelos débiles (normalmente árboles de decisión) de forma secuencial.
Donde cada modelo intenta corregir los errores del modelo anterior.
Algoritmos populares incluyen XGBoost y LightGBM.
Verificación de Gradientes
Es una técnica utilizada para verificar la correcta implementación del cálculo del gradiente en un modelo de IA.
Comparando los gradientes calculados numéricamente con los obtenidos mediante retropropagación.
Recorte de Gradiente
Es una técnica utilizada para mitigar el problema de la explosión de gradientes, especialmente en redes neuronales profundas o recurrentes.
Limitando el valor máximo de los gradientes para estabilizar el entrenamiento.
Descenso de gradiente
Descenso del gradiente es un algoritmo de optimización iterativo que se utiliza para encontrar el mínimo de una función.
Es un problema en redes neuronales profundas donde los gradientes se vuelven excesivamente grandes durante el entrenamiento.
Causando inestabilidad y dificultad para que el modelo converja. Suele ocurrir en redes recurrentes.
Grafo
Representación matemática de una red de relaciones.
Redes Neuronales de Grafos
Son modelos diseñados para trabajar con datos en forma de grafos, donde los nodos y las aristas representan entidades y relaciones.
Las GNNs se utilizan en aplicaciones como el análisis de redes sociales y la recomendación de productos.
Unidad de Procesamiento Gráfico (GPU)
Unidad de procesamiento gráfico (GPU) es un tipo de procesador diseñado para procesar gráficos.
Algoritmo Voraz
Es un enfoque de solución de problemas que toma decisiones basadas en la mejor solución local en cada paso.
Con la esperanza de que estas decisiones conduzcan a una solución globalmente óptima.
Búsqueda en Cuadrícula
Es una técnica de optimización utilizada para encontrar los mejores hiperparámetros de un modelo mediante la evaluación exhaustiva.
De todas las combinaciones posibles de los valores en una cuadrícula predefinida.
Es una IA modelada según la Hitchhiker’s Guide to the Galaxy, por lo que pretende responder casi cualquier cosa.
Incluso sugerir qué preguntas hacer, una IA capaz de buscar en tiempo real.
Grok está diseñado para responder preguntas con un poco de ingenio y tiene una vena rebelde.
Incluso con algo de sarcasmo y de humor.
Hh
Distancia de Hamming
Es una medida utilizada para calcular la diferencia entre dos secuencias de longitud igual.
Se cuenta el número de posiciones en las que los elementos correspondientes son diferentes.
Se usa en la comparación de patrones y códigos binarios.
Atención Dura
Es una técnica de atención en redes neuronales que selecciona de forma discreta partes específicas de la entrada para enfocarse, ignorando otras áreas.
Contrasta con la atención suave, que asigna pesos a diferentes partes de la entrada en lugar de hacer selecciones discretas.
Votación Dura
En ensemble learning, la votación dura es una técnica donde cada modelo del conjunto vota por una clase.
Y la clase con más votos se elige como la predicción final.
Es utilizada en métodos como el bagging.
Proceso de Hawkes
Es un modelo probabilístico utilizado para eventos que ocurren de manera secuencial.
Donde cada evento aumenta temporalmente la probabilidad de que ocurran eventos futuros.
Se aplica en campos como el análisis financiero y la modelización de redes sociales.
Matriz Hessiana
Es una matriz de segundas derivadas de una función.
En el aprendizaje automático, se utiliza en la optimización de funciones de costo.
Para entender la curvatura de la función en un punto determinado.
Mejorar los algoritmos de optimización como el descenso de gradiente.
Datos Heterogéneos
Son conjuntos de datos que incluyen diferentes tipos de datos, como texto, imágenes, audio, y datos estructurados.
El aprendizaje automático que utiliza datos heterogéneos debe ser capaz de integrar y procesar.
Estas diversas fuentes de información.
Heurística
Un método de resolución de problemas que implica encontrar una solución a través de prueba y error y aprender de experiencias pasadas.
Búsqueda heurística
Método de búsqueda que no garantiza encontrar la solución óptima.
Suele ser más eficiente que la búsqueda exhaustiva.
Capa Oculta
En una red neuronal, las capas ocultas son aquellas que están entre la capa de entrada y la capa de salida.
Estas capas realizan la mayor parte del procesamiento no lineal.
Transformando las entradas para hacer posibles las predicciones o clasificaciones.
Modelo Oculto de Markov (HMM)
Modelo oculto de Markov (HMM) es un modelo estadístico que se utiliza para modelar sistemas.
En los que el estado actual del sistema no es directamente observable.
Neurona oculta
Neurona oculta es una neurona artificial que se encuentra entre las capas de entrada y salida de una red neuronal.
Clusterización Jerárquica
Es un método de agrupamiento en el que los puntos de datos se agrupan en una estructura jerárquica.
Ya sea de manera aglomerativa (de abajo hacia arriba) o divisiva (de arriba hacia abajo).
No requiere especificar el número de clústeres de antemano.
Aprendizaje por Refuerzo Jerárquico
Es una variante del aprendizaje por refuerzo en la que el agente divide una tarea compleja en subtareas más pequeñas.
Estructurando las decisiones en varios niveles de jerarquía.
Función de Pérdida Hinge
Es una función de pérdida utilizada principalmente en máquinas de soporte vectorial (SVM).
Penaliza las clasificaciones incorrectas y las que están demasiado cerca del margen de separación entre clases.
Es una técnica de extracción de características utilizada en el reconocimiento de objetos y visión por computadora.
Analiza la orientación de los gradientes en una imagen, lo que permite detectar bordes y formas.
Híbrido (Sistemas híbridos de IA)
Sistema híbrido es un sistema que combina dos o más enfoques de IA diferentes, Aprendizaje automático, Inteligencia artificial simbólica, Inteligencia artificial natural.
Modelo Híbrido
Es un enfoque que combina múltiples tipos de modelos de IA o algoritmos.
Como la combinación de modelos de aprendizaje supervisado y no supervisado.
El uso de redes neuronales junto con técnicas simbólicas.
Hiperredes
Hiperredes son un tipo de red neuronal que se utiliza para generar otras redes neuronales.
Hiperparámetros
Hiperparámetros son configuraciones que controlan el proceso de aprendizaje de un modelo de aprendizaje automático.
Ajuste de hiper parámetros
El proceso de ajuste de los parámetros de un modelo de aprendizaje automático.
Que se establecen antes del entrenamiento, para mejorar su rendimiento.
Hiperplano
Es una generalización de un plano en dimensiones mayores.
En modelos como máquinas de soporte vectorial (SVM).
Un hiperplano se utiliza para dividir el espacio de características.
Separando los datos en diferentes clases.
Hipersuperficie
Es una generalización de un plano o superficie en un espacio de alta dimensionalidad.
En el aprendizaje automático, las hipersuperficies son útiles para dividir el espacio de características.
En regiones donde las clases o los valores objetivo difieren.
Hipertexto
Hipertexto es una estructura de datos que permite a los usuarios navegar por la información de forma no secuencial.
Hipótesis
En el contexto de IA y aprendizaje automático, una hipótesis es una función que el modelo aprende a partir de los datos de entrenamiento.
Representa una conjetura sobre cómo se relacionan las características de entrada con las salidas.
Es un enfoque en IA donde los humanos participan activamente en el ciclo de aprendizaje del modelo.
Proporcionando retroalimentación, supervisión y correcciones.
Es útil en aplicaciones críticas como la conducción autónoma o la toma de decisiones médicas.
Humanización de la IA
Humanización de la IA es el proceso de hacer que la IA sea más accesible, comprensible y atractiva para los humanos
Ii
Operaciones de Entrada y Salida
En el contexto de IA, se refiere a las interacciones entre el modelo y los dispositivos de almacenamiento o entrada/salida.
Como leer datos de un archivo o enviar los resultados a una interfaz de usuario.
Anotación de imagen
El proceso de etiquetar o anotar imágenes con información relevante, como clases de objetos o cuadros delimitadores.
Subtítulos de imagen
El proceso de generar una descripción en lenguaje natural de una imagen.
Clasificación de imágenes
El proceso de asignar una imagen a una o más categorías o clases predefinidas.
Colorización de imagen
El proceso de agregar colores a una imagen en escala de grises.
Mejora de la imagen
El proceso de mejorar la calidad visual de una imagen, como aumentar su contraste o eliminar el ruido.
Generación de imágenes
El proceso de creación de nuevas imágenes sintéticas utilizando técnicas de inteligencia artificial.
Preprocesamiento de imágenes
El proceso de preparación de las imágenes para su uso.
Restauración de imagen
El proceso de reparar o restaurar una imagen degradada o dañada.
Recuperación de imágenes
El proceso de buscar y recuperar imágenes de una gran base de datos en función de su contenido visual.
Segmentación de imagen
El proceso de dividir una imagen en varias regiones o segmentos.
Cada uno de los cuales representa un objeto o fondo diferente.
Traducción de imagen a imagen
El proceso de convertir una imagen de un dominio a otro, como convertir una fotografía en una pintura o un boceto.
Técnicas de generación de imágenes
Técnicas de generación de imágenes en IA se utilizan para crear imágenes a partir de datos.
Datos Desbalanceados
Se refiere a un conjunto de datos en el que las clases no están representadas de manera equitativa.
En un problema de clasificación binaria, si el 90% de los ejemplos pertenecen a una clase y el 10% a la otra.
Se dice que el conjunto de datos está desbalanceado.
Imputación
Es la técnica utilizada para manejar datos faltantes en un conjunto de datos.
Los valores faltantes se pueden reemplazar por la media, la mediana.
Estimarse mediante modelos predictivos.
Aprendizaje Incremental
Es un enfoque de aprendizaje en el que el modelo se actualiza continuamente a medida que llegan nuevos datos.
En lugar de ser entrenado desde cero con todos los datos acumulados.
Es útil para sistemas que deben aprender de flujos de datos en tiempo real.
Inducción
inducción es un proceso de aprendizaje en el que un modelo aprende a partir de un conjunto de datos de entrenamiento.
Sesgo Inductivo
Son las suposiciones que un algoritmo de aprendizaje automático hace sobre los datos para hacer generalizaciones.
El sesgo inductivo puede afectar la capacidad del modelo para generalizar bien a nuevos datos.
Inferencia
El proceso de deducir conclusiones a partir de premisas usando razonamiento lógico.
Proceso de inferencia
Importante en optimización y cálculos matemáticos.
Motor de inferencia
Motor de inferencia es un componente de un sistema de razonamiento que se encarga de aplicar las reglas de inferencia.
A los datos de entrada para generar conclusiones.
Repintando
El proceso de reparar o rellenar partes dañadas o faltantes de una imagen.
Neurona de entrada
Neurona de entrada es una neurona artificial que recibe datos de entrada del entorno.
Las neuronas de entrada son las primeras neuronas de una red neuronal.
Son responsables de recibir los datos crudos que la red neuronal utilizará para aprender.
Instancia
En el contexto de aprendizaje automático, una instancia es un ejemplo individual del conjunto de datos que tiene un conjunto de características.
En una tabla de datos, una instancia sería una fila, con las columnas representando las características.
Aprendizaje de máquina basado en instancias (IL)
Aprendizaje de máquina basado en instancias (IL) es un enfoque de aprendizaje automático en el que el modelo de aprendizaje.
Se basa en las instancias de datos de entrenamiento.
Agente inteligente
Sistema que puede actuar de forma autónoma en un entorno complejo.
Es un enfoque de aprendizaje automático donde el sistema interactúa con un entorno o con usuarios humanos.
Para recibir retroalimentación durante el entrenamiento, mejorando su desempeño en tiempo real.
Interpretabilidad
Se refiere a la capacidad de un modelo de IA para ser entendido y explicado.
En modelos complejos como las redes neuronales, la interpretabilidad es un desafío importante.
Hay técnicas como LIME o SHAP que ayudan a explicar los resultados.
Invarianza
Es una propiedad de un modelo de IA que indica que su salida no cambia ante ciertas transformaciones de los datos de entrada.
En redes convolucionales, se espera que el modelo sea invariante a traslaciones de la imagen de entrada.
Iteración
Es una única actualización de los parámetros del modelo durante el entrenamiento.
En algoritmos como el descenso de gradiente, se realizan varias iteraciones para minimizar la función de pérdida.
Jj
Es una función de pérdida basada en el índice de Jaccard (o coeficiente de similitud) y se utiliza en problemas de segmentación de imágenes.
Especialmente en visión por computadora. Optimiza la intersección sobre la unión de áreas predichas y reales, mejorando la precisión en tareas de segmentación.
Similitud de Jaccard
Es una medida de similitud entre dos conjuntos. Se calcula como el tamaño de la intersección dividido por el tamaño de la unión de los conjuntos.
Es útil en tareas de procesamiento de texto y análisis de similitud, como la detección de duplicados.
Matriz Jacobiana
Es una matriz de derivadas parciales que describe la tasa de cambio de una función vectorial con respecto a sus variables de entrada.
En redes neuronales, la matriz jacobiana puede usarse para analizar la propagación de errores durante el entrenamiento.
Uso de Java en Inteligencia Artificial.
Java es un lenguaje de programación orientado a objetos que se utiliza para una variedad de propósitos, incluida la inteligencia artificial (IA).
Divergencia de Jensen-Shannon
Es una medida de similitud entre dos distribuciones de probabilidad.
Es una versión simétrica de la divergencia de Kullback-Leibler y se utiliza en tareas de comparación de distribuciones.
Como en modelos de lenguaje y análisis de datos de texto.
Variación temporal en datos de entrada
Jittering es el proceso de agregar ruido aleatorio a los datos de entrada de un modelo de aprendizaje automático.
Distribución Conjunta
Es una representación probabilística que describe las probabilidades de dos o más variables aleatorias simultáneamente.
En IA, la distribución conjunta se usa para modelar la relación entre diferentes variables en problemas probabilísticos, como en redes bayesianas.
Aprendizaje Conjunto
Es un enfoque de aprendizaje en el que varios modelos o tareas se entrenan simultáneamente compartiendo ciertas representaciones o parámetros.
El objetivo es mejorar el rendimiento general al aprovechar la información común entre las tareas.
Esto es útil en el aprendizaje multitarea.
Aunque más común en el campo de la física, el joule es una unidad de energía que puede relacionarse con la IA.
En el contexto del aprendizaje de máquinas eficiente energéticamente, especialmente en dispositivos de bajo consumo.
O en la optimización de hardware para entrenar modelos grandes.
Búsqueda de Puntos de Salto
Es un algoritmo de búsqueda de caminos optimizado que mejora la eficiencia del algoritmo A*
Al eliminar ciertos pasos redundantes en la búsqueda de caminos.
Se utiliza en entornos de IA donde es importante encontrar el camino más corto.
Como en videojuegos o robots de navegación.
Jupyter Notebook es una herramienta de desarrollo y colaboración interactiva que se utiliza para escribir y ejecutar código, crear visualizaciones y documentar proyectos.
Kk
Es una técnica de validación utilizada para evaluar el rendimiento de un modelo dividiendo el conjunto de datos en k partes (o pliegues).
El modelo se entrena k veces, cada vez utilizando k-1 pliegues para el entrenamiento y el pliegue restante para la prueba.
Esto proporciona una evaluación más robusta del rendimiento del modelo.
Algoritmo de agrupamiento
Algoritmo de agrupamiento que divide un conjunto de datos en k grupos.
Es un algoritmo de agrupamiento que particiona un conjunto de datos en k grupos (o clústeres) basándose en la minimización de la variación dentro de cada clúster.
Cada clúster se representa por la media de las instancias en él, y el objetivo es minimizar la suma de las distancias cuadradas.
Entre las instancias y sus centros de clúster.
Un algoritmo de aprendizaje automático no supervisado que se utiliza para agrupar puntos de datos en un número predefinido de grupos.
Algoritmo de vecinos más cercanos
Algoritmo de k vecinos más cercanos, también conocido como KNN o k-NN, es un algoritmo de aprendizaje supervisado no paramétrico.
Utiliza la distancia entre los puntos de datos para clasificar nuevos puntos de datos.
Es una técnica utilizada para encontrar los k caminos más cortos entre dos nodos en un grafo.
Es útil en aplicaciones de optimización y planificación.
Como la navegación en mapas o redes de comunicación.
Filtro de Kalman
Filtro de Kalman es un algoritmo para estimar el estado de un sistema dinámico a partir de observaciones ruidosas.
Índice Kappa
Es una medida de la concordancia entre dos o más evaluadores o clasificaciones que toma en cuenta la posibilidad de acuerdo por azar.
Se utiliza para evaluar la precisión de los modelos de clasificación comparando sus resultados con un estándar.
Indicador Clave de Desempeño
Indicador clave de rendimiento, utilizado en evaluación de modelos.
Los KPI son métricas que se utilizan para medir el progreso de una empresa hacia sus objetivos.
Núcleo (en el contexto de SVM)
Núcleo es una función matemática que se utiliza para transformar los datos de entrada en un espacio de representación más alto.
Esta transformación permite que el algoritmo SVM aprenda funciones de decisión no lineales.
Es un método no paramétrico para estimar la función de densidad de probabilidad de una variable aleatoria.
Se utiliza para la estimación de la distribución de datos continuos a partir de un conjunto de datos discreto.
Es una técnica utilizada en algoritmos de aprendizaje automático, como las Máquinas de Soporte Vectorial (SVM).
Permite transformar datos no linealmente separables en un espacio de características de mayor dimensión.
Donde puedan ser separados linealmente. Esto se logra mediante el uso de funciones kernel.
Cadenas Cinemáticas
Son secuencias de eslabones y articulaciones en un sistema mecánico o robot que describen el movimiento relativo entre las partes del sistema.
Son importantes en la robótica para la planificación de trayectorias y el control de movimiento.
Modelos Cinemáticos
Son modelos que describen el movimiento de los robots o sistemas mecánicos sin considerar las fuerzas involucradas.
Se utilizan en robótica para planificar y controlar el movimiento de los robots.
Grafo de Conocimiento
Es una estructura de datos que representa el conocimiento en forma de nodos (entidades) y aristas (relaciones) entre ellas.
Los grafos de conocimiento se utilizan para mejorar la comprensión y el razonamiento en aplicaciones de IA.
Como los motores de búsqueda y los sistemas de recomendación.
Representación del conocimiento
La forma en que el conocimiento se codifica y almacena en un sistema informático.
Divergencia de Kullback-Leibler
Es una medida de la diferencia entre dos distribuciones de probabilidad.
Se usa en IA para comparar la distribución de probabilidad de un modelo con la distribución real.
Especialmente en problemas de estimación de parámetros y aprendizaje no supervisado.
Es una medida estadística que describe la forma de la distribución de datos, particularmente en términos de la altura y el ancho de las colas.
Una alta curtosis indica colas más pesadas o más extremas en la distribución.
Estimación de Curtosis
Es el proceso de calcular la curtosis de una distribución de datos para entender mejor su forma y comportamiento.
Especialmente en el análisis de datos y la detección de anomalías.
Ll
Propagación de Etiquetas
Es un algoritmo de clasificación semi-supervisada que utiliza la similitud entre datos para propagar las etiquetas.
De las muestras etiquetadas a las no etiquetadas, basándose en un grafo de similitud.
Suavizado de Etiquetas
Es una técnica utilizada para mejorar la generalización del modelo al suavizar las etiquetas de las clases en la función de pérdida.
En lugar de usar etiquetas binarizadas, se utilizan distribuciones de probabilidad suavizadas para evitar la sobreajuste.
Datos etiquetados
Datos etiquetados son datos a los que se les ha asignado una etiqueta o categoría.
Estas etiquetas se utilizan para entrenar modelos de aprendizaje automático.
Modelo de lenguaje
Un modelo de lenguaje en inteligencia artificial es un modelo estadístico que se utiliza para predecir la probabilidad.
De una secuencia de palabras o tokens en un idioma.
Los modelos de lenguaje se usan comúnmente en tareas de procesamiento de lenguaje natural.
Mapas Eigen de Laplace
Es un algoritmo de reducción de dimensionalidad que usa el Laplaciano del grafo para proyectar datos.
A un espacio de menor dimensión preservando las relaciones locales entre los datos.
Suavizado de Laplace
Es una técnica utilizada en modelos probabilísticos para manejar la probabilidad cero en datos escasos.
En el contexto de modelos de lenguaje, se utiliza para ajustar las frecuencias de eventos observados y no observados.
Modelo de lenguaje grande
Un modelo de lenguaje grande en inteligencia artificial es un tipo de modelo estadístico.
Se entrena en un conjunto de datos de texto muy grande y utiliza técnicas de aprendizaje automático.
Para aprender los patrones y la estructura del lenguaje.
Asignación Dirichlet Latente (LDA)
Asignación de Dirichlet latente (LDA) es un modelo probabilístico de aprendizaje no supervisado.
Se utiliza para identificar temas en un conjunto de datos de texto.
Espacio Latente
Es un espacio de características abstracto en el que se representan las variables latentes del modelo.
En modelos generativos como las autoencoders o las Redes Generativas Adversariales (GANs).
El espacio latente captura las características subyacentes y patrones de los datos.
Variable Latente
Son variables que no se observan directamente en los datos pero que se supone que afectan a las variables observables. En modelos como modelos de mezcla gaussiana o modelos de temas (LDA), las variables latentes son fundamentales para capturar estructuras subyacentes en los datos.
Capas
En redes neuronales, una capa es un conjunto de neuronas que procesan los datos.
Existen capas de entrada, ocultas y de salida.
Cada una cumpliendo una función específica en el modelo.
Normalización de Capa
Es una técnica de normalización que se aplica a cada capa de una red neuronal para mejorar la estabilidad y velocidad del entrenamiento.
A diferencia de la normalización por lotes (batch normalization), la normalización de capa normaliza las activaciones.
En cada capa de forma independiente.
Preentrenamiento por Capas
Es una técnica utilizada en redes neuronales profundas donde cada capa se entrena individualmente antes de realizar el entrenamiento final del modelo completo. Se utiliza para mejorar la inicialización y el rendimiento del modelo.
Curva de aprendizaje
Curva de aprendizaje se refiere a la cantidad de tiempo y esfuerzo que se necesita para aprender una nueva habilidad o concepto.
Tasa de aprendizaje
Tasa de aprendizaje es un hiperparámetro que se utiliza en el aprendizaje automático.
Para controlar la rapidez con la que se actualizan los parámetros de un modelo.
Se refiere al enfoque que un modelo utiliza para aprender de los datos, como aprendizaje supervisado.
No supervisado, semi-supervisado o por refuerzo.
Tarea de aprendizaje
Tarea de aprendizaje es una tarea que se puede realizar utilizando un algoritmo de aprendizaje automático.
Ley de Moore es una observación empírica que establece que el número de transistores.
Se pueden colocar en un chip de silicio se duplica aproximadamente cada dos años.
Ley de Zipf es una ley empírica que describe la distribución de las frecuencias de las palabras en un idioma.
La ley establece que la frecuencia de aparición de una palabra es inversamente proporcional a su rango en la lista de frecuencias.
Verosimilitud
Es una función que mide la probabilidad de observar los datos dados ciertos parámetros del modelo.
En estadística y aprendizaje automático, la maximización de la verosimilitud se utiliza para ajustar los parámetros del modelo.
Mínimo Local
Es un punto en la función de pérdida donde el valor es menor que el de sus vecinos inmediatos, pero no necesariamente el mínimo global.
Los algoritmos de optimización pueden quedar atrapados en mínimos locales, lo que impide encontrar la mejor solución global.
Búsqueda Local
Es un enfoque de optimización que explora soluciones cercanas a la solución actual para encontrar mejoras.
Es utilizado en problemas de optimización combinatoria y puede ser útil en la búsqueda de soluciones en espacios de alta dimensión.
Lógica
Lógica es un estudio de la estructura de los argumentos y de la forma en que se relacionan las proposiciones.
Función Logística
Es una función matemática en forma de S que se usa para modelar la probabilidad de una clase en la regresión logística.
La función logística transforma una entrada lineal en un valor entre 0 y 1, adecuado para la clasificación binaria.
Regresión logística
Regresión logística es un tipo de análisis de regresión utilizado para predecir el resultado de una variable categórica.
Una variable que solo puede tomar un número limitado de valores, como «sí» o «no», «positivo» o «negativo»
Modelo Log-Linear
Es un tipo de modelo estadístico en el que la relación entre las variables de entrada y la salida se modela usando una función logarítmica lineal.
Es común en problemas de modelado de distribución de probabilidad y en procesamiento de lenguaje natural.
Memoria a corto y largo plazo (LSTM)
Memoria a corto y largo plazo (LSTM) es un tipo de red neuronal recurrente (RNN).
Puede aprender dependencias a largo plazo entre unidades de tiempo de datos secuenciales.
Es una función que mide cuán mal está prediciendo un modelo en un conjunto de datos dado.
El objetivo del entrenamiento del modelo es minimizar la función de pérdida.
Ejemplos incluyen la entropía cruzada y el error cuadrático medio.
Mm
Aprendizaje automático
Machine learning ó Aprendizaje automático; Un método de entrenamiento de algoritmos que usa grandes cantidades de datos.
Permite que el algoritmo aprenda y mejore por sí solo sin programación explícita.
Traducción Automática
Es una tarea de procesamiento de lenguaje natural (NLP) que utiliza modelos de IA para traducir texto de un idioma a otro.
Ejemplos de técnicas incluyen la traducción estadística y la traducción neuronal.
Cadena de Markov
Es un modelo probabilístico que representa un proceso que pasa de un estado a otro.
Donde la probabilidad de cada estado depende solo del estado anterior.
Se utiliza en modelos de lenguaje, robótica, entre otros.
Es un método de muestreo que utiliza cadenas de Markov para generar muestras de una distribución de probabilidad compleja.
Se usa en inferencia bayesiana y en problemas donde la distribución de probabilidad no se puede calcular directamente.
Proceso de decisión de Markov
Un marco matemático utilizado en el aprendizaje por refuerzo para modelar el proceso de toma de decisiones.
De un agente en un entorno secuencial e incierto.
Propiedad de Markov
La propiedad de un estado en un proceso de decisión de Markov que dice que el futuro es independiente del pasado, dado el estado presente.
Proceso de recompensa de Markov
Un proceso de decisión de Markov que solo tiene un componente de recompensa.
Sin ninguna toma de decisiones involucrada.
Es una técnica utilizada en sistemas de recomendación, donde una matriz grande de usuarios y elementos se descompone.
En dos matrices más pequeñas para descubrir patrones ocultos y relaciones latentes.
Estimación de Máxima Verosimilitud
Es un método para ajustar los parámetros de un modelo probabilístico al maximizar la verosimilitud de los datos observados dados esos parámetros.
Es ampliamente utilizado en estadística y aprendizaje automático para la estimación de parámetros.
Error Absoluto Medio
Es una métrica utilizada para evaluar la precisión de un modelo de regresión.
Se calcula como el promedio de las diferencias absolutas entre las predicciones del modelo y los valores reales.
MAE es más robusto a los valores atípicos en comparación con MSE.
Error Cuadrático Medio
Es una métrica utilizada para evaluar la precisión de un modelo de regresión.
Calcula el promedio de los cuadrados de las diferencias entre los valores reales y los predichos.
Imágenes médicas en IA
Las imágenes médicas en IA es un campo emergente que utiliza la inteligencia artificial para analizar imágenes médicas.
Memoria
Memoria es la capacidad de un sistema de almacenar y recuperar información.
La memoria es un componente esencial de muchos tipos de sistemas de IA.
Como los sistemas de aprendizaje automático, los sistemas de razonamiento y los sistemas de planificación.
Red de Memoria
Es un tipo de red neuronal que incluye un mecanismo de memoria explícita, permitiendo que el modelo almacene y recupere información a lo largo del tiempo.
Se utiliza en tareas de procesamiento de lenguaje natural, como la respuesta a preguntas y la comprensión de texto.
Metadatos
Metadatos son datos sobre datos. Son datos que describen otros datos.
Los metadatos se utilizan para organizar, administrar y comprender los datos.
Aprendizaje Meta
Es un enfoque en el que los modelos aprenden a aprender. En lugar de simplemente aprender una tarea específica.
El modelo aprende a adaptarse rápidamente a nuevas tareas con pocos ejemplos.
Mejorando la capacidad de generalización.
Descenso de Gradiente en Mini-lotes
Es una variante del descenso de gradiente que actualiza los pesos del modelo en base a un subconjunto (mini-lote).
Del conjunto de datos en lugar de usar todo el conjunto de datos a la vez.
Esto mejora la eficiencia y permite un entrenamiento más rápido.
Modelo de Mezcla
Es un tipo de modelo estadístico que asume que los datos provienen de una combinación de varias distribuciones subyacentes.
Un ejemplo común es el modelo de mezcla gaussiana, que utiliza una combinación de distribuciones normales para modelar datos.
Modelo
Un modelo es una representación de un problema o un sistema que se puede usar para hacer predicciones.
Tomar decisiones o aprender patrones en los datos.
Los modelos son una parte fundamental del aprendizaje automático y se utilizan para realizar diversas tareas.
Como clasificación, regresión, agrupamiento o reducción de dimensionalidad.
Ensamble de modelos
Ensamblaje de modelos es un proceso que combina las predicciones de varios modelos de aprendizaje automático.
Para mejorar el rendimiento general.
Complejidad del Modelo
Se refiere a la cantidad de parámetros y la estructura del modelo.
Modelos más complejos tienen una mayor capacidad para ajustar los datos de entrenamiento.
También pueden ser más propensos al sobreajuste.
La complejidad del modelo se gestiona para encontrar un equilibrio entre el ajuste y la generalización.
Despliegue del modelo
El proceso de hacer que un modelo de aprendizaje automático esté disponible para su uso en entornos de producción.
Como implementarlo en un servidor web o integrarlo en una aplicación.
Eficiencia del modelo
Eficiencia del modelo se refiere a la capacidad de un modelo de aprendizaje automático.
Para realizar una tarea de manera eficiente.
Evaluación del modelo
El proceso de medir el rendimiento de un modelo de aprendizaje automático en una tarea específica.
Utilizando métricas como exactitud, precisión y recuperación.
Generalización del modelo
Generalización del modelo en IA es la capacidad de un modelo de aprendizaje automático.
Para realizar predicciones precisas en datos nuevos que no se utilizaron para entrenar el modelo.
Ciclo de vida del modelo
Ciclo de vida del modelo en IA es el proceso de creación, despliegue y mantenimiento de un modelo de aprendizaje automático.
Desempeño del modelo
Desempeño del modelo en IA es una medida de la eficacia con la que un modelo de aprendizaje automático puede realizar una tarea específica.
Selección de modelo
El proceso de elegir el mejor modelo entre un conjunto de modelos candidatos para una tarea determinada.
Entrenamiento del modelo
Entrenamiento del modelo en IA es el proceso de enseñar a un modelo de aprendizaje automático a realizar una tarea.
Validación del modelo
Validación del modelo en IA es el proceso de evaluar el rendimiento de un modelo de aprendizaje automático.
En un conjunto de datos independiente del conjunto de datos de entrenamiento.
Método de Montecarlo
Un algoritmo de aprendizaje por refuerzo que utiliza muestreo aleatorio para estimar la función de valor o la política óptima.
Coordinación multiagente
Coordinación multiagente en IA es el estudio de cómo grupos de agentes autónomos pueden cooperar para lograr un objetivo común.
Bandido de múltiples brazos
Un problema de aprendizaje por refuerzo en el que un agente debe elegir entre un conjunto de acciones.
Cada una con una distribución de recompensas desconocida.
Aprender qué acciones son las más gratificantes a través de prueba y error.
Perceptrón multicapa (MLP)
Perceptrón multicapa (MLP) es un tipo de red neuronal artificial (RNA) que consta de varias capas de neuronas.
Aprendizaje Multimodal
Es un enfoque de aprendizaje automático que combina datos de diferentes modalidades (como texto, imagen, audio).
Para mejorar el rendimiento del modelo. Permite que el modelo aproveche la información complementaria de varias fuentes.
Optimización Multi-Objetivo
Es un enfoque de optimización que busca encontrar soluciones que balanceen múltiples objetivos conflictivos.
Se utiliza en problemas donde hay más de un criterio de optimización y se requiere encontrar un conjunto de soluciones óptimas.
Información mutua
Información mutua es una medida de la cantidad de información que comparten dos variables.
Se puede utilizar para medir la dependencia entre dos variables.
Para identificar características relevantes en un conjunto de datos.
Nn
N-grama (Modelo de lenguaje)
N-grama es una secuencia de n elementos de un conjunto de símbolos.
En el contexto del procesamiento del lenguaje natural, los n-gramas suelen ser secuencias de palabras.
Enfoque Ingenuo
Se refiere a un método simple que asume ciertas condiciones ideales o simplificaciones que no siempre son realistas.
El algoritmo Naive Bayes asume independencia entre las características, lo cual puede no ser el caso en la práctica.
Clasificador Naive Bayes
Un algoritmo de aprendizaje automático utilizado para tareas de clasificación.
Basado en el teorema de probabilidad de Bayes.
Lenguaje natural (NL)
Lenguaje Natural (NL) es una rama de la inteligencia artificial (IA) que se ocupa de la capacidad de las computadoras.
Para comprender y procesar el lenguaje humano
Decodificación de Lenguaje Natural (NLD)
Decodificación de Lenguaje Natural (Natural Language Decoding) es el proceso de convertir información representada en un formato interno.
Como una secuencia de números o bits, en un formato legible para humanos, como texto o voz.
Generación de Lenguaje Natural
Es una tarea de procesamiento de lenguaje natural que se centra en la creación automática de texto.
A partir de datos estructurados o de otros tipos de entrada.
Se utiliza en aplicaciones como generación de informes y chatbots.
Procesamiento Natural del Lenguaje (NLP)
La capacidad de una computadora para comprender, interpretar y generar lenguaje humano.
Comprensión del lenguaje natural (NLU)
Comprensión del lenguaje natural (NLU) es una rama de la inteligencia artificial (IA) que se ocupa de la capacidad de los sistemas informáticos.
Para entender el lenguaje humano.
Vecino Más Cercano
Se refiere a un algoritmo de clasificación o regresión que asigna una etiqueta o valor a una nueva instancia.
En función de los datos más cercanos en el espacio de características.
El algoritmo K-Nearest Neighbors (KNN) es un ejemplo común.
Búsqueda de Vecinos Más Cercanos
Es un problema en el que se busca el punto de datos más cercano a un punto de consulta en un espacio de características.
Se utiliza en aplicaciones como la búsqueda de imágenes similares y la recuperación de información.
Inferencia de Red
Es el proceso de utilizar un modelo de red neuronal entrenado para hacer predicciones o clasificaciones en nuevos datos.
Durante la inferencia, el modelo aplica los pesos aprendidos para calcular las salidas basadas en las entradas.
Latencia de Red
Es el tiempo que tarda en transmitirse una solicitud o respuesta a través de una red.
En el contexto de IA, la latencia de la red puede afectar el tiempo de respuesta.
De un sistema de IA distribuido o basado en la nube.
Búsqueda de Arquitectura Neuronal
Es una técnica que utiliza algoritmos para encontrar la mejor estructura para una red neuronal.
Optimizando la arquitectura del modelo para mejorar su rendimiento en tareas específicas.
Generación de Código Neuronal
Se refiere a la generación automática de código fuente utilizando redes neuronales.
Se utilizan modelos de lenguaje entrenados para producir fragmentos de código.
A partir de descripciones en lenguaje natural.
Grafos neurales
Grafos neuronales (GNN) son un tipo de red neuronal que se utiliza para procesar datos representados en forma de grafos.
Red neuronal
Un tipo de algoritmo de aprendizaje automático modelado a partir de la estructura y función del cerebro humano.
Consta de capas de «neuronas» interconectadas que pueden procesar y transmitir información.
Framework para Redes Neuronales
Es una infraestructura de software diseñada específicamente para construir, entrenar y evaluar redes neuronales.
Ejemplos incluyen Caffe, Theano y MXNet.
Además de los ya mencionados TensorFlow y PyTorch.
Transferencia de Estilo Neuronal
Es una técnica que utiliza redes neuronales para combinar el contenido de una imagen con el estilo artístico de otra.
Se usa principalmente en la creación de arte y la edición de imágenes.
Neuroevolución
Es una técnica que combina redes neuronales y algoritmos evolutivos para optimizar el diseño y los parámetros de las redes neuronales.
Utiliza conceptos de la evolución natural para mejorar el rendimiento de los modelos.
Nodo
En una red neuronal, un nodo (o neurona) es una unidad que recibe entradas, aplica una función de activación y transmite una salida a otros nodos en la red.
Los nodos en diferentes capas forman la estructura de la red neuronal.
Ruido
Se refiere a la variabilidad o las perturbaciones en los datos que no están relacionadas con la señal útil.
En el contexto de IA, el ruido puede afectar la calidad del modelo y la precisión de las predicciones.
Inyección de Ruido
Es una técnica utilizada para mejorar la robustez de un modelo de aprendizaje automático.
Al agregar ruido a los datos de entrada o a los parámetros del modelo durante el entrenamiento.
Esto puede ayudar a prevenir el sobreajuste y mejorar la generalización.
Función de Activación No Lineal
Es una función utilizada en redes neuronales para introducir no linealidades en el modelo.
Ejemplos incluyen la función sigmoide, ReLU (Rectified Linear Unit) y tangente hiperbólica.
Proceso No Estacionario
Es un tipo de proceso estocástico en el que las propiedades estadísticas cambian con el tiempo.
En IA, es importante tener en cuenta los procesos no estacionarios,
Cuando se modelan datos que evolucionan con el tiempo.
Normalización
El proceso de escalar los valores de una característica o un conjunto de datos a un rango común, como [0, 1] o [-1, 1].
Capa de Normalización
Es una capa en redes neuronales que aplica técnicas de normalización, como normalización por lotes o normalización de capa.
Para estandarizar las activaciones de la red y mejorar la estabilidad del entrenamiento.
Hipótesis nula
La hipótesis nula (H0) es una afirmación que se supone verdadera hasta que haya pruebas suficientes para rechazarla.
Oo
Detección de objetos
El proceso de identificar y localizar objetos en una imagen o un video.
Seguimiento de Objetos
Es una técnica en visión por computadora que se utiliza para seguir el movimiento de un objeto a través de una secuencia de imágenes o video.
Es importante en aplicaciones como vigilancia y análisis de video.
Función Objetivo
Es una función que el modelo de IA intenta optimizar durante el proceso de entrenamiento.
Puede ser la misma que la función de costo o una función que combine varios objetivos.
Aprendizaje Offline
Es un enfoque en el que el modelo se entrena en un conjunto de datos fijo y no se actualiza una vez completado el entrenamiento.
Se contrasta con el aprendizaje en línea, que actualiza el modelo continuamente con nuevos datos.
Modelo Preentrenado
Se refiere a un modelo de IA que ya ha sido entrenado en un conjunto de datos y está disponible para su uso.
En nuevas tareas sin necesidad de entrenamiento adicional.
Los modelos preentrenados se utilizan para tareas comunes y pueden ser afinados para tareas específicas.
Codificación One-Hot
Es una técnica de codificación de variables categóricas en la que cada categoría se representa como un vector binario con un solo valor «1» y el resto «0».
Esto se usa comúnmente para convertir etiquetas categóricas.
En un formato que los modelos de aprendizaje automático pueden procesar.
Aprendizaje de una sola muestra
El aprendizaje de una sola muestra es un tipo de aprendizaje automático en el que un modelo se entrena con un solo ejemplo de cada clase de datos.
Algoritmo en Línea
Es un tipo de algoritmo que procesa datos secuenciales y se actualiza a medida que llegan nuevos datos.
Sin necesidad de almacenar todos los datos históricos.
Se usa en situaciones donde los datos están disponibles en tiempo real o en grandes volúmenes.
Aprendizaje en Línea
Es un enfoque en el que el modelo se actualiza continuamente a medida que llegan nuevos datos.
En lugar de ser entrenado una vez con un conjunto de datos completo.
Esto permite que el modelo se adapte a cambios en los datos con el tiempo.
Ontología
Un sistema que representa las relaciones y categorías dentro de un dominio particular de conocimiento.
Es una organización sin fines de lucro de investigación y desarrollo de inteligencia artificial fundada en 2015 por Elon Musk, Sam Altman, Ilya Sutskever y otros.
Reconocimiento óptico de caracteres (OCR)
Reconocimiento óptico de caracteres. El reconocimiento óptico de caracteres es un proceso que convierte una imagen de texto.
En un formato de texto que pueden leer las máquinas.
Control Óptimo
Es un área de la teoría de control que se centra en encontrar una política de control que optimice una función de rendimiento a lo largo del tiempo.
Se aplica en problemas de toma de decisiones secuenciales y en el control de sistemas dinámicos.
Política óptima
La política que maximiza la recompensa acumulada esperada en un problema de aprendizaje por refuerzo.
Función de valor óptimo
La función de valor que corresponde a la política óptima en un problema de aprendizaje por refuerzo.
Optimización
Es el proceso de encontrar la mejor solución posible para un problema dado, generalmente minimizando o maximizando una función objetivo.
En IA, la optimización se utiliza para ajustar los parámetros de un modelo.
Con el fin de minimizar la función de pérdida.
Métodos de optimización
Los métodos de optimización son técnicas que se utilizan para encontrar la mejor solución a un problema.
Problema de Optimización
Es un problema matemático que busca encontrar el mejor resultado (como la máxima utilidad o la mínima pérdida) bajo ciertas restricciones.
En IA, los problemas de optimización son fundamentales para ajustar los parámetros.
De los modelos y resolver tareas específicas.
Técnicas de optimización
Técnicas de optimización en IA son un conjunto de métodos que se utilizan para encontrar la mejor solución a un problema.
Optimizador
Es un algoritmo utilizado para ajustar los parámetros de un modelo durante el entrenamiento con el fin de minimizar la función de pérdida.
Ejemplos incluyen el descenso de gradiente, Adam y RMSprop.
Mínimos Cuadrados Ordinarios (OLS)
OLS asume que la relación entre las variables es lineal, y que los errores son independientes, idénticos y distribuidos normalmente.
Mínimos cuadrados ordinarios, en regresión
Ortogonalización
Es el proceso de convertir un conjunto de vectores en un conjunto ortogonal.
Vectores que son perpendiculares entre sí.
En IA, se utiliza para mejorar la estabilidad y el rendimiento de los algoritmos.
De optimización y reducción de dimensionalidad.
Valor Atípico
Es una observación en un conjunto de datos que se desvía significativamente de la mayoría de los otros datos.
Los valores atípicos pueden afectar negativamente el rendimiento de los modelos.
Pueden ser eliminados o tratados durante el preprocesamiento.
Detección de Valores Atípicos
Es el proceso de identificar y manejar observaciones que se desvían significativamente del patrón general de los datos.
La detección de valores atípicos es importante para mejorar la calidad del modelo y la precisión de las predicciones.
Neurona de salida
Una neurona de salida es una neurona que se encuentra en la capa de salida de una red neuronal artificial.
La capa de salida es la capa final de una red neuronal, y es responsable de generar la respuesta de la red neuronal.
Error Fuera de la Bolsa
Es una estimación del error en los modelos de bosques aleatorios (random forests) utilizando las observaciones.
Que no fueron incluidas en el conjunto de entrenamiento de cada árbol individual.
Proporciona una medida de la precisión del modelo sin necesidad de una validación cruzada separada.
Sobreajuste
Una condición en la que un modelo de aprendizaje automático funciona bien con los datos de entrenamiento.
Pero deficiente con los datos nuevos e invisibles, debido a que es demasiado complejo.
Se adapta al ruido de los datos de entrenamiento.
Detección de Sobreajuste
Es el proceso de identificar si un modelo está sobreajustado a los datos de entrenamiento.
Se utilizan técnicas como la validación cruzada y la evaluación en conjuntos de datos.
De prueba para detectar y mitigar el sobreajuste.
Sobre-muestreo
Es una técnica utilizada en el manejo de conjuntos de datos desbalanceados.
Donde se generan más ejemplos de la clase minoritaria para igualar la distribución de clases.
El SMOTE (Synthetic Minority Over-sampling Technique) es un ejemplo de técnica de sobre-muestreo.
Pp
Relleno
En redes neuronales convolucionales, el padding es la adición de valores adicionales alrededor de los bordes.
De las imágenes o características para controlar el tamaño de la salida.
De la convolución y preservar información en los bordes.
Ajuste de Parámetros
Es el proceso de ajustar los hiperparámetros de un modelo de IA para mejorar su rendimiento.
Incluye técnicas como la búsqueda en cuadrícula y la búsqueda aleatoria.
Para encontrar los mejores valores para los hiperparámetros.
Eficiencia de Pareto
Es un concepto utilizado en optimización de múltiples objetivos.
Una solución es eficiente de Pareto si no se puede mejorar un objetivo sin empeorar al menos otro.
Gráfico de Dependencia Parcial
Es una herramienta de visualización que muestra la relación entre una característica específica y la predicción del modelo.
Mientras se mantienen las demás características constantes.
Detección de patrones
Es el proceso de identificar patrones en un conjunto de datos.
Reconocimiento de patrones
La capacidad de identificar patrones o regularidades en los datos.
Proceso de adquisición de información a través de los sentidos.
Perceptrón
Perceptrón es una neurona artificial simple que puede aprender a clasificar datos.
Un perceptrón tiene una sola entrada, una sola salida y un umbral.
Degradación de Desempeño
Se refiere a la disminución de la precisión o la eficacia de un modelo de IA a lo largo del tiempo.
Generalmente debido a cambios en el entorno o los datos subyacentes (problema de «drift»).
Medición de rendimiento
La medición del rendimiento en IA es el proceso de recopilar y analizar datos para evaluar el rendimiento de un sistema de IA.
Métricas de Rendimiento
Son medidas utilizadas para evaluar la eficacia de un modelo de IA.
Incluyen métricas como precisión, recall, F1-score, curva ROC y error cuadrático medio (MSE).
Recomendación personalizada
Una recomendación personalizada es un consejo o sugerencia que se proporciona a un individuo.
En función de sus intereses y preferencias individuales.
Memoria episódica
La memoria episódica es un tipo de memoria de trabajo que almacena recuerdos autobiográficos y contextualizados.
Planificación
El proceso de determinar un curso de acción para lograr una meta específica.
Nube de puntos
Una nube de puntos es una representación de un objeto o escena en el mundo real como una colección de puntos.
Política
En aprendizaje por refuerzo, una política es una función que mapea estados a acciones.
Y define cómo el agente toma decisiones en un entorno dado.
Gradiente de Política
Es un enfoque en aprendizaje por refuerzo que optimiza directamente la política del agente al calcular el gradiente.
De la función objetivo con respecto a los parámetros de la política.
Iteración de políticas
Un algoritmo de aprendizaje por refuerzo que consiste en alternar entre evaluar la política actual.
Y mejorarla en función de la función de valor aprendido.
Agrupamiento
Es una operación en redes neuronales convolucionales que reduce la dimensionalidad de las características.
Mediante la aplicación de una función de agregación (como el máximo o el promedio).
En regiones locales de las imágenes o características.
Precisión
Es una métrica de evaluación utilizada en clasificación que mide la proporción de verdaderos positivos entre todos los positivos predichos.
La precisión es importante en contextos donde el costo de falsos positivos es alto.
Curva Precisión-Recuperación
Es una gráfica que muestra la relación entre la precisión y el recall para diferentes umbrales de clasificación.
Se utiliza para evaluar el rendimiento de modelos en tareas de clasificación desbalanceada.
Análisis predictivo
El análisis predictivo es un campo de la ciencia de los datos que se centra en el uso de datos históricos para predecir eventos futuros.
El análisis predictivo se utiliza en una amplia gama de aplicaciones.
Modelado Predictivo
Es el proceso de utilizar modelos estadísticos o de aprendizaje automático para hacer predicciones sobre datos futuros.
Basados en patrones aprendidos a partir de datos históricos.
Predicción
Predicción es la tarea de estimar el valor de una variable en el futuro, basándose en datos históricos.
Análisis Predictivo
Es el uso de técnicas estadísticas y de aprendizaje automático para analizar datos actuales y pasados.
Con el fin de hacer predicciones sobre eventos futuros.
Se utiliza en aplicaciones como modelado de riesgos, mantenimiento predictivo y marketing dirigido.
Preprocesamiento
El proceso de preparación de los datos para su uso en un modelo de aprendizaje automático.
Incluida la limpieza, la transformación y el escalado de los datos.
Componente Principal
Es una de las nuevas variables creadas por PCA que representa una combinación lineal de las variables originales.
Capturando la mayor varianza en los datos.
Análisis de Componentes Principales
El Análisis de Componentes Principales (PCA) es un método de análisis de datos multivariante.
Se utiliza para reducir la dimensionalidad de un conjunto de datos.
Modelo Gráfico Probabilístico
Es una representación que combina la teoría de probabilidad y los grafos para modelar dependencias entre variables.
Incluye modelos como redes bayesianas y modelos de campos aleatorios condicionales (CRF).
Gráficos probabilísticos
Los gráficos probabilísticos son una representación de datos que combina la estructura de un gráfico con la probabilidad.
Los gráficos probabilísticos se utilizan para modelar la incertidumbre y la dependencia entre las variables.
Modelo Probabilístico
Es un tipo de modelo que utiliza probabilidades para hacer predicciones y manejar incertidumbre.
Los modelos probabilísticos incluyen enfoques como los modelos de mezcla y los modelos gráficos.
Distribución de Probabilidad
Describe cómo se distribuyen los valores de una variable aleatoria.
En IA, es crucial para modelos probabilísticos.
Como redes bayesianas o métodos de Monte Carlo.
Es un algoritmo de aprendizaje por refuerzo utilizado para optimizar políticas en problemas de control.
PPO es conocido por su simplicidad y eficacia en comparación con otros métodos de optimización de políticas.
Es un combo entre los LLMs actuales y la técnica de Aprendizaje por refuerzo.
La Q sugiere a la técnica clásica de Q-Learning, ámpliamente usada en RL y que en su vertiente deep (DQN) ha cosechado bastantes éxitos.
El Proyecto Q* es un nombre que se le ha dado a una iniciativa de investigación que busca combinar los modelos de lenguaje de gran tamaño (LLMs).
Con técnicas de aprendizaje por refuerzo (RL) para crear sistemas de inteligencia artificial capaces de generar contenido innovador y de alta calidad.
Poda
En el contexto de árboles de decisión, la poda es un proceso de eliminar partes de un modelo de aprendizaje automático que se consideran menos importantes o redundantes.
Pseudo-código
Es una representación informal de un algoritmo que utiliza una mezcla de lenguaje natural y notación matemática.
Para describir los pasos del algoritmo de manera que sea fácil de entender y convertir en código real.
Q-aprendizaje
Un algoritmo de aprendizaje por refuerzo que aprende una función de valor de acción, también conocida como función Q.
Que estima las recompensas futuras esperadas para cada acción en un estado determinado.
Aseguramiento de la Calidad
En el contexto de IA, el aseguramiento de la calidad se refiere a los procedimientos y prácticas.
Destinados a garantizar que los modelos de IA funcionen correctamente.
Y cumplan con los estándares de precisión, confiabilidad y robustez.
Análisis cuantitativo
El análisis cuantitativo en IA se refiere al proceso de entender datos numéricos y patrones a través de técnicas estadísticas y matemáticas.
El análisis cuantitativo se utiliza en una amplia gama de aplicaciones de IA.
Características Cuantitativas
Son características o variables en un conjunto de datos que tienen valores numéricos.
En aprendizaje automático, las características cuantitativas se utilizan.
Para entrenar modelos y realizar análisis estadísticos.
Cuantización
La cuantificación en IA es un proceso de reducir la precisión de los datos o los modelos de aprendizaje automático.
Para que puedan almacenarse o procesarse de manera más eficiente.
Computación cuántica
La computación cuántica es un campo emergente de la informática que utiliza las leyes de la mecánica cuántica.
Para resolver problemas que son demasiado complejos para las computadoras clásicas.
Criptografía Cuántica
Es una rama emergente que utiliza principios de la física cuántica para desarrollar sistemas de seguridad y protección de datos más robustos.
Potencialmente útiles para aplicaciones de IA seguras.
Métodos Cuasi-Newton
Son una clase de algoritmos de optimización que buscan encontrar un mínimo local de una función.
Utilizando aproximaciones a la matriz Hessiana, como en el método BFGS.
Se utilizan para entrenar modelos de aprendizaje automático y ajustar parámetros.
Consulta
En el contexto de bases de datos y sistemas de recuperación de información.
Una consulta es una solicitud para obtener información específica de un conjunto de datos.
En IA, las consultas también pueden referirse a solicitudes de información en sistemas.
De procesamiento de lenguaje natural y recuperación de información.
Expansión de Consulta
Es una técnica utilizada en sistemas de recuperación de información y motores de búsqueda para mejorar la relevancia de los resultados.
La expansión de consulta implica modificar la consulta inicial.
Agregando términos relacionados o sinónimos para obtener mejores resultados.
Lenguaje de consulta
Un lenguaje de consulta es un lenguaje informático que se utiliza para interactuar con una base de datos.
Se utiliza para especificar las operaciones que se deben realizar en la base de datos.
Como la selección, la inserción, la actualización y la eliminación de datos.
Optimización de consultas en bases de datos
La optimización de consultas es el proceso de mejorar el rendimiento de una consulta a una base de datos.
Esto se puede hacer mediante el uso de técnicas como la planificación de consultas, el análisis de estadísticas y el uso de índices.
Algoritmo Quine-McCluskey
Algoritmo de simplificación de expresiones booleanas. El algoritmo Quine-McCluskey es un método para simplificar expresiones booleanas.
Lleva el nombre de sus inventores, Willard Van Orman Quine y Edward J. McCluskey.
El algoritmo se publicó por primera vez en 1959 y desde entonces se ha convertido en uno de los métodos más utilizados.
Para la simplificación booleana.
Es un gran modelo de lenguaje de inteligencia artificial preentrenado de chat propuesto por Alibaba Cloud.
Está entrenado en un conjunto de datos masivo de texto y código, y puede generar texto.
Traducir idiomas, escribir diferentes tipos de contenido creativo y responder a sus preguntas de manera informativa.
Rr
Bosque Aleatorio
Un bosque aleatorio es un algoritmo de aprendizaje automático supervisado que se utiliza para clasificación y regresión.
Variable Aleatoria
Es una variable que puede tomar diferentes valores con ciertas probabilidades.
En IA y estadísticas, las variables aleatorias se utilizan para modelar incertidumbres y realizar inferencias probabilísticas.
Recuperación Clasificada
Es un enfoque en sistemas de recuperación de información donde los resultados se clasifican y presentan en un orden de relevancia.
La recuperación clasificada busca proporcionar los resultados más pertinentes en las primeras posiciones.
Razonamiento
El proceso de sacar conclusiones basadas en evidencia y argumentos lógicos.
Exhaustividad o Sensibilidad
Es una métrica de evaluación en clasificación que mide la proporción de verdaderos positivos entre todos los casos verdaderos positivos.
Es crucial cuando es importante identificar todos los positivos, incluso a costa de tener algunos falsos positivos.
Curva ROC
Es una gráfica que muestra el rendimiento de un modelo de clasificación en función de su tasa de verdaderos positivos y falsos positivos.
Es útil para evaluar la capacidad de un clasificador.
Sistemas de recomendación
Los sistemas de recomendación son un tipo de aprendizaje automático que se utilizan para recomendar productos, contenido o servicios a los usuarios.
Red neuronal recurrente (RNN)
Un tipo de red neuronal diseñada específicamente para procesar datos secuenciales, utilizando conexiones de retroalimentación.
Para permitir que la red recuerde y haga uso de información pasada.
Red Neuronal Recursiva
Es un tipo de red neuronal que se aplica de manera recursiva a las estructuras de datos, como árboles, en lugar de secuencias.
Las RNN recursivas son útiles para tareas como el análisis sintáctico de lenguaje natural.
Regresión
Es una técnica de aprendizaje supervisado utilizada para predecir un valor continuo a partir de datos de entrada.
Ejemplos incluyen regresión lineal y regresión polinómica.
Técnicas de regresión
La regresión es un subcampo del aprendizaje automático supervisado que se utiliza para predecir un valor continuo.
Una técnica de aprendizaje automático utilizada para predecir un valor numérico continuo basado en un conjunto de características de entrada.
Regularización
La regularización es una técnica que se utiliza para evitar el sobreajuste de los modelos de aprendizaje automático.
Camino de Regularización
Es la secuencia de soluciones obtenidas al variar un parámetro de regularización en un modelo.
El camino de regularización ayuda a entender cómo cambian los coeficientes.
Del modelo con diferentes niveles de regularización.
Aprendizaje reforzado (RL)
Un tipo de aprendizaje automático en el que un agente aprende a través de prueba y error.
Al interactuar con su entorno y recibir recompensas o castigos por sus acciones.
Algoritmos de Aprendizaje por Refuerzo
Son algoritmos utilizados en aprendizaje por refuerzo para aprender políticas óptimas de toma de decisiones.
Ejemplos incluyen Q-Learning, SARSA, Deep Q-Networks (DQN) y Proximal Policy Optimization (PPO).
Aprendizaje por refuerzo a partir de la retroalimentación humana
Un tipo de técnica de aprendizaje automático en la que un sistema de inteligencia artificial (IA) aprende de los comentarios.
Recompensas proporcionados por un usuario o entrenador humano.
Aprendizaje por Refuerzo con Aproximación de Funciones
Es una técnica en aprendizaje por refuerzo donde se utilizan aproximaciones de funciones (como redes neuronales).
Para estimar funciones de valor o políticas, en lugar de utilizar tablas de valores exactos.
Entrenamiento con refuerzo
El entrenamiento con refuerzo es un tipo de aprendizaje automático en el que un agente aprende.
A realizar una tarea a través de recompensas y castigos.
Aprendizaje de Representaciones
Es un enfoque en el aprendizaje automático que se centra en aprender representaciones útiles de los datos.
Para mejorar el rendimiento en tareas específicas, como autoencoders y embeddings.
Red Residual
Es un tipo de red neuronal profunda que introduce conexiones de atajo (residuales) entre capas.
Para facilitar el entrenamiento de redes muy profundas.
La arquitectura de redes residuales ayuda a mitigar el problema de la desaparición del gradiente.
Asignación de Recursos
En el contexto de IA, se refiere a la distribución eficiente de recursos computacionales.
Como tiempo de CPU y memoria, entre diferentes tareas o modelos para optimizar el rendimiento y la eficiencia.
Función de recompensa
La función que define la recompensa o el castigo que recibe un agente por sus acciones en un problema de aprendizaje por refuerzo.
Robótica
El estudio y aplicación de robots y automatización.
Automatización de Procesos Robóticos
Es una tecnología que utiliza robots de software para automatizar tareas repetitivas y basadas en reglas en procesos empresariales.
RPA se combina a menudo con IA para mejorar la toma de decisiones y la flexibilidad en la automatización.
Robustez
Se refiere a la capacidad de un modelo de IA para mantener un buen rendimiento incluso frente a datos ruidosos.
Valores atípicos o perturbaciones en el entorno. La robustez es crucial para la generalización y la estabilidad del modelo.
Pruebas de robustez
Las pruebas de robustez son un conjunto de técnicas que se utilizan para evaluar la capacidad de un modelo de aprendizaje automático.
Para funcionar correctamente en condiciones adversas.
Las condiciones adversas pueden incluir datos ruidosos, datos incompletos o datos manipulados.
Error Cuadrático Medio
Es una métrica de evaluación que mide la raíz cuadrada del promedio de los errores cuadrados.
Entre las predicciones del modelo y los valores reales.
Sistema Basado en Reglas
Es un sistema de IA que toma decisiones basadas en un conjunto de reglas predefinidas.
Estos sistemas utilizan reglas «si-entonces» para deducir conclusiones.
Tomar acciones en función de la entrada proporcionada.
Aprendizaje de máquina basado en reglas (RL)
El aprendizaje automático basado en reglas (RL) es un enfoque para el aprendizaje automático.
En el que los modelos se construyen utilizando reglas predefinidas.
Ss
Muestreo
El muestreo es un proceso que se utiliza para seleccionar un subconjunto de datos de un conjunto de datos más grande.
Frecuencia de Muestreo
En el procesamiento de señales, es la tasa a la que se recogen muestras de datos continuos en el tiempo.
Un muestreo adecuado es clave para capturar correctamente las características de la señal.
SARAS
Un algoritmo de aprendizaje por refuerzo que aprende una función de acción-valor utilizando la recompensa esperada y el valor de la siguiente acción.
En lugar de la recompensa final como en Q-learning.
Aprendizaje Automático Escalable
Se refiere a la capacidad de los algoritmos y sistemas de aprendizaje automático para manejar grandes volúmenes de datos.
Escalar eficientemente en función del tamaño del conjunto de datos y la complejidad del modelo.
Sistemas de búsqueda
Los sistemas de búsqueda son un tipo de sistema de información que permite a los usuarios encontrar información en un conjunto de datos.
Segmentación
En visión por computadora y procesamiento de imágenes, la segmentación es el proceso de dividir una imagen en regiones o segmentos.
Que corresponden a diferentes objetos o características.
La segmentación es fundamental para tareas como el reconocimiento de objetos y el análisis de imágenes.
Mapas autoorganizados (SOM)
Los mapas autoorganizados (SOM) son una técnica de aprendizaje no supervisado que se utiliza para visualizar y agrupar datos.
Se basan en la idea de que los datos similares tienden a agruparse en áreas cercanas del espacio de representación.
Aprendizaje Auto-supervisado
Es un tipo de aprendizaje en el que el modelo utiliza los propios datos como supervisión para entrenarse.
El aprendizaje auto-supervisado crea tareas auxiliares o etiquetas a partir de los datos.
Sin necesidad de etiquetas externas, y se usa para pre-entrenar modelos.
Segmentación Semántica
Es un tipo de segmentación en visión por computadora que asigna una etiqueta a cada píxel de una imagen.
De modo que los píxeles que pertenecen al mismo objeto o clase tengan la misma etiqueta.
A diferencia de la segmentación de instancias, no distingue entre diferentes objetos de la misma clase.
Web semántica
Una extensión de la World Wide Web que permite a las máquinas comprender el significado de los datos en la web.
Aprendizaje Semi-Supervisado
Es un enfoque de aprendizaje automático que utiliza una combinación de datos etiquetados y no etiquetados para entrenar un modelo.
Es útil cuando se dispone de pocos datos etiquetados y muchos datos no etiquetados.
Análisis de Sentimiento
El análisis de sentimiento, también conocido como análisis de opinión, es una técnica de procesamiento del lenguaje natural (PLN).
Se utiliza para identificar y clasificar las emociones en el lenguaje humano.
Las emociones que se pueden identificar incluyen felicidad, tristeza, ira, miedo y sorpresa.
Seq2Seq
Es una arquitectura de red neuronal utilizada para tareas de procesamiento de secuencias, como traducción automática y generación de texto.
Los modelos Seq2Seq generalmente consisten en un codificador y un decodificador.
Que transforman una secuencia de entrada en una secuencia de salida.
Datos Secuenciales
Son datos que tienen una estructura de secuencia, donde el orden de los elementos es significativo.
Ejemplos incluyen series temporales y texto, y se procesan a menudo con modelos como RNN y LSTM.
Señales en procesamiento de señales
En el procesamiento de señales, una señal es una representación de un fenómeno físico que varía con el tiempo o el espacio.
Las señales pueden ser continuas o discretas, y pueden ser analógicas o digitales.
Coeficiente de Silueta
Es una métrica utilizada para evaluar la calidad de un agrupamiento (clustering) midiendo qué tan similar es.
Un objeto a su propio grupo en comparación con otros grupos.
Aprendizaje de Similitud
Es un enfoque en aprendizaje automático que se centra en aprender una función que mide la similitud entre pares de datos.
Se utiliza en tareas como sistema de recomendación y verificación de identidad.
Medida de Similitud
Es una métrica utilizada para evaluar la similitud entre dos datos o entre dos vectores de características.
Las medidas de similitud incluyen distancia euclidiana, coseno de similitud, y distancia de Manhattan.
Puntuación de similitud
Una puntuación de similitud es una medida de la similitud entre dos objetos.
Se puede utilizar para una variedad de propósitos.
Búsqueda de Similitud
Es una técnica utilizada para encontrar elementos en un conjunto de datos que son similares a un elemento de consulta.
Se usa en aplicaciones como motores de recomendación y recuperación de información.
Simulación
La simulación es el proceso de crear un modelo de un sistema o proceso en el mundo real.
Se puede utilizar para una variedad de propósitos.
Descomposición en Valores Singulares
La descomposición en valores singulares (SVD) es una técnica matemática que se utiliza para descomponer una matriz en tres matrices más pequeñas.
Hogar inteligente (Domótica)
Un hogar inteligente, también conocido como domótica, es una casa que utiliza la tecnología.
Para automatizar las tareas y proporcionar comodidad, seguridad y eficiencia.
Función Softmax
Es una función de activación utilizada en la capa de salida de redes neuronales para problemas de clasificación multiclase.
La función softmax convierte un vector de valores en una distribución de probabilidad sobre las clases posibles.
Sparsidad
Es una propiedad de los datos o modelos en la que la mayoría de los valores son cero o nulos. La sparsidad es importante en el aprendizaje automático y la compresión de modelos para mejorar la eficiencia computacional y reducir el almacenamiento.
Patrón de Sparsidad
Es la estructura de los datos en los que la mayoría de los elementos son cero o nulos.
Identificar y explotar el patrón de sparsidad en matrices y modelos.
Puede mejorar la eficiencia del almacenamiento y el cálculo.
Stable Diffusion es un modelo de texto a imagen basado en aprendizaje profundo que puede generar imágenes.
Muy detalladas basadas en descripciones de texto.
Autoencoders apilados
Los autoencoders apilados, también conocidos como redes de autoencoders profundos, son un tipo de arquitectura de red neuronal artificial.
Que consiste en múltiples capas de autoencoders interconectados.
Desviación estándar
La desviación estándar es una medida de la dispersión de los datos. Mide la distancia media entre los datos y la media.
Cuanto mayor sea la desviación estándar, más dispersos estarán los datos.
Estandarización
El proceso de transformar los valores de una característica o un conjunto de datos para tener una media cero y una varianza unitaria.
Estado
En aprendizaje por refuerzo, el estado es una representación del entorno en un momento dado.
El agente toma decisiones y realiza acciones basándose en el estado actual.
Para maximizar las recompensas a lo largo del tiempo.
Espacio de Estados
El conjunto de todos los estados posibles en un problema de aprendizaje por refuerzo.
Búsqueda en Espacio de Estados
Es una técnica de IA utilizada para encontrar una solución a un problema navegando por el conjunto de estados posibles.
Se utiliza en problemas de optimización y búsqueda.
Transición de estado
El movimiento del agente de un estado a otro estado en un problema de aprendizaje por refuerzo.
Basado en una acción y las probabilidades de transición del entorno.
Inferencia estadística
La inferencia estadística es el proceso de sacar conclusiones sobre una población a partir de una muestra.
Estocástico
Se refiere a procesos o algoritmos que tienen un componente aleatorio. Muchos algoritmos de IA.
Como el descenso de gradiente estocástico, incluyen elementos estocásticos.
Para mejorar la eficiencia o evitar caer en mínimos locales.
Gradiente ascendente estocástico (SGD)
El descenso de gradiente estocástico (SGD) es un algoritmo de optimización utilizado para entrenar modelos de aprendizaje automático.
Proceso Estocástico
Es un proceso que evoluciona aleatoriamente a lo largo del tiempo.
En IA, los procesos estocásticos se utilizan para modelar incertidumbre y aleatoriedad.
En sistemas dinámicos y en modelos probabilísticos.
Transferencia de estilo
El proceso de transferir el estilo de una imagen a otra imagen, conservando el contenido de la segunda imagen.
Subconjunto de datos
Un subconjunto de datos es una parte de un conjunto de datos más grande.
Se puede utilizar para una variedad de propósitos.
Súper resolución
El proceso de aumentar la resolución de una imagen o un video completando los detalles que faltan.
Aprendizaje supervisado
Tipo de aprendizaje automático en el que el modelo se entrena con un conjunto de datos etiquetados.
Que incluyen la respuesta correcta para cada entrada.
Entrenamiento supervisado
El entrenamiento supervisado es un tipo de aprendizaje automático en el que un modelo se entrena con datos etiquetados.
Los datos etiquetados son datos que tienen una respuesta conocida.
El modelo aprende a asociar la entrada con la respuesta correcta.
Máquinas de Soporte de Vectores (SVM)
Un algoritmo de aprendizaje automático utilizado para tareas de clasificación y regresión.
Las máquinas de vectores de soporte son un tipo de algoritmo de aprendizaje automático.
Se utiliza para clasificación, regresión y detección de anomalías.
Regresión con Máquinas de Vectores de Soporte
Es una extensión del algoritmo de SVM para problemas de regresión.
SVR intenta encontrar una función que tenga un error pequeño en la mayoría de los datos.
Y al mismo tiempo, tenga una complejidad baja.
Modelo Sustituto
Es un modelo que se utiliza para aproximar o reemplazar a otro modelo más complejo durante la optimización.
Los modelos sustitutos son útiles en problemas donde el modelo original es costoso de evaluar.
Inteligencia de Enjambre
La inteligencia de enjambre (o swarm intelligence) es un subcampo de la inteligencia artificial.
Se centra en el comportamiento colectivo de sistemas descentralizados y autoorganizados.
Datos Sintéticos
Son datos generados artificialmente en lugar de recolectarse de eventos o experimentos del mundo real.
A menudo se utilizan cuando los datos reales son difíciles o costosos de obtener.
Imagen Sintética
En el contexto de IA, se refiere a imágenes generadas artificialmente, a menudo mediante técnicas como GANs (Generative Adversarial Networks).
Se utilizan para aumentar conjuntos de datos o entrenar modelos de visión por computadora.
Tt
Jerarquía de tareas
una jerarquía de tareas es una organización de tareas en un orden jerárquico.
Las tareas se pueden organizar en diferentes niveles, con tareas más complejas en niveles superiores y tareas más simples en niveles inferiores.
Datos Temporales
Son datos que están indexados en el tiempo y representan secuencias de eventos o mediciones.
El análisis de datos temporales a menudo requiere técnicas específicas para modelar y prever patrones a lo largo del tiempo.
Aprendizaje de diferencia temporal
Un algoritmo de aprendizaje por refuerzo que utiliza el error de diferencia temporal, la diferencia entre las recompensas futuras estimadas y reales.
Para actualizar la función de valor de acción.
En el contexto de cálculos en redes neuronales
Un tensor es una matriz multidimensional que puede representar una variedad de datos, como imágenes, texto o audio.
Biblioteca de aprendizaje automático
TensorFlow es una biblioteca de código abierto para el aprendizaje automático.
Fue desarrollada por Google y se utiliza para una amplia gama de tareas de aprendizaje automático
Conjunto de prueba
Un conjunto de prueba es un conjunto de datos que se utiliza para evaluar el rendimiento de un modelo de aprendizaje automático.
Generación de texto
La generación de texto es una tarea que consiste en crear texto nuevo a partir de un conjunto de datos existente.
Modelo de texto a imagen
Un sistema de aprendizaje automático que genera imágenes basadas en descripciones en lenguaje natural.
Umbral
Es un valor que se utiliza para tomar decisiones en problemas de clasificación.
En un modelo de clasificación binaria, el umbral determina el punto.
En el que la probabilidad de la clase positiva se convierte en una predicción de clase positiva.
Horizonte Temporal
En aprendizaje por refuerzo, es el número de pasos o episodios que el agente considera al tomar decisiones.
Un horizonte temporal corto implica que el agente se enfoca en recompensas inmediatas.
Mientras que un horizonte más largo tiene en cuenta las recompensas futuras.
Análisis de Series Temporales
Es el estudio de datos secuenciales que varían en función del tiempo.
El análisis de series temporales se utiliza para identificar patrones, tendencias.
Prever futuros valores en datos que cambian a lo largo del tiempo.
Series de tiempo
Una serie de tiempo es una secuencia de datos que se recopilan a intervalos regulares.
Los datos de una serie de tiempo pueden ser cuantitativos o cualitativos, y pueden representar una variedad de fenómenos.
En procesamiento de lenguaje natural
En el procesamiento del lenguaje natural (NLP), la tokenización es el proceso de dividir un texto en unidades más pequeñas y manejables llamadas tokens.
Modelado de temas
El modelado de temas es una técnica de aprendizaje automático que se utiliza para identificar temas latentes en una colección de documentos.
Capacitación
El entrenamiento se refiere al proceso de aprender de los datos para mejorar el rendimiento de un modelo o sistema.
El entrenamiento es una parte fundamental del aprendizaje automático e implica alimentar un modelo con un conjunto de datos.
Datos de Entrenamiento
Son los datos utilizados para entrenar un modelo de aprendizaje automático.
Los datos de entrenamiento contienen ejemplos con entradas y salidas conocidas.
Que el modelo utiliza para aprender patrones y hacer predicciones.
Época de Entrenamiento
Es una iteración completa sobre el conjunto de datos de entrenamiento durante el proceso de entrenamiento de un modelo.
Después de cada época, el modelo ajusta sus parámetros en función de la retroalimentación obtenida.
Historial de entrenamiento
El historial de entrenamiento en IA es un registro de los datos utilizados para entrenar un modelo de aprendizaje automático.
Así como de los resultados de cada iteración del entrenamiento.
Pérdida de Entrenamiento
Es una métrica que mide la diferencia entre las predicciones del modelo y las etiquetas verdaderas en los datos de entrenamiento.
El objetivo durante el entrenamiento es minimizar la pérdida para mejorar la precisión del modelo.
Proceso de entrenamiento
El proceso de entrenamiento en IA es el proceso de enseñar a un modelo de aprendizaje automático a realizar una tarea determinada.
Trayectoria
La secuencia de estados y acciones que sigue un agente en un problema de aprendizaje por refuerzo.
Memoria transaccional
La memoria transaccional (software transactional memory o STM en inglés) es un mecanismo de control de concurrencia similar a las transacciones de bases de datos.
Permite a los programas realizar operaciones sobre datos compartidos de forma atómica, como una unidad indivisible.
Función de Transferencia
En redes neuronales, es sinónimo de función de activación y define la transformación que se aplica.
A la suma ponderada de las entradas de una neurona.
Transferencia de aprendizaje
Una técnica de aprendizaje automático en la que un modelo entrenado en una tarea se ajusta o adapta para una tarea relacionada.
Pérdida Tripleta
Es una función de pérdida utilizada en aprendizaje de métricas para entrenar modelos que aprendan representaciones útiles. La pérdida tripleta asegura que un ancla se parezca más a un ejemplo positivo (mismo grupo) que a un ejemplo negativo (grupo diferente).
Solución de problemas
La solución de problemas es el proceso de identificar y corregir problemas con un sistema de IA.
Verdadero Negativo
Es una métrica en evaluación de modelos que representa el número de casos en los que el modelo predijo correctamente una instancia negativa.
Es útil para calcular métricas como la precisión y el F1-score.
Verdadero Positivo
Es una métrica en evaluación de modelos que representa el número de casos en los que el modelo predijo correctamente una instancia positiva.
Se utiliza para calcular métricas como precisión y F1-score.
Prueba y error
La prueba y error es un método de resolución de problemas que consiste en probar diferentes soluciones hasta encontrar una que funcione
Ajuste
Es el proceso de ajustar los hiperparámetros de un modelo de IA para mejorar su rendimiento.
El ajuste puede realizarse mediante técnicas como la búsqueda en cuadrícula o la optimización bayesiana.
Prueba de Turing
La prueba de Turing es un test propuesto por el matemático y filósofo británico Alan Turing en 1950 para evaluar la capacidad de una máquina.ç
Para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este.
Fallo Tipo I y Tipo II
En el contexto de clasificación, un fallo tipo I (falso positivo) ocurre cuando se predice una clase incorrectamente como verdadera.
Y un fallo tipo II (falso negativo) ocurre cuando se predice una clase como falsa cuando es verdadera.
Uu
Incertidumbre
Se refiere a la falta de certeza sobre el estado del entorno, los datos o el modelo en IA.
La gestión de la incertidumbre es crucial para la toma de decisiones y se aborda mediante enfoques.
Como modelos probabilísticos y inferencias bayesianas.
Subajuste
Una condición en la que un modelo de aprendizaje automático tiene un rendimiento deficiente tanto en el entrenamiento como en los datos nuevos e invisibles.
Debido a que es demasiado simple y no puede capturar los patrones subyacentes en los datos.
Es una arquitectura de red neuronal utilizada principalmente para segmentación de imágenes en tareas de visión por computadora.
La U-Net se caracteriza por su estructura en forma de U con rutas de acceso y capas de convolución.
Que mejoran la precisión en la segmentación.