Glosario Términos Inteligencia Artificial (IA)
A-B-C-D
La inteligencia artificial (IA) se refiere a la simulación de la inteligencia humana en máquinas que están programadas para pensar y actuar como humanos.
Espacio de acción; El conjunto de todas las acciones posibles que un agente puede tomar en un problema de aprendizaje por refuerzo.
El aprendizaje activo es una forma de aprendizaje automático semisupervisado en el que el algoritmo puede elegir de qué datos quiere aprender.
Redes generativas adversarias; Las Redes Generativas Adversarias, o GANs por sus siglas en inglés (Generative Adversarial Networks), son un tipo especial de arquitectura de red neuronal. La idea fundamental detrás de las GANs es crear un sistema compuesto por dos redes neuronales: el generador y el discriminador, que compiten entre sí en un proceso de aprendizaje.
Modelos de Atención; Los modelos de atención, o mecanismos de atención, son técnicas de procesamiento de entrada para redes neuronales que permiten que la red se centre en aspectos específicos de una entrada compleja, uno a la vez hasta que se categoriza todo el conjunto de datos.
Red neuronal artificial; Un tipo de algoritmo de aprendizaje automático modelado a partir de la estructura y función del cerebro humano, que consta de capas de «neuronas» interconectadas que pueden procesar y transmitir información.
Codificador automático; Tipo de red neuronal utilizada para la reducción de la dimensionalidad y el aprendizaje de funciones, que consiste en un codificador y un decodificador que aprenden a comprimir y reconstruir datos respectivamente.
Harpillera; Una técnica de conjunto de aprendizaje automático en la que se entrenan varios modelos en diferentes subconjuntos aleatorios de los datos de entrenamiento y se combinan para hacer predicciones, con el objetivo de reducir la varianza y mejorar la generalización del modelo.
Normalización por lotes; La normalización por lotes es una técnica de aprendizaje supervisado que convierte las salidas de la capa intermedia de una red neuronal en un formato estándar, llamado normalización
Teorema de Bayes; El teorema de Bayes es una fórmula que rige cómo asignar un grado subjetivo de creencia a una hipótesis y actualizar racionalmente esa probabilidad con nueva evidencia. Matemáticamente, es la probabilidad de un evento.
Grandes datos; Grandes conjuntos de datos que se pueden analizar y utilizar para obtener información y tomar decisiones informadas.
Impulsar; Una técnica de conjunto de aprendizaje automático en la que los alumnos débiles se combinan para formar un alumno fuerte, con el objetivo de mejorar la precisión general de la predicción.
ChatGPT; Un chatbot de OpenAI construido sobre su modelo de lenguaje grande GPT3.5, entrenado con datos públicos.
Clasificación; El proceso de categorizar datos en clases o grupos predefinidos.
Agrupación; El proceso de agrupar puntos de datos en función de similitudes o características comunes.
Computación cognitiva; El desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren una inteligencia similar a la humana, como el aprendizaje y la resolución de problemas.
Visión por computador; La capacidad de una computadora para interpretar y comprender datos visuales del mundo, como imágenes y videos.
Red neuronal convolucional; Un tipo de red neuronal diseñada específicamente para tareas de reconocimiento de imágenes y videos, que utiliza capas convolucionales para aprender y reconocer patrones en los datos.
Es una librería de código abierto basada en R que proporciona una interfaz unificada para entrenar y evaluar modelos de aprendizaje automático.
Validación cruzada; Una técnica de evaluación de modelos en la que los datos de entrenamiento se dividen en varios pliegues y el modelo se entrena y evalúa en cada pliegue para obtener una estimación de su rendimiento de generalización.
CNTK (Microsoft Cognitive Toolkit). Desarrollado por Microsoft, CNTK es otro marco popular para el aprendizaje profundo.
Es conocido por su eficiencia y velocidad en entrenamiento de modelos.
Procesamiento de datos; El proceso de extraer patrones y conocimientos útiles de grandes conjuntos de datos.
Árbol de decisión; Una estructura de árbol similar a un diagrama de flujo que se utiliza para tomar decisiones basadas en una serie de divisiones binarias.
Sueño profundo; Una técnica de generación de imágenes desarrollada por Google que utiliza una red neuronal convolucional para generar imágenes de ensueño al amplificar las funciones de la red.
Aprendizaje profundo; Un subcampo del aprendizaje automático que implica entrenar redes neuronales de varias capas para aprender y tomar decisiones por sí mismas.
Red Neuronal Profunda (DNN, por sus siglas en inglés, que también puede referirse a Deep Neural Network) es una arquitectura de red neuronal artificial que consta de múltiples capas ocultas entre la capa de entrada y la capa de salida. Estas capas adicionales permiten que la red aprenda representaciones jerárquicas y abstracciones complejas de los datos.
Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning o DRL en inglés) es una rama de la Inteligencia Artificial que combina dos enfoques poderosos: el Aprendizaje Profundo (Deep Learning) y el Aprendizaje por Refuerzo (Reinforcement Learning).
Factor de descuento; El factor por el cual las recompensas futuras se descuentan en el algoritmo de aprendizaje por refuerzo, para equilibrar la compensación entre las recompensas a corto y largo plazo.
Aprendizaje por Refuerzo Doble (Double Deep Q-Network o Double DQN en inglés) es una mejora de la arquitectura de Redes Neuronales Profundas para el Aprendizaje por Refuerzo (RL). Esta técnica se utiliza para abordar el problema de sobreestimación de valores de acción que puede ocurrir en el algoritmo original de Q-Network, conocido como DQN.
Reducción de dimensionalidad; El proceso de reducir la cantidad de características o dimensiones en un conjunto de datos mientras se conserva la mayor cantidad de información posible.
Programación dinámica; Un método para resolver problemas de optimización dividiéndolos en subproblemas más pequeños y almacenando las soluciones a estos subproblemas en una tabla o matriz.
E-F-G-H
Aprendizaje conjunto; Una técnica de aprendizaje automático en la que se entrenan y combinan varios modelos para hacer predicciones, con el objetivo de mejorar el rendimiento general del modelo.
Intercambio de exploración-explotación; La tensión en el aprendizaje por refuerzo entre explorar nuevas acciones y explotar las buenas acciones conocidas, para equilibrar el aprendizaje y los objetivos de maximización de recompensas del agente.
Reconocimiento facial; El proceso de identificación y verificación de personas en función de sus rasgos faciales.
Ingeniería de características; El proceso de seleccionar y crear funciones informativas y relevantes a partir de datos sin procesar para su uso en un modelo de aprendizaje automático.
Reconocimiento facial; El proceso de identificación y verificación de personas en función de sus rasgos faciales.
Ingeniería de características; El proceso de seleccionar y crear funciones informativas y relevantes a partir de datos sin procesar para su uso en un modelo de aprendizaje automático.
Selección de características; El proceso de elegir un subconjunto de las funciones más relevantes de un conjunto más grande de funciones para usar en un modelo de aprendizaje automático.
Sintonia FINA; Una técnica de aprendizaje automático que implica ajustar los hiperparámetros o parámetros de un modelo previamente entrenado en un nuevo conjunto de datos para optimizar su rendimiento para una tarea específica.
Aproximación de funciones; El uso de una función para aproximar la función de valor o la política en un problema de aprendizaje por refuerzo, cuando los espacios de estado o acción son demasiado grandes para ser representados explícitamente.
Lógica difusa; Una forma de lógica matemática que permite la incertidumbre y la imprecisión en la entrada y salida de un sistema.
Un tipo de modelo generativo que consta de dos redes neuronales en competencia, un generador y un discriminador, que aprenden a generar y reconocer datos sintéticos respectivamente.
Red adversaria generativa; Un tipo de red neuronal que consta de dos redes en competencia, un generador y un discriminador, que aprenden a generar y reconocer datos sintéticos respectivamente.
Modelo generativo; Un modelo de aprendizaje automático que aprende la distribución subyacente de los datos y puede generar nuevas muestras sintéticas a partir de ellos.
Algoritmos genéticos; Algoritmo de búsqueda que utiliza los principios de la evolución natural, como la reproducción, la mutación y la selección, para encontrar soluciones a los problemas.
GPT; un gran modelo de lenguaje desarrollado por OpenAI que utiliza una arquitectura transformadora y un aprendizaje autosupervisado para generar texto similar al humano.
Ajuste de hiperparámetros; El proceso de ajuste de los parámetros de un modelo de aprendizaje automático que se establecen antes del entrenamiento, para mejorar su rendimiento.
I-K-L-M
Anotación de imagen; El proceso de etiquetar o anotar imágenes con información relevante, como clases de objetos o cuadros delimitadores.
Subtítulos de imagen; El proceso de generar una descripción en lenguaje natural de una imagen.
Clasificación de imágenes; El proceso de asignar una imagen a una o más categorías o clases predefinidas.
Colorización de imagen; El proceso de agregar colores a una imagen en escala de grises.
Mejora de la imagen; El proceso de mejorar la calidad visual de una imagen, como aumentar su contraste o eliminar el ruido.
Generación de imágenes; El proceso de creación de nuevas imágenes sintéticas utilizando técnicas de inteligencia artificial.
Preprocesamiento de imágenes; El proceso de preparación de las imágenes para su uso.
Restauración de imagen; El proceso de reparar o restaurar una imagen degradada o dañada.
Recuperación de imágenes; El proceso de buscar y recuperar imágenes de una gran base de datos en función de su contenido visual.
Segmentación de imagen; El proceso de dividir una imagen en varias regiones o segmentos, cada uno de los cuales representa un objeto o fondo diferente.
Traducción de imagen a imagen; El proceso de convertir una imagen de un dominio a otro, como convertir una fotografía en una pintura o un boceto.
Inferencia; El proceso de deducir conclusiones a partir de premisas usando razonamiento lógico.
Repintando; El proceso de reparar o rellenar partes dañadas o faltantes de una imagen.
Un algoritmo de aprendizaje automático no supervisado que se utiliza para agrupar puntos de datos en un número predefinido de grupos.
Máquinas de Vectores de Soporte (SVM, por sus siglas en inglés), un kernel, o núcleo en español, se refiere a una función matemática que permite transformar datos de baja dimensionalidad en un espacio de mayor dimensionalidad. Esta transformación puede facilitar la separación de datos que no son linealmente separables en el espacio original.
Es una librería de alto nivel que facilita la creación y el entrenamiento de modelos de aprendizaje profundo.
Se puede usar como una interfaz para otras librerías como TensorFlow, Theano o CNTK.
K-Nearest Neighbors (K-Vecinos más Cercanos en español), abreviado como KNN, es un algoritmo de clasificación y regresión utilizado en el campo de la Inteligencia Artificial y el Aprendizaje Automático. El KNN es un tipo de método basado en instancias, lo que significa que se basa en ejemplos de entrenamiento directamente para hacer predicciones en nuevos datos.
Representación del conocimiento; La forma en que el conocimiento se codifica y almacena en un sistema informático.
Modelo de lenguaje; Un modelo de lenguaje en inteligencia artificial es un modelo estadístico que se utiliza para predecir la probabilidad de una secuencia de palabras o tokens en un idioma.
Modelo de lenguaje grande; Un modelo de lenguaje grande en inteligencia artificial es un tipo de modelo estadístico que se entrena en un conjunto de datos de texto muy grande y utiliza técnicas de aprendizaje automático para aprender los patrones y la estructura del lenguaje.
La Ley de Moore es una observación empírica que describe el crecimiento exponencial en la capacidad computacional y el número de transistores en los circuitos integrados (chips) a lo largo del tiempo. Fue formulada por Gordon Moore, uno de los cofundadores de Intel, en 1965.
La Ley de Zipf, también conocida como la Distribución Zipf o la Ley de Potencias, es una ley empírica que describe la frecuencia de ocurrencia de elementos en un conjunto en relación con su posición en un ranking ordenado por su frecuencia.
Aprendizaje automático; Un método de entrenamiento de algoritmos que usa grandes cantidades de datos y permite que el algoritmo aprenda y mejore por sí solo sin programación explícita.
Proceso de decisión de Markov; Un marco matemático utilizado en el aprendizaje por refuerzo para modelar el proceso de toma de decisiones de un agente en un entorno secuencial e incierto.
Propiedad de Markov; La propiedad de un estado en un proceso de decisión de Markov que dice que el futuro es independiente del pasado, dado el estado presente.
Proceso de recompensa de Markov; Un proceso de decisión de Markov que solo tiene un componente de recompensa, sin ninguna toma de decisiones involucrada.
Matplotlib es una librería de Python para la visualización de datos.
Proporciona una amplia gama de funciones para crear gráficos y diagramas.
Modelo; Un modelo es una representación de un problema o un sistema que se puede usar para hacer predicciones, tomar decisiones o aprender patrones en los datos.
Despliegue del modelo; El proceso de hacer que un modelo de aprendizaje automático esté disponible para su uso en entornos de producción, como implementarlo en un servidor web o integrarlo en una aplicación.
Evaluación del modelo; El proceso de medir el rendimiento de un modelo de aprendizaje automático en una tarea específica, utilizando métricas como exactitud, precisión y recuperación.
Selección de modelo; El proceso de elegir el mejor modelo entre un conjunto de modelos candidatos para una tarea determinada.
Método de Montecarlo; Un algoritmo de aprendizaje por refuerzo que utiliza muestreo aleatorio para estimar la función de valor o la política óptima.
Bandido de múltiples brazos; Un problema de aprendizaje por refuerzo en el que un agente debe elegir entre un conjunto de acciones, cada una con una distribución de recompensas desconocida, y aprender qué acciones son las más gratificantes a través de prueba y error.
Desarrollado por Apache, MXNet es un marco de aprendizaje profundo que ofrece flexibilidad y eficiencia.
N-0-P-Q
N-grama es un modelo de lenguaje que se utiliza para predecir la probabilidad de que ocurra una secuencia de palabras en un texto basándose en la probabilidad de ocurrencia de sus componentes más pequeños, ya sea letras, sílabas o palabras.
Clasificador Naive Bayes; Un algoritmo de aprendizaje automático utilizado para tareas de clasificación basado en el teorema de probabilidad de Bayes.
Procesamiento natural del lenguaje; La capacidad de una computadora para comprender, interpretar y generar lenguaje humano.
La Comprensión del Lenguaje Natural (Natural Language Understanding o NLU en inglés) es una rama de la Inteligencia Artificial que se centra en la capacidad de las máquinas para entender y procesar el lenguaje humano de manera similar a cómo lo hacen las personas.
Red neuronal; Un tipo de algoritmo de aprendizaje automático modelado a partir de la estructura y función del cerebro humano, que consta de capas de «neuronas» interconectadas que pueden procesar y transmitir información.
NLTK (Natural Language Toolkit) es una librería de procesamiento del lenguaje natural de código abierto desarrollada por la comunidad de Python.
Normalización; El proceso de escalar los valores de una característica o un conjunto de datos a un rango común, como [0, 1] o [-1, 1].
NumPy es una librería de Python para el cálculo numérico.
Proporciona una estructura de datos de matriz multidimensional llamada array, así como una gran variedad de funciones para realizar operaciones matemáticas sobre estas matrices.
Detección de objetos; El proceso de identificar y localizar objetos en una imagen o un video.
Reconocimiento Óptico de Caracteres (OCR por sus siglas en inglés) es una tecnología dentro del campo de la Inteligencia Artificial que se utiliza para convertir imágenes de texto impreso o manuscrito en texto digital editable. En otras palabras, el OCR es capaz de «leer» y comprender el texto contenido en una imagen y convertirlo en un formato que las computadoras puedan procesar y entender.
Mínimos Cuadrados Ordinarios (OLS, por sus siglas en inglés) son un método utilizado en el proceso de regresión lineal. La regresión lineal es una técnica que busca modelar la relación entre una variable dependiente (o de respuesta) y una o más variables independientes (o predictoras) mediante una línea recta en un espacio bidimensional o un hiperplano en espacios de mayor dimensión.
One-shot Learning, o Aprendizaje de una sola muestra en español, es un enfoque dentro del campo de la Inteligencia Artificial y el Aprendizaje Automático que se refiere a la capacidad de un modelo para aprender a reconocer y generalizar a partir de una única muestra de entrenamiento por clase.
OpenAI es una organización de investigación en el campo de la Inteligencia Artificial (IA) fundada con el objetivo de promover y desarrollar la IA de manera ética, segura y beneficiosa para la humanidad. Fue fundada en diciembre de 2015 y ha sido un actor influyente en el avance de la investigación en IA y en la creación de tecnologías de vanguardia.
Política óptima; La política que maximiza la recompensa acumulada esperada en un problema de aprendizaje por refuerzo.
Función de valor óptimo; La función de valor que corresponde a la política óptima en un problema de aprendizaje por refuerzo.
Sobreajuste; Una condición en la que un modelo de aprendizaje automático funciona bien con los datos de entrenamiento, pero deficiente con los datos nuevos e invisibles, debido a que es demasiado complejo y se adapta al ruido de los datos de entrenamiento.
OpenCV es una librería de visión artificial de código abierto desarrollada por la comunidad de software libre.
Reconocimiento de patrones; La capacidad de identificar patrones o regularidades en los datos.
Perceptrón Multicapa (MLP, por sus siglas en inglés: Multi-Layer Perceptron) es un tipo de red neuronal artificial que consta de múltiples capas de neuronas interconectadas.
«PCA» (Principal Component Analysis) o Análisis de Componentes Principales es una técnica de reducción de dimensionalidad utilizada para transformar datos de alta dimensión en un espacio de menor dimensión, mientras se retiene la mayor cantidad posible de información importante.
Planificación; El proceso de determinar un curso de acción para lograr una meta específica.
«Plataforma de IA» se refiere a un conjunto de herramientas, tecnologías y recursos que permiten desarrollar, implementar y gestionar aplicaciones y soluciones basadas en Inteligencia Artificial.
Iteración de políticas; Un algoritmo de aprendizaje por refuerzo que consiste en alternar entre evaluar la política actual y mejorarla en función de la función de valor aprendido.
Preprocesamiento; El proceso de preparación de los datos para su uso en un modelo de aprendizaje automático, incluida la limpieza, la transformación y el escalado de los datos.
PyTorch es otra librería de aprendizaje automático de código abierto desarrollada por Facebook.
Q-aprendizaje; Un algoritmo de aprendizaje por refuerzo que aprende una función de valor de acción, también conocida como función Q, que estima las recompensas futuras esperadas para cada acción en un estado determinado.
Análisis cuantitativo, también conocido como análisis cuantitativo, es un enfoque en el campo de la Inteligencia Artificial (IA) y más ampliamente en la investigación y el análisis de datos. Se refiere a la aplicación de técnicas y métodos numéricos y estadísticos para analizar y comprender datos y fenómenos.
En el procesamiento de señales y datos, la cuantización se refiere a la técnica de reducir la cantidad de valores distintos en un conjunto de datos, generalmente representando esos valores con menos bits o niveles discretos.
La computación cuántica es un campo de la Inteligencia Artificial (IA) que se basa en los principios de la mecánica cuántica para realizar cálculos y resolver problemas que son extremadamente desafiantes o incluso imposibles de abordar utilizando la computación clásica convencional.
Lenguaje de consulta (query language en inglés) es un lenguaje de programación específico diseñado para interactuar con bases de datos y recuperar información de ellas. Estos lenguajes permiten a los usuarios y sistemas de software formular preguntas y solicitar datos específicos de una base de datos de manera estructurada.
Optimización de consultas en bases de datos; Proceso de mejorar la eficiencia y el rendimiento de las consultas que se ejecutan en una base de datos. El objetivo principal de la optimización de consultas es encontrar el plan de ejecución más eficiente para una consulta dada, de modo que se pueda obtener el resultado deseado en el menor tiempo posible y utilizando los recursos mínimos.
R-S-T
Razonamiento; El proceso de sacar conclusiones basadas en evidencia y argumentos lógicos.
Red neuronal recurrente; Un tipo de red neuronal diseñada específicamente para procesar datos secuenciales, utilizando conexiones de retroalimentación para permitir que la red recuerde y haga uso de información pasada.
Regresión; Una técnica de aprendizaje automático utilizada para predecir un valor numérico continuo basado en un conjunto de características de entrada.
Aprendizaje reforzado; Un tipo de aprendizaje automático en el que un agente aprende a través de prueba y error al interactuar con su entorno y recibir recompensas o castigos por sus acciones.
Reinforcement Learning From Human Feedback. Aprendizaje por refuerzo a partir de la retroalimentación humana; Un tipo de técnica de aprendizaje automático en la que un sistema de inteligencia artificial (IA) aprende de los comentarios o recompensas proporcionados por un usuario o entrenador humano
Función de recompensa; La función que define la recompensa o el castigo que recibe un agente por sus acciones en un problema de aprendizaje por refuerzo.
Robótica; El estudio y aplicación de robots y automatización.
SARAS; Un algoritmo de aprendizaje por refuerzo que aprende una función de acción-valor utilizando la recompensa esperada y el valor de la siguiente acción, en lugar de la recompensa final como en Q-learning.
Scikit-learn
Es una librería de código abierto basada en Python que ofrece algoritmos de aprendizaje automático para clasificación, regresión, agrupamiento, reducción de dimensionalidad, selección de características, etc.
SciPy es una biblioteca en Python que se utiliza para la optimización, el álgebra lineal, la integración y otras tareas científicas, y es a menudo utilizada en conjunto con NumPy.
Web semántica; Una extensión de la World Wide Web que permite a las máquinas comprender el significado de los datos en la web.
Software de IA son programas y aplicaciones que utilizan algoritmos y técnicas de inteligencia artificial para realizar tareas específicas.
Spacy es una librería en Python diseñada para el procesamiento avanzado de lenguaje natural.
Stable Diffusion es un modelo de texto a imagen basado en aprendizaje profundo que puede generar imágenes muy detalladas basadas en descripciones de texto.
Stacked Autoencoders (Autoencoders apilados) son una arquitectura de redes neuronales artificiales utilizada para realizar aprendizaje no supervisado y para realizar tareas de reducción de dimensionalidad y extracción de características en datos.
Estandarización; El proceso de transformar los valores de una característica o un conjunto de datos para tener una media cero y una varianza unitaria.
Transición de estado; El movimiento del agente de un estado a otro estado en un problema de aprendizaje por refuerzo, basado en una acción y las probabilidades de transición del entorno.
Transferencia de estilo; El proceso de transferir el estilo de una imagen a otra imagen, conservando el contenido de la segunda imagen.
Súper resolución; El proceso de aumentar la resolución de una imagen o un video completando los detalles que faltan.
(Aprendizaje Supervisado) es un enfoque de entrenamiento de algoritmos de aprendizaje automático en el que se proporcionan ejemplos de entrada junto con las salidas deseadas correspondientes.
Sistemas de Soporte para la Toma de Decisiones (Decision Support Systems o DSS en inglés) son herramientas de software diseñadas para ayudar a las personas a tomar decisiones más informadas y efectivas en una variedad de contextos.
Máquinas de vectores soporte; Un algoritmo de aprendizaje automático utilizado para tareas de clasificación y regresión.
Support Vector Machines» (Máquinas de Soporte Vectorial o SVM, por sus siglas en inglés) son un conjunto de algoritmos de aprendizaje automático utilizados para la clasificación y regresión.
Swarm Intelligence» (Inteligencia de Enjambre) es un enfoque inspirado en la naturaleza que se basa en el comportamiento colectivo y autorganizado de grupos de individuos simples para resolver problemas complejos.
Aprendizaje de diferencia temporal; Un algoritmo de aprendizaje por refuerzo que utiliza el error de diferencia temporal, la diferencia entre las recompensas futuras estimadas y reales, para actualizar la función de valor de acción.
TensorFlow es una biblioteca de código abierto de aprendizaje automático desarrollada por Google para la programación de redes neuronales y otros modelos de aprendizaje automático. Se ha convertido en una de las herramientas más populares en el campo de la Inteligencia Artificial y el Aprendizaje Profundo debido a su versatilidad y amplia comunidad de usuarios y desarrolladores.
Teorema de Bayes es un concepto fundamental en el campo de la Inteligencia Artificial y la probabilidad. Este teorema establece una relación entre dos tipos de probabilidades: la probabilidad condicional y la probabilidad inversa.
Modelo de texto a imagen; Un sistema de aprendizaje automático que genera imágenes basadas en descripciones en lenguaje natural.
Tokenización, en procesamiento de lenguaje natural, es el proceso de dividir un texto en unidades más pequeñas llamadas «tokens». Estos tokens pueden ser palabras individuales, subpalabras, caracteres o incluso frases completas, dependiendo del nivel de granularidad requerido para una tarea específica.
Capacitación; El entrenamiento se refiere al proceso de aprender de los datos para mejorar el rendimiento de un modelo o sistema.
Trayectoria; La secuencia de estados y acciones que sigue un agente en un problema de aprendizaje por refuerzo.
Transferencia de aprendizaje; Una técnica de aprendizaje automático en la que un modelo entrenado en una tarea se ajusta o adapta para una tarea relacionada.
U-V-W
Subequipamiento; Una condición en la que un modelo de aprendizaje automático tiene un rendimiento deficiente tanto en el entrenamiento como en los datos nuevos e invisibles, debido a que es demasiado simple y no puede capturar los patrones subyacentes en los datos.
El Aprendizaje No Supervisado (Unsupervised Learning en inglés) es un enfoque en el campo de la Inteligencia Artificial y el Aprendizaje Automático donde un modelo se entrena en un conjunto de datos sin etiquetas ni respuestas previas. A diferencia del Aprendizaje Supervisado, donde el modelo se entrena con ejemplos etiquetados, en el Aprendizaje No Supervisado el objetivo es descubrir patrones y estructuras ocultas en los datos por sí mismo.
Iteración de valor; Un algoritmo de aprendizaje por refuerzo que implica mejorar iterativamente la función de valor hasta que converge a la función de valor óptima.
Codificador automático variacional; Un tipo de modelo generativo que consta de una red codificadora que asigna los datos de entrada a una representación latente y una red decodificadora que asigna la representación latente al espacio de datos original.
WaveNet es un modelo generativo de señales desarrollado por DeepMind, una empresa de inteligencia artificial de Google. Este modelo es especialmente conocido por su capacidad para generar audio de alta calidad y realismo, lo que lo hace útil en aplicaciones como la síntesis de voz, la generación de música y más.
«Weak AI» se refiere a un nivel de inteligencia artificial que está diseñado para realizar tareas específicas y limitadas, pero que no posee una comprensión real, conciencia ni capacidad de pensamiento independiente. También se le llama «IA débil» en contraste con la «Strong AI» o «IA fuerte».
«Web scraping» se refiere al proceso de extraer automáticamente datos y contenido de páginas web de manera programática. Es una técnica utilizada para recopilar información de sitios web de manera eficiente y automatizada.
«Weight Decay» (Decaimiento de pesos en redes neuronales) es una técnica de regularización utilizada para prevenir el sobreajuste o sobreentrenamiento de un modelo.
El sobreajuste ocurre cuando un modelo de red neuronal se ajusta demasiado a los datos de entrenamiento y captura ruido o detalles irrelevantes en lugar de patrones genuinos. Esto puede resultar en un rendimiento deficiente en datos nuevos y no vistos.
Es una plataforma de código abierto escrita en Java que contiene una colección de herramientas para el análisis de datos y el aprendizaje automático.
«workflow de datos» se refiere a la secuencia organizada de pasos y procesos que se siguen para gestionar y transformar los datos a lo largo de un proyecto.
«Word Embeddings» (Incrustaciones de palabras) se refiere a una técnica que asigna palabras individuales a vectores numéricos en un espacio dimensional. Estos vectores capturan las relaciones semánticas y contextuales entre las palabras en función de cómo aparecen en el texto y cómo se utilizan en contextos específicos.
X-Y-Z
XGBoost (Extreme Gradient Boosting) es un algoritmo de aprendizaje automático que pertenece a la familia de los algoritmos de boosting. Está diseñado para resolver problemas de regresión y clasificación, y es conocido por su eficacia y capacidad para manejar conjuntos de datos grandes y complejos.
Yahoo Labs, Centro de investigación en tecnologías de Yahoo, es un centro de investigación que pertenece a la empresa de tecnología Yahoo. Fue creado para llevar a cabo investigaciones en diversas áreas relacionadas con la tecnología y la informática, incluida la Inteligencia Artificial (IA) y el procesamiento de datos.
YOLO, significa «You Only Look Once» (Solo Miras una Vez), es un algoritmo de detección de objetos en imágenes y videos. A diferencia de enfoques tradicionales que dividen una imagen en regiones y las procesan por separado, YOLO aborda la detección de objetos como un problema de regresión en el que predice directamente las coordenadas y las clases de los objetos en una sola pasada por la red neuronal.
Z-score normalization, también conocido como estandarización, es una técnica utilizada para transformar variables numéricas de manera que tengan una media de cero y una desviación estándar de uno. Esto permite comparar y analizar variables que pueden tener diferentes escalas y rangos de valores.
«Zero-day attack» (Ataque día cero) es un tipo de ataque cibernético que explota una vulnerabilidad de seguridad en un software, sistema operativo o aplicación que es desconocida para el proveedor del software y para la comunidad en general. Esto significa que el ataque se produce el mismo día en que se descubre la vulnerabilidad, antes de que se haya tenido tiempo de desarrollar y aplicar un parche o solución.
«Zero-shot learning» (Aprendizaje sin ejemplos) es una técnica que permite a un modelo de aprendizaje automático generalizar y realizar predicciones sobre clases o conceptos que no se encuentran en los datos de entrenamiento, incluso si nunca ha visto ejemplos de esas clases durante el proceso de entrenamiento.
«Zero-padding» (Relleno con ceros) es una técnica utilizada en el procesamiento de imágenes y señales para ajustar el tamaño de una matriz o un vector al agregar ceros en los bordes, sin alterar el contenido o la información esencial.