Glosario de Términos Clave
El campo de la IA Generativa está lleno de acrónimos y conceptos específicos. Este glosario define algunos de los términos más importantes que encontrarás.
- LLM (Large Language Model)
Modelo de Lenguaje Grande. Un tipo de modelo de IA entrenado en vastas cantidades de texto para comprender y generar lenguaje natural.
- Transformer
Una arquitectura de red neuronal profunda, base de la mayoría de los LLMs modernos, que utiliza mecanismos de auto-atención para procesar secuencias de datos (como texto).
- Atención (Attention / Self-Attention)
Mecanismo dentro de la arquitectura Transformer que permite al modelo ponderar la importancia de diferentes partes de la entrada (o de lo ya generado) al procesar cada elemento.
- Token
La unidad fundamental de texto que procesa un LLM (palabra, sub-palabra o carácter). El proceso de dividir texto en tokens se llama tokenización.
- Prompt
La entrada (texto, instrucción, pregunta) proporcionada por el usuario a un modelo de IA generativa para guiar su respuesta.
- Ingeniería de Prompts (Prompt Engineering)
La práctica de diseñar y refinar prompts para obtener los resultados deseados de un modelo de IA.
- Embedding
Representación vectorial (lista de números) de un token, palabra o frase en un espacio multidimensional, capturando su significado semántico.
- RAG (Retrieval-Augmented Generation)
Generación Aumentada por Recuperación. Técnica que combina un LLM con una base de datos externa para recuperar información relevante antes de generar una respuesta.
- Ajuste Fino (Fine-Tuning)
Proceso de re-entrenar un modelo pre-entrenado en un conjunto de datos más pequeño y específico para adaptar su comportamiento a una tarea o dominio particular.
- Alucinación (Hallucination)
Fenómeno donde un modelo genera información incorrecta, inventada o sin base en sus datos de entrenamiento, pero la presenta como factual y coherente.
- Sesgo (Bias)
Tendencia sistemática de un modelo a producir resultados que reflejan o amplifican prejuicios presentes en sus datos de entrenamiento (sociales, culturales, etc.).
- Temperatura (Temperature)
Parámetro que controla la aleatoriedad en la generación de texto. Valores bajos (~0.1-0.5) producen resultados más deterministas y enfocados; valores altos (~0.7-1.2+) generan respuestas más diversas y creativas, pero potencialmente menos coherentes.
- Top-K Sampling
Técnica de muestreo donde, en cada paso de generación, el modelo considera solo los 'K' tokens más probables antes de seleccionar el siguiente.
- Top-P Sampling (Nucleus Sampling)
Técnica de muestreo donde se consideran los tokens más probables cuya suma de probabilidades acumulada alcanza un umbral 'P'. Esto crea un conjunto dinámico de candidatos.
- Ventana de Contexto (Context Window)
La cantidad máxima de tokens (tanto de entrada como generados) que un modelo puede considerar simultáneamente al procesar información o generar una respuesta. Es un límite fundamental de su "memoria a corto plazo".
- RLHF (Reinforcement Learning from Human Feedback)
Aprendizaje por Refuerzo a partir de Retroalimentación Humana. Una técnica utilizada para alinear el comportamiento de los LLMs con las preferencias humanas (ej., ser más útil, honesto e inofensivo), entrenando un modelo de recompensa basado en comparaciones humanas de diferentes respuestas.
- Multimodal
Modelos de IA capaces de procesar y generar múltiples tipos de datos (texto, imágenes, audio, etc.) de manera integrada.
- Modelos de Difusión (Diffusion Models)
Arquitectura generativa que aprende a crear datos (como imágenes) eliminando progresivamente el ruido de una señal aleatoria.
- Agente de IA
Sistema autónomo que percibe su entorno, toma decisiones y ejecuta acciones para lograr objetivos específicos.
- Orquestación de Agentes
Coordinación de múltiples agentes de IA para realizar tareas complejas mediante comunicación y división de subtareas.
- Few-Shot Learning
Capacidad de un modelo de aprender a realizar nuevas tareas con solo unos pocos ejemplos proporcionados en el prompt.
- Zero-Shot Learning
Capacidad de un modelo de realizar tareas para las que no fue explícitamente entrenado, basándose solo en instrucciones textuales.
- Cadena de Pensamiento (Chain-of-Thought)
Técnica que incentiva al modelo a mostrar su razonamiento paso a paso antes de dar una respuesta final.
- Memoria de Agente
Mecanismos que permiten a los agentes de IA recordar información relevante entre interacciones para mantener contexto.
¿Dominar la Terminología es Solo el Comienzo?
Pasa de la teoría a la práctica con nuestro curso y aprende a usar estas tecnologías.