Glosario de Términos Clave

El campo de la IA Generativa está lleno de acrónimos y conceptos específicos. Este glosario define algunos de los términos más importantes que encontrarás.

LLM (Large Language Model)

Modelo de Lenguaje Grande. Un tipo de modelo de IA entrenado en vastas cantidades de texto para comprender y generar lenguaje natural.

Transformer

Una arquitectura de red neuronal profunda, base de la mayoría de los LLMs modernos, que utiliza mecanismos de auto-atención para procesar secuencias de datos (como texto).

Atención (Attention / Self-Attention)

Mecanismo dentro de la arquitectura Transformer que permite al modelo ponderar la importancia de diferentes partes de la entrada (o de lo ya generado) al procesar cada elemento.

Token

La unidad fundamental de texto que procesa un LLM (palabra, sub-palabra o carácter). El proceso de dividir texto en tokens se llama tokenización.

Prompt

La entrada (texto, instrucción, pregunta) proporcionada por el usuario a un modelo de IA generativa para guiar su respuesta.

Ingeniería de Prompts (Prompt Engineering)

La práctica de diseñar y refinar prompts para obtener los resultados deseados de un modelo de IA.

Embedding

Representación vectorial (lista de números) de un token, palabra o frase en un espacio multidimensional, capturando su significado semántico.

RAG (Retrieval-Augmented Generation)

Generación Aumentada por Recuperación. Técnica que combina un LLM con una base de datos externa para recuperar información relevante antes de generar una respuesta.

Ajuste Fino (Fine-Tuning)

Proceso de re-entrenar un modelo pre-entrenado en un conjunto de datos más pequeño y específico para adaptar su comportamiento a una tarea o dominio particular.

Alucinación (Hallucination)

Fenómeno donde un modelo genera información incorrecta, inventada o sin base en sus datos de entrenamiento, pero la presenta como factual y coherente.

Sesgo (Bias)

Tendencia sistemática de un modelo a producir resultados que reflejan o amplifican prejuicios presentes en sus datos de entrenamiento (sociales, culturales, etc.).

Temperatura (Temperature)

Parámetro que controla la aleatoriedad en la generación de texto. Valores bajos (~0.1-0.5) producen resultados más deterministas y enfocados; valores altos (~0.7-1.2+) generan respuestas más diversas y creativas, pero potencialmente menos coherentes.

Top-K Sampling

Técnica de muestreo donde, en cada paso de generación, el modelo considera solo los 'K' tokens más probables antes de seleccionar el siguiente.

Top-P Sampling (Nucleus Sampling)

Técnica de muestreo donde se consideran los tokens más probables cuya suma de probabilidades acumulada alcanza un umbral 'P'. Esto crea un conjunto dinámico de candidatos.

Ventana de Contexto (Context Window)

La cantidad máxima de tokens (tanto de entrada como generados) que un modelo puede considerar simultáneamente al procesar información o generar una respuesta. Es un límite fundamental de su "memoria a corto plazo".

RLHF (Reinforcement Learning from Human Feedback)

Aprendizaje por Refuerzo a partir de Retroalimentación Humana. Una técnica utilizada para alinear el comportamiento de los LLMs con las preferencias humanas (ej., ser más útil, honesto e inofensivo), entrenando un modelo de recompensa basado en comparaciones humanas de diferentes respuestas.

Multimodal

Modelos de IA capaces de procesar y generar múltiples tipos de datos (texto, imágenes, audio, etc.) de manera integrada.

Modelos de Difusión (Diffusion Models)

Arquitectura generativa que aprende a crear datos (como imágenes) eliminando progresivamente el ruido de una señal aleatoria.

Agente de IA

Sistema autónomo que percibe su entorno, toma decisiones y ejecuta acciones para lograr objetivos específicos.

Orquestación de Agentes

Coordinación de múltiples agentes de IA para realizar tareas complejas mediante comunicación y división de subtareas.

Few-Shot Learning

Capacidad de un modelo de aprender a realizar nuevas tareas con solo unos pocos ejemplos proporcionados en el prompt.

Zero-Shot Learning

Capacidad de un modelo de realizar tareas para las que no fue explícitamente entrenado, basándose solo en instrucciones textuales.

Cadena de Pensamiento (Chain-of-Thought)

Técnica que incentiva al modelo a mostrar su razonamiento paso a paso antes de dar una respuesta final.

Memoria de Agente

Mecanismos que permiten a los agentes de IA recordar información relevante entre interacciones para mantener contexto.

¿Dominar la Terminología es Solo el Comienzo?

Pasa de la teoría a la práctica con nuestro curso y aprende a usar estas tecnologías.

Ir al Curso