El prompt y sus formas: GPT, proyecto, Skill y más
CALENDARIO de próximos CURSOS 😄
Uno de los conceptos que más confusión genera al usar IA generativa en el día a día legal no es técnico, sino organizativo: ¿cuál es la diferencia real entre escribir un prompt, crear un GPT personalizado (o un Gem en Gemini), montar un proyecto o configurar una habilidad/Skill en Claude (y ahora también en ChatGPT)?
La respuesta corta es que, en el fondo, todo es un prompt. Pero en función de la frecuencia con la que lo uses, la memoria que necesites y el contexto en el que quieras aplicarlo, ese mismo prompt se implementa de formas muy diferentes 🧩
Vamos a verlo con un ejemplo práctico del ámbito de protección de datos.
El prompt: la instrucción puntual
Imaginemos que un día necesitamos generar un resumen de calidad de una resolución de la Agencia Española de Protección de Datos.
Nos trabajamos un poco el prompt y hacemos algo así:
"Analiza la siguiente resolución de la AEPD. En primer lugar, crea un resumen de los antecedentes y hechos. En segundo lugar, cuando analices los Fundamentos de Derecho crea una tabla de tres columnas: resumen de lo planteado y decidido, artículos relevantes y jurisprudencia o guías aplicables. Finalmente, resume la tipificación, la propuesta de sanción y las medidas adoptadas."
Eso es un prompt. Una instrucción concreta, escrita para una tarea específica y en un momento determinado. Es el uso más básico y directo de un modelo de IA: le dices qué quieres, cómo lo quieres y esperas el resultado.
El problema es que si mañana queremos hacer lo mismo con otra resolución, tenemos que volver a escribir todo el prompt (o buscarlo entre nuestras notas, copiar y pegarlo).
Es perfectamente válido para tareas puntuales, pero poco eficiente si vamos a repetirlo con frecuencia.
El GPT o Gem: el prompt reutilizable
Si ese análisis de resoluciones de la AEPD es algo que queremos hacer con cierta regularidad, tiene sentido no tener que reescribir las instrucciones cada vez. Para eso están los GPTs personalizados de ChatGPT o los Gems de Gemini.
¿Qué son en realidad? Exactamente el mismo prompt de antes, pero almacenado y con nombre propio. En vez de escribir las instrucciones de nuevo, simplemente abrimos nuestro "GPT Analizador AEPD" y le subimos la resolución. Las instrucciones ya están ahí, esperando.
Es como la diferencia entre tener que dictar la receta cada vez que cocinas y tenerla pegada en la nevera. El contenido es idéntico; lo que cambia es la comodidad de acceso.
Además, podemos añadir opciones adicionales como una imagen de perfil, una descripción o incluso conocimientos complementarios en forma de archivos adjuntos.
Pero la esencia sigue siendo la misma: un prompt guardado para no repetirlo.
El Proyecto: prompt con memoria y contexto exclusivo
Ahora bien, imaginemos que no solo queremos analizar resoluciones sueltas de la AEPD, sino que estamos trabajando en un expediente concreto donde se acumulan varias resoluciones, informes, escritos de alegaciones y documentación complementaria.
En ese caso, necesitamos algo más que un prompt reutilizable. Necesitamos un espacio de trabajo aislado donde las instrucciones, los documentos y el historial de conversaciones estén vinculados a ese asunto específico y no se mezclen con otros temas.
Eso es un Proyecto, tanto en ChatGPT como en Claude. Un proyecto tiene sus propias instrucciones (que podrían ser nuestro prompt), sus propios archivos de referencia y su propia memoria conversacional (a diferencia de un GPT). Lo que discutimos sobre un expediente de videovigilancia no contamina lo que analizamos sobre una brecha de seguridad en otro proyecto diferente.
Es decir, si el GPT o Gem es la receta pegada en la nevera, el Proyecto es el cuaderno de cocina completo dedicado a un tipo de plato, con notas al margen, variantes probadas y fotos del resultado.
La Habilidad/Skill: el prompt que se activa solo
Llegamos al nivel más automatizado. Una habilidad (o Skill, como las denomina Anthropic en Claude) es un conjunto de instrucciones que el modelo carga automáticamente cuando detecta que son relevantes para la tarea, sin que el usuario tenga que invocarlas ni seleccionarlas.
Volviendo a nuestro ejemplo: si configuramos una habilidad para el análisis de resoluciones de la AEPD, bastaría con adjuntar una resolución en PDF al chat y, sin escribir una sola línea de instrucciones, Claude detectaría que debe aplicar esa habilidad y generaría el análisis con el formato y la estructura que hemos predefinido.
La diferencia clave es el momento de activación: en un GPT o Gem el usuario elige activamente qué asistente usar; en un Proyecto el usuario trabaja dentro de un espacio predefinido; pero con una Habilidad, el modelo decide por sí mismo cuándo aplicar las instrucciones en función de lo que recibe.
Anthropic presentó las Agent Skills en octubre de 2025 y las describió de forma bastante gráfica: son como el material de incorporación (u onboarding) que le darías a un nuevo empleado para que sepa cómo hacer tareas específicas sin necesidad de supervisarle paso a paso.
Técnicamente, una habilidad es una carpeta con un archivo de instrucciones en Markdown (el llamado SKILL.md), scripts opcionales y recursos complementarios. Claude (ahora también ChatGPT) lee únicamente la descripción breve de cada habilidad disponible y solo carga las instrucciones completas cuando determina que son pertinentes. Eso las hace muy eficientes en términos de contexto.
El Plugin: habilidades con esteroides
Un paso más allá encontramos los plugins, un concepto que Claude Code (la herramienta de línea de comandos de Anthropic) introdujo a finales de 2025. Si una habilidad enseña al modelo cómo hacer algo, un plugin empaqueta una o varias habilidades junto con agentes especializados, comandos y conexiones a servicios externos en un formato instalable y compartible.
Pensemos en ello como la diferencia entre un manual de instrucciones (la habilidad) y una caja de herramientas completa (el plugin) que incluye el manual, las herramientas y las piezas necesarias para ejecutar el trabajo. Anthropic dispone ya de un marketplace oficial de plugins, y la comunidad está creando los suyos propios.
Lo que ha generado esta semana una caída en bolsa de mucha empresas dedicadas a consultoría, legal y software es que Anthropic lanzó 11 plugins para Claude CoWork (la versión para tareas no técnicas de Claude Code) para automatizar múltiples tareas legales.
En definitiva, si juntamos las cuatro capas, lo que tenemos es lo siguiente:
| Concepto | Qué es | Cuándo usarlo |
|---|---|---|
| Prompt | Instrucción directa y puntual | Tareas únicas o esporádicas |
| GPT / Gem | Prompt guardado con nombre | Tareas repetitivas en cualquier contexto |
| Proyecto | Prompt + documentos + memoria aislada | Asuntos o expedientes concretos |
| Habilidad | Prompt que se activa automáticamente | Tareas frecuentes que deben aplicarse siempre |
La instrucción base puede ser exactamente la misma. Lo que cambia es cómo y cuándo se despliega.
Y esto es lo verdaderamente relevante para quien trabaja en Derecho: no se trata solo de saber redactar un buen prompt, sino de entender en qué formato implementarlo según nuestras necesidades.
Un abogado que domina un buen prompt pero lo reescribe cada vez está perdiendo tiempo. Uno que lo guarda como GPT pero lo usa para un expediente complejo sin aislamiento de contexto puede obtener respuestas contaminadas por conversaciones anteriores. Y uno que podría automatizar una tarea recurrente mediante una habilidad pero no lo sabe, está dejando eficiencia sobre la mesa.
La clave no está en la instrucción, sino en saber dónde colocarla 🤖
Jorge Morell Ramos
Dicho esto, ahí va la actualidad del 12 al 18 de enero de 2026 en IA y Derecho (publicaré todas las semanas pendientes, las tengo recopiladas).
126 noticias sobre regulación, tribunales, propiedad intelectual e industrial, protección de datos, Legaltech y otras.