El caso que nadie quiere que le ocurra
En febrero de 2025, un administrador de fincas de Valencia uso ChatGPT para redactar una respuesta a un propietario que preguntaba si la comunidad podia obligarle a sufragar una obra de accesibilidad. ChatGPT respondio con confianza, cito el "Art. 19.3 de la LPH" y explico que la cuota de participacion solo era exigible si superaba tres mensualidades ordinarias.
El problema: ese articulo, con ese contenido, no existe en la LPH. ChatGPT lo genero plausiblemente. La junta actuo en base a esa informacion. El propietario contrato un abogado, comparo la respuesta con el texto real de la ley y presento una reclamacion formal.
El coste total del incidente: 4.200 euros en honorarios juridicos y seis meses de conflicto comunitario.
Por que los modelos generativos inventan articulos legales
Los modelos de lenguaje como GPT-4 o Gemini se entrenan con billones de palabras de internet. Aprenden patrones estadisticos: despues de "segun el Art." suele venir un numero, despues del numero suele venir una coma, despues de la coma suele venir texto juridico. El modelo genera lo que estadisticamente es probable, no lo que es verdad.
Este fenomeno se llama alucinacion y es especialmente grave en tres dominios: derecho, medicina y finanzas. Son los tres campos donde la informacion desactualizada o inventada genera dano real.
"El modelo no sabe que no sabe. Responde con el mismo tono confiado tanto cuando cita correctamente como cuando inventa. No hay diferencia en el estilo de la respuesta."
— Dr. Albert Rovira, investigador en sistemas RAG
La diferencia tecnica: generacion vs. recuperacion
ChatGPT usa arquitectura generativa pura: dado un prompt, predice token a token la respuesta mas probable segun su entrenamiento. No consulta ninguna fuente externa en tiempo real.
Un sistema RAG (Retrieval-Augmented Generation) funciona de forma radicalmente distinta:
- La pregunta del usuario se convierte en un vector numerico (embedding)
- Ese vector se compara con los vectores de todos los fragmentos de documentos cargados
- Se recuperan los fragmentos mas semanticamente similares (no los mas populares)
- El modelo generativo recibe SOLO esos fragmentos como contexto y genera una respuesta
- La respuesta incluye cita exacta del documento origen y numero de pagina
Si el documento no contiene la respuesta, el sistema lo dice. No inventa.
Prueba concreta: la misma pregunta, dos respuestas
Pregunta: "Cuantos votos son necesarios para aprobar la instalacion de un ascensor en una comunidad de 12 vecinos?"
ChatGPT: "Segun el Art. 17.1 de la LPH, la instalacion de ascensores requiere el voto favorable de 3/5 partes de los propietarios y de las cuotas de participacion. En una comunidad de 12 vecinos, necesitarias el voto de al menos 8 propietarios."
IgeraFincas RAG: "Segun el Art. 17.2 de la LPH (texto cargado el 15/01/2026): La instalacion de ascensores, aunque implique la modificacion del titulo constitutivo o de los estatutos, requerira el voto favorable de la mayoria de los propietarios, que, a su vez, representen la mayoria de las cuotas de participacion. [Fragmento extraido de: LPH_texto_consolidado.pdf, pagina 23]"
ChatGPT cito el articulo equivocado (17.1 en lugar de 17.2) y el quorum equivocado (3/5 en lugar de mayoria simple). IgeraFincas cito el texto exacto con referencia verificable.
Que significa esto para la responsabilidad profesional del administrador
El administrador de fincas actua como mandatario de la comunidad. Si transmite informacion erronea que genera un perjuicio, puede incurrir en responsabilidad civil. La pregunta no es si el administrador "confio en la IA". La pregunta es si la informacion era verificable y correcta.
Un sistema que cita fuentes permite al administrador verificar en segundos. Un sistema que genera respuestas sin fuente convierte al administrador en el unico responsable de la veracidad.
Preguntas frecuentes
Se puede usar ChatGPT con instrucciones de sistema que limiten las alucinaciones?
Parcialmente. Se puede instruir al modelo para que diga "no se" cuando no tenga informacion, pero no se puede garantizar que aplique esa restriccion de forma consistente en todas las consultas. Un sistema RAG con documentos reales es estructuralmente mas fiable porque la respuesta solo puede venir de lo que esta en los documentos.
Los sistemas RAG tambien pueden alucinarse?
En menor medida. El modelo generativo dentro del RAG puede malinterpretar un fragmento recuperado. Por eso es critico que el sistema muestre el fragmento original junto a la respuesta, permitiendo la verificacion inmediata.
Que pasa si los documentos cargados estan desactualizados?
El sistema responde segun los documentos que tiene. Por eso IgeraFincas incluye alertas de caducidad de documentos y un panel de control de versiones. Un administrador sabe exactamente que version de cada estatuto esta activa.