
¿Cómo definirías un agente de IA?
Un agente de IA es mucho más que una simple herramienta: es un sistema capaz de ejecutar tareas complejas de forma autónoma a partir de instrucciones simples. Cuenta con un «cerebro», normalmente un modelo de lenguaje de gran escala (LLM), que le otorga la capacidad de comprender y razonar. Este «cerebro» está conectado a herramientas externas, como el acceso a la web o a APIs, y suele estar equipado con memoria para recordar interacciones pasadas.
Por ejemplo, si se le pide obtener el clima de una ciudad determinada, no se limita a realizar una búsqueda estática: formula la consulta adecuada, selecciona la fuente pertinente y entrega la información de forma clara y estructurada. Puede compararse con un «becario incansable», capaz de analizar un documento de 200 páginas para extraer información clave, siempre que se le proporcionen instrucciones suficientemente claras.
¿Cuál es la diferencia entre una herramienta de IA y un agente de IA?
Las herramientas de IA tradicionales están diseñadas para tareas específicas, como la clasificación, el scoring o la extracción de datos. Están entrenadas con grandes volúmenes de información y su función suele ser estática. Los agentes de IA, en cambio, se basan en modelos de lenguaje más recientes y generalistas. Pueden interpretar instrucciones en lenguaje natural y coordinar múltiples acciones accediendo a diversas herramientas para ejecutar una tarea de forma autónoma.
Esto representa un cambio de paradigma: la IA deja de ser únicamente un sistema de análisis para convertirse en un agente de acción.
¿Cómo se utilizan los agentes en Continuity?
En Continuity, los agentes se emplean para automatizar tareas de alto valor añadido y brindar apoyo concreto a los equipos. Un caso de uso ya operativo es el tratamiento de correos electrónicos enviados por corredores de seguros.
Nuestro primer agente, llamado «Kevin», interviene en la fase de instrucción: lee el mensaje, extrae los datos relevantes, lanza los análisis internos (como la verificación de la dirección del bien asegurado) y propone una respuesta estructurada para el suscriptor. Su integración fue especialmente rápida, ya que opera por correo electrónico y no requirió desarrollos informáticos complejos.
Kevin ayuda a «completar la información necesaria» y a «formular respuestas estándar de forma automática». A medio plazo, aspiramos a construir “equipos de agentes”, cada uno con un rol definido (suscriptor, dirección técnica, etc.), que colaboren para reforzar la fiabilidad del análisis, actuando como un auténtico “comité de suscripción digital” para cada expediente.
¿En qué momento intervienen los agentes dentro del proceso de suscripción?
Los agentes intervienen principalmente para aliviar a los suscriptores de tareas repetitivas y agilizar el proceso. En las fases iniciales, pueden realizar un primer filtrado, identificar expedientes incompletos y detectar solicitudes no conformes para evitar análisis innecesarios.
Durante el análisis, extraen y estructuran la información útil siguiendo las guías de suscripción, señalando puntos clave o datos faltantes. En fases posteriores —una dimensión cada vez más estratégica— pueden ayudar en la revisión de carteras, detectar expedientes que requieren reevaluación o actualización, y asistir en la preparación de visitas de riesgo.
¿Qué beneficios concretos aportan a los suscriptores?
Los agentes permiten a los suscriptores centrarse plenamente en su experiencia técnica, liberándolos de tareas repetitivas como la recolección de datos o la verificación documental. Esto acelera la tramitación de expedientes y reduce omisiones. También permiten una primera evaluación ágil de los casos, identificando rápidamente su viabilidad y evitando la lectura innecesaria de múltiples anexos.
Un beneficio destacado es la posibilidad de definir reglas de análisis en lenguaje natural, lo que facilita configuraciones precisas sin necesidad de conocimientos técnicos, incluso en casos muy específicos, como detectar decretos de riesgo en una ciudad concreta. Esto permite a los suscriptores rechazar un expediente de forma rápida, ajustar propuestas o señalar con precisión los documentos faltantes.
¿Cuáles son los riesgos y límites identificados?
Existen varios riesgos a tener en cuenta. Uno de los principales son las llamadas alucinaciones: respuestas incorrectas o incoherentes generadas por el agente, difíciles de detectar o medir. Para mitigarlas, es esencial guiar al agente mediante un proceso estructurado y aportarle únicamente datos verificados. Además, si el agente dispone de memoria, podría aprender comportamientos no deseados o consolidar errores de forma involuntaria.
Otro punto crítico es la dependencia tecnológica de grandes proveedores (como OpenAI o Google), lo que plantea cuestiones sobre la soberanía de los datos, especialmente sensible en el sector asegurador. Por ello, mantenemos una supervisión humana constante, aplicamos mecanismos rigurosos de control de calidad y exploramos activamente alternativas soberanas mediante modelos autoalojados, completamente controlados por nosotros.
No creemos en la automatización total sin supervisión. En tareas que requieren unos 15 minutos de trabajo humano, un agente totalmente autónomo sería fiable en solo un 50% de los casos, lo que resulta inaceptable en procesos complejos o críticos.
¿Cuál es tu visión de los agentes de IA en los próximos 2 a 3 años?
En un plazo de dos a tres años, los agentes de IA estarán completamente integrados en los procesos de negocio. Podrán comunicarse entre ellos, ejecutar tareas específicas sin intervención humana en ciertos casos, y ser configurables directamente por expertos del sector, sin conocimientos técnicos.
Transformarán a los suscriptores en “super-suscriptores”: independientemente de su nivel de experiencia, cada profesional tendrá acceso inmediato a conocimientos especializados acumulados y embebidos en los agentes. La IA actuará como un multiplicador de competencias, permitiendo a los suscriptores centrarse en decisiones clave y optimizar su tiempo, sin perder de vista un principio fundamental: «la decisión final siempre corresponde al ser humano.»
¿Cómo gestionan la transparencia y la soberanía de los datos?
La transparencia es un pilar de nuestro enfoque: nuestras herramientas asisten a los suscriptores, pero nunca toman decisiones en su lugar. La responsabilidad permanece en manos del humano. En cuanto a la soberanía de los datos, es un tema estratégico para nosotros. Frente al dominio de actores estadounidenses o chinos, nuestra prioridad es conservar el conocimiento crítico y explorar activamente alternativas a los modelos alojados por terceros.
Nuestro objetivo a medio y largo plazo es poder autoalojar módulos clave, garantizando así la confidencialidad de los datos de nuestros clientes y reduciendo nuestra dependencia de proveedores dominantes.