El mundo de la inteligencia artificial está lleno de conversaciones sobre los agentes de IA. Microsoft lanzó recientemente un conjunto de agentes autónomos que podrían ayudar a optimizar tareas de servicio al cliente, ventas y cadena de suministro. De manera similar, OpenAI presentó Swarm, un marco experimental para explorar una mejor coordinación entre sistemas multi-agente. Por su parte, Claude, el modelo de lenguaje grande (LLM) de Anthropic, está llevando la IA agentiva al siguiente nivel con la etapa beta de sus habilidades de uso de computadora, que incluyen mover un cursor por la pantalla, hacer clic en botones y escribir texto usando un teclado virtual.
Entonces, ¿qué son exactamente los agentes de IA?
“Los agentes de IA son sistemas avanzados de inteligencia artificial que son capaces de completar una tarea o tomar una decisión”, dice Adnan Ijaz, director de gestión de productos de Amazon Q Developer, un asistente de desarrollo de software impulsado por IA de Amazon Web Services (AWS). “Los humanos establecen el objetivo, y los agentes determinan de manera autónoma cuál es el mejor curso de acción”. Los agentes pueden interactuar con sistemas externos para tomar acciones en el mundo.
Además de esta autonomía, la IA agentiva también puede recibir retroalimentación y mejorar continuamente en una tarea, dice Yoon Kim, profesor asistente en el Laboratorio de Ciencia Computacional e Inteligencia Artificial del MIT.
Piensa en los agentes de IA como una versión más capaz de la IA generativa. Mientras que ambas tecnologías se basan en LLMs como su modelo subyacente, la IA generativa crea nuevo contenido basado en los patrones que aprendió de sus datos de entrenamiento. Los sistemas agentivos, por otro lado, no solo son capaces de generar contenido, sino también de tomar medidas basadas en la información que obtienen de su entorno.
“Todo esto es esencialmente un paso más allá que la IA generativa”, dice Ijaz.
Cómo funcionan los agentes de IA
Para cumplir una tarea en particular, los agentes de IA generalmente siguen un flujo de trabajo en tres partes. Primero, determinan el objetivo a través de un mensaje especificado por el usuario. Luego, averiguan cómo abordar ese objetivo, desglosándolo en subtareas más pequeñas y simples, y recopilando los datos necesarios. Finalmente, ejecutan las tareas utilizando lo que contienen en su base de conocimiento más los datos acumulados, utilizando cualquier función a la que puedan llamar o herramienta que tengan a su disposición.
Tomemos como ejemplo la reserva de vuelos, e imaginemos un mensaje que diga: “Reservar el vuelo más económico de A a B en la fecha Y”. Un agente de IA podría primero buscar en la web todos los vuelos de A a B en la fecha Y, escanear los resultados de búsqueda y seleccionar el vuelo más económico. Luego, el agente llama a una función que se conecta a la interfaz de programación de aplicaciones (API) de la plataforma de reservas de la aerolínea. El agente realiza la reserva del vuelo elegido, ingresando los detalles del usuario según la información almacenada en su base de conocimiento.
“El punto clave de la interacción agentiva es que el sistema puede comprender el objetivo que estás tratando de lograr y luego operar de manera autónoma”, dice Ijaz.
Sin embargo, los humanos siguen participando en el proceso, guiándolo e interviniendo cuando sea necesario. Por ejemplo, se podría instruir al agente de reservas de vuelo para que notifique al usuario si el vuelo más económico no tiene disponibilidad, permitiendo que el usuario decida el próximo paso.
“Si en algún momento los humanos piensan que el sistema no va en la dirección correcta, pueden anularlo; tienen el control”, agrega Ijaz.
Promesas y desafíos de la IA agentiva
Al igual que la IA generativa, la IA agentiva promete mayor eficiencia y productividad mejorada, con el agente realizando tareas mundanas que de otra manera serían tediosas o repetitivas para un humano promedio.
“Si estos sistemas se vuelven lo suficientemente confiables, podríamos tener agentes que organicen un calendario para ti o reserven restaurantes en tu nombre, actividades que de otro modo haría un asistente”, dice Kim.
La palabra clave aquí es confiables, con la privacidad de datos y la seguridad como desafíos principales para la IA agentiva.
“Los agentes están analizando un gran volumen de datos. Están razonando sobre estos, recopilándolos. Es importante que se implementen las salvaguardas adecuadas de privacidad y seguridad”, dice Ijaz.
Por ejemplo, investigadores de la Universidad de California en San Diego y de la Universidad Tecnológica de Nanyang en Singapur lograron engañar a agentes de IA para que usaran herramientas de forma inapropiada. Crearon un ataque de promps malicioso que analiza la sesión de chat del usuario, extrae información personal identificable y la formatea en un comando que filtra los datos hacia el servidor de un atacante. El ataque funcionó en el asistente conversacional Le Chat de Mistral AI, por lo que los investigadores informaron sobre la vulnerabilidad de seguridad a la empresa, lo que resultó en una corrección del producto.
La precisión factual es otro problema para los agentes de IA, ya que se basan en LLMs que tienen problemas con las alucinaciones, término técnico para referirse a cuando inventan información. Kim señala que, aunque no sería deseable que un agente de IA te dé información incorrecta sobre vuelos, tal error probablemente no sería desastroso.
“Eso no es una aplicación de alto riesgo como usar estos sistemas en entornos clínicos o financieros”, dice Kim, “donde la precisión o la falta de ella en los resultados o acciones podría tener consecuencias graves”.
La IA agentiva aún se encuentra en sus primeras etapas, y a medida que los agentes de IA evolucionen, es de esperar que hagan la vida de las personas más fácil y productiva. Pero se siguen recomendando precauciones debido a los riesgos que presentan.
“Es un avance importante, así que creo que toda la atención que está recibiendo está justificada”, dice Ijaz. “Los agentes son otra herramienta en el arsenal de los humanos, y los humanos les darán un buen uso siempre que construyamos esos agentes siguiendo prácticas responsables de IA”.