El científico jefe de Anthropic sobre 5 maneras en que los agentes serán aún mejores en 2025

Los agentes son lo más candente en la tecnología en este momento. Las principales empresas, desde Google DeepMind hasta OpenAI y Anthropic, están compitiendo para mejorar los modelos de lenguaje grande con la capacidad de realizar tareas por sí mismos. Conocidos como IA agente en la jerga de la industria, estos sistemas se han convertido rápidamente en el nuevo objetivo del entusiasmo de Silicon Valley. Todos, desde Nvidia hasta Salesforce, están hablando sobre cómo van a transformar la industria. 

“Creemos que, en 2025, podríamos ver los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente los resultados de las empresas”, afirmó Sam Altman en una publicación en su blog la semana pasada.

En el sentido más amplio, un agente es un sistema de software que actúa por su cuenta para hacer algo, a menudo con una supervisión mínima o nula. Cuanto más complejo sea ese algo, más inteligente debe ser el agente. Para muchos, los modelos de lenguaje grande son ahora lo suficientemente inteligentes como para alimentar agentes que puedan realizar una gama completa de tareas útiles para nosotros, como completar formularios, buscar una receta y agregar los ingredientes a un carrito de compras en línea, o usar un motor de búsqueda para realizar investigaciones de última hora antes de una reunión y producir un resumen rápido en viñetas.

En octubre, Anthropic mostró uno de los agentes más avanzados hasta ahora: una extensión de su modelo de lenguaje largo Claude llamada uso de computadoras. Como su nombre lo sugiere, te permite dirigir a Claude para usar una computadora como lo haría una persona, moviendo un cursor, haciendo clic en botones y escribiendo texto. En lugar de simplemente tener una conversación con Claude, ahora puedes pedirle que realice tareas en pantalla para ti.

Anthropic señala que la función sigue siendo engorrosa y propensa a errores. Pero ya está disponible para un grupo selecto de evaluadores, incluidos desarrolladores externos de empresas como DoorDash, Canva y Asana.

El uso de computadoras es un vistazo de lo que está por venir para los agentes. Para aprender lo que se avecina, MIT Technology Review habló con Jared Kaplan, cofundador y científico jefe de Anthropic. Aquí hay cinco formas en que los agentes serán aún mejores en 2025.

(Las respuestas de Kaplan han sido editadas ligeramente para mayor concisión y claridad).

1/ Los agentes serán mejores usando herramientas

“Creo que hay dos ejes para pensar sobre lo que la IA es capaz de hacer. Uno es la complejidad de la tarea que un sistema puede realizar. Y a medida que los sistemas de IA son más inteligentes, están mejorando en esa dirección. Pero otro eje muy relevante es qué tipos de entornos o herramientas puede usar la IA. 

“Así que, si volvemos casi 10 años atrás al [modelo de juego de Go de DeepMind] AlphaGo, teníamos sistemas de IA que eran sobrehumanos en términos de lo bien que podían jugar juegos de mesa. Pero si todo lo que puedes manejar es un juego de mesa, entonces ese es un entorno muy restrictivo. No es realmente útil, incluso si es muy inteligente. Con modelos de texto, y luego modelos multimodales, y ahora el uso de computadoras—y tal vez en el futuro con robots—te estás moviendo hacia incorporar IA en diferentes situaciones y tareas, y haciéndola útil. 

“Nos entusiasmaba el uso de computadoras básicamente por esa razón. Hasta hace poco, con los modelos de lenguaje grande, era necesario darles un mensaje muy específico, proporcionarles herramientas muy específicas, y luego estaban restringidos a un tipo específico de entorno. Lo que veo es que el uso de computadoras probablemente mejorará rápidamente tanto en términos de las tareas que los modelos pueden realizar como en la complejidad de dichas tareas. También en darse cuenta de cuándo han cometido errores, o cuándo hay una pregunta de alto riesgo y necesitan pedir comentarios al usuario.”

2/ Los agentes entenderán el contexto 

“Claude necesita aprender lo suficiente sobre tu situación particular y las limitaciones bajo las que operas para ser útil. Cosas como el rol específico que tienes, los estilos de escritura o las necesidades tuyas y de tu organización.

ANTHROPIC
ANTHROPIC

“Creo que veremos mejoras allí, donde Claude podrá buscar cosas como tus documentos, tu Slack, etc., y realmente aprender lo que es útil para ti. Eso está un poco subestimado con los agentes. Es necesario que los sistemas sean no solo útiles sino también seguros, haciendo lo que esperabas.

“Otra cosa es que muchas tareas no requerirán que Claude haga mucho razonamiento. No necesitas sentarte y pensar durante horas antes de abrir Google Docs o algo similar. Y creo que mucho de lo que veremos no será solo más razonamiento, sino la aplicación de razonamiento cuando realmente sea útil e importante, pero también no perder tiempo cuando no sea necesario.”

3/ Los agentes mejorarán los asistentes de codificación

“Queríamos lanzar una beta muy inicial del uso de computadoras a los desarrolladores para obtener comentarios mientras el sistema todavía era relativamente primitivo. Pero a medida que estos sistemas mejoren, podrían usarse más ampliamente y realmente colaborar contigo en diferentes actividades.

“Creo que DoorDash, el Browser Company y Canva están experimentando con diferentes tipos de interacciones de navegador y diseñándolas con la ayuda de la IA.

“Mi expectativa es que también veremos más mejoras en los asistentes de codificación. Eso es algo que ha sido muy emocionante para los desarrolladores. Hay mucho interés en usar Claude 3.5 para codificación, donde no solo es autocompletar como hace un par de años. Realmente entiende qué está mal con el código, lo depura—ejecuta el código, ve qué ocurre y lo corrige.”

4/ Los agentes deberán ser seguros

“Fundamos Anthropic porque esperábamos que la IA progresara muy rápidamente y [pensamos] que, inevitablemente, las preocupaciones de seguridad iban a ser relevantes. Y creo que eso será más tangible este año, ya que estos agentes estarán cada vez más integrados en el trabajo que hacemos. Debemos estar listos para los desafíos, como la inyección de comandos.

[La inyección de comandos es un ataque en el cual se pasa una instrucción maliciosa a un modelo de lenguaje grande de formas que sus desarrolladores no previeron o no pretendían. Una manera de hacerlo es agregar el comando a sitios web que los modelos podrían visitar.]

“La inyección de comandos es probablemente una de las cosas No.1 en las que estamos pensando en términos del uso más amplio de agentes. Creo que es especialmente importante para el uso de computadoras, y es algo en lo que estamos trabajando muy activamente, porque si el uso de computadoras se implementa a gran escala, entonces podrían haber sitios web maliciosos o algo que intenten convencer a Claude de hacer cosas indebidas.

“Y con modelos más avanzados, hay simplemente más riesgos. Tenemos una política de escalamiento robusta donde, a medida que los sistemas de IA se vuelvan suficientemente capaces, sentimos que necesitamos realmente evitar que sean mal utilizados. Por ejemplo, si pudieran ayudar a terroristas: ese tipo de cosas.

“Así que estoy realmente emocionado por cómo la IA será útil—realmente nos está acelerando mucho internamente en Anthropic, con personas usando Claude de todas las maneras posibles, especialmente con codificación. Pero, sí, habrá muchos desafíos también. Será un año interesante.”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio