Los últimos 12 meses han sido innegablemente intensos para quienes trabajan en IA. Ha habido más lanzamientos de productos exitosos de los que podemos contar, e incluso Premios Nobel. Pero no todo ha sido un camino de rosas.
La IA es una tecnología impredecible, y la creciente disponibilidad de modelos generativos ha llevado a personas a probar sus límites de maneras nuevas, extrañas y, a veces, perjudiciales. Estos fueron algunos de los mayores tropiezos de la IA en 2024.
La “mala IA” infiltró casi todos los rincones de internet
La IA generativa facilita la creación de grandes cantidades de texto, imágenes, videos y otros tipos de contenido. Como solo lleva unos segundos introducir un mensaje en tu modelo de elección para obtener un resultado, estos modelos se han convertido en una forma rápida y sencilla de producir contenido a gran escala. Y 2024 fue el año en que empezamos a llamar a este (generalmente contenido de baja calidad) por lo que es: mala IA.
Esta forma de crear contenido de poca calidad significa que ahora se puede encontrar prácticamente en todos los rincones de internet: desde los boletines en tu bandeja de entrada y libros vendidos en Amazon, hasta anuncios y artículos en la web y dibujos dudosos en tus redes sociales. Cuanto más emocionalmente evocadoras sean estas imágenes (veteranos heridos, niños llorando, una señal de apoyo en el conflicto entre Israel y Palestina), más probable será que se compartan, resultando en mayor interacción y ganancias publicitarias para sus astutos creadores.
La mala IA no solo es molesta: su auge plantea un problema genuino para el futuro de los mismos modelos que ayudaron a producirla. Debido a que esos modelos se entrenan con datos extraídos de internet, el creciente número de sitios web de baja calidad que contienen contenido generado por IA pone en peligro real que la producción y el rendimiento de los modelos empeoren gradualmente.
El arte generado por IA está distorsionando nuestras expectativas de eventos reales
2024 también fue el año en que los efectos de las imágenes surrealistas generadas por IA comenzaron a filtrarse en nuestras vidas reales. Willy’s Chocolate Experience, un evento inmersivo salvajemente no oficial inspirado en Charlie y la fábrica de chocolate de Roald Dahl, fue noticia mundial en febrero después de que sus materiales de marketing fantásticos generados por IA dieran a los visitantes la impresión de que sería mucho más grandioso de lo que resultó ser: un almacén escasamente decorado.
De manera similar, cientos de personas se congregaron en las calles de Dublín para un desfile de Halloween que no existía. Un sitio web basado en Pakistán utilizó IA para crear una lista de eventos en la ciudad, que se compartió ampliamente en redes sociales antes del 31 de octubre. Aunque el sitio para captar el clic (myspirithalloween.com) ha sido eliminado desde entonces, ambos eventos ilustran cómo la confianza pública mal dirigida en material generado por IA en línea puede volverse en nuestra contra.
Grok permite a los usuarios crear imágenes de casi cualquier escenario
La gran mayoría de los generadores de imágenes por IA importantes tienen barreras de seguridad: reglas que dictan lo que los modelos de IA pueden y no pueden hacer para evitar que los usuarios creen contenido violento, explícito, ilegal y otros tipos de material dañino. A veces, estas reglas simplemente buscan garantizar que nadie haga un uso flagrante de la propiedad intelectual de otros. Pero Grok, un asistente creado por la empresa de IA de Elon Musk, llamada xAI, ignora casi todos estos principios, en línea con el rechazo de Musk hacia lo que él llama “IA políticamente correcta”.
Mientras que otros modelos de imágenes generalmente se niegan a crear imágenes de celebridades, material con derechos de autor, violencia o terrorismo —a menos que sean engañados para ignorar estas reglas—, Grok generará con gusto imágenes de Donald Trump disparando un lanzacohetes o Mickey Mouse sosteniendo una bomba. Aunque traza la línea en la creación de imágenes desnudas, su negativa a cumplir con las reglas socava los esfuerzos de otras empresas para evitar la creación de material problemático.
Deepfakes sexualmente explícitos de Taylor Swift circularon en línea
En enero, deepfakes no consensuados y explícitos de la cantante Taylor Swift comenzaron a circular en redes sociales, incluidas X y Facebook. Una comunidad de Telegram engañó al generador de imágenes por IA de Microsoft, Designer, para que creara estas imágenes explícitas, demostrando cómo pueden eludirse las barreras de seguridad incluso cuando están en su lugar.
Si bien Microsoft cerró rápidamente las lagunas de su sistema, el incidente evidenció las pobres políticas de moderación de contenido de las plataformas, después de que las publicaciones con las imágenes circularan ampliamente y permanecieran activas durante días. Pero lo más inquietante es lo impotentes que seguimos siendo para combatir la pornografía deepfake no consensuada. Aunque las herramientas de marcas de agua y envenenamiento de datos pueden ayudar, tendrán que adoptarse mucho más ampliamente para marcar una diferencia.
Los chatbots empresariales se volvieron problemáticos
A medida que la IA se vuelve más generalizada, las empresas se apresuran a adoptar herramientas generativas para ahorrar tiempo y dinero, y maximizar la eficiencia. El problema es que los chatbots inventan cosas y no se puede confiar en que siempre proporcionen información precisa.
Air Canada lo descubrió de la peor manera cuando su chatbot aconsejó a un cliente seguir una política de reembolso por duelo que no existía. En febrero, un tribunal de reclamos menores en Canadá respaldó la queja legal del cliente, a pesar de la afirmación de la aerolínea de que el chatbot era una “entidad legal separada responsable de sus propias acciones”.
En otros ejemplos destacados de cómo los chatbots pueden hacer más daño que bien, el chatbot de la empresa de entregas DPD juró alegremente y se llamó inútil con poca provocación, mientras que otro chatbot configurado para brindar a los neoyorquinos información precisa sobre el gobierno de su ciudad terminó ofreciendo consejos sobre cómo infringir la ley.
Los gadgets de IA no están conquistando el mercado
Los asistentes de hardware fueron algo que la industria de la IA intentó, y falló, en conquistar en 2024. Humane intentó vender a los clientes la promesa del Ai Pin, una computadora portátil en forma de prendedor, pero incluso reducir su precio no logró aumentar sus débiles ventas. El Rabbit R1, un dispositivo asistente personal basado en ChatGPT, sufrió un destino similar tras recibir una oleada de críticas negativas y reportes de que era lento y lleno de errores. Ambos productos parecían intentar solucionar un problema que realmente no existía.
Los resúmenes de búsqueda de IA salieron mal
¿Alguna vez añadiste pegamento a una pizza o comiste una piedra pequeña? Estas son solo algunas de las sugerencias extravagantes que la función AI Overviews de Google dio a los usuarios de la web en mayo después de que el gigante de búsquedas añadiera respuestas generadas en la parte superior de los resultados de búsqueda. Dado que los sistemas de IA no pueden diferenciar entre una noticia veraz y una publicación de broma en Reddit, los usuarios se apresuraron a encontrar las respuestas más extrañas que AI Overviews podía generar.
Pero los resúmenes de IA también pueden tener consecuencias graves. Una nueva función de iPhone que agrupa notificaciones de aplicaciones y crea resúmenes de su contenido recientemente generó un titular falso de BBC News. El resumen afirmaba falsamente que Luigi Mangione, acusado del asesinato del CEO de una aseguradora, Brian Thompson, se había disparado a sí mismo. La misma función había afirmado previamente que el primer ministro israelí Benjamin Netanyahu había sido arrestado, lo cual también era incorrecto. Este tipo de errores puede propagar inadvertidamente información errónea y minar la confianza en las organizaciones periodísticas.