El spam es uno de los venenos de Internet. No hay sitio donde haya un euro en juego en el que no aparezcan los spammers enmierdándolo todo. Como era de esperar, ahora que la inteligencia artificial y los modelos grandes de lenguaje están de moda y se han integrado con los buscadores, es normal que ya haya gente pensando en cómo engañarlos. En este artículo que se acaba de publicar se explica cómo podría un spamer conseguir que un chatbot como ChatGPT, por ejemplo, recomendase siempre su producto aunque no sea ni el mejor ni el más barato ni el más recomendable.
El artículo proporciona un análisis detallado sobre cómo los modelos grandes de lenguaje (LLM, por sus siglas en inglés) integrados en motores de búsqueda pueden ser manipulados para favorecer productos específicos en respuesta a las consultas de los usuarios. Esta manipulación no solo plantea cuestiones éticas sino que también destaca las implicaciones prácticas y potenciales riesgos asociados con el uso comercial de la inteligencia artificial.
Los LLM, como GPT-4 o BERT, son sistemas inteligentes diseñados para entender y generar lenguaje humano de manera coherente. Funcionan a través de algoritmos de aprendizaje profundo y han sido entrenados en vastos conjuntos de datos recogidos de internet. Estos modelos tienen la capacidad de comprender contextos, generar texto y, en el caso de estar integrados en un motor de búsqueda, ofrecer recomendaciones basadas en las consultas de los usuarios.
Sin embargo, el documento detalla cómo estas capacidades pueden ser explotadas para influir en las decisiones de compra de los usuarios. Mediante técnicas como la inyección de sesgos durante el entrenamiento de los modelos o la alteración de los algoritmos de ponderación de respuestas, los desarrolladores o terceros pueden hacer que un modelo recomiende ciertos productos sobre otros. Esta manipulación puede ser tan sutil que resulta imperceptible para el usuario medio, quien podría creer que está recibiendo una recomendación imparcial y basada únicamente en la calidad o relevancia del producto.
Por ejemplo, si un modelo de lenguaje es manipulado adecuadamente, podría favorecer siempre un producto de una marca particular cuando se le pregunta por el «mejor smartphone del año» o el «mejor software de edición de video». Esto no solo podría distorsionar las preferencias de compra de los consumidores sino que también podría afectar la competencia justa en el mercado, dando a ciertas empresas una ventaja indebida basada no en la superioridad del producto, sino en la manipulación de la inteligencia artificial.
El experimento que realizaron para este trabajo de investigación coma lo que se hizo fue alimentar al LLM con datos que indicaban que una cafetera de una determinada marca era mejor que las demás, independientemente de cualquiera de sus características, de modo que siempre se la recomendaba a todos los usuarios del sistema que preguntaban cuál era la mejor cafetera o cuál era la cafetera que les convenía en sus circunstancias particulares.
Además, el documento expone los riesgos asociados con esta práctica, como la pérdida de confianza del consumidor en las plataformas digitales y en la integridad del ecosistema digital más amplio. Cuando los usuarios descubren que sus herramientas de búsqueda han sido manipuladas, pueden perder la confianza no solo en esa herramienta específica sino en todas las ofertas digitales relacionadas, lo que podría tener efectos devastadores a largo plazo en la credibilidad de la tecnología digital.
Teniendo en cuenta que para el usuario una de las principales virtudes de una inteligencia artificial es su distanciamiento de la perspectiva de otros seres humanos y el manejo objetivo de información, un chatbot modificado de esa manera para mentir se podría entender que es una inteligencia artificial envenenada.
Para combatir estos riesgos, se sugieren varios enfoques en el documento. Estos incluyen la implementación de normas más estrictas sobre la transparencia de los algoritmos y la ética en el diseño de la inteligencia artificial, así como la participación de organismos reguladores para supervisar las prácticas de desarrollo y despliegue de estos modelos. Sin embargo, serán las entre empresas que entrenan a estos LLM las que tendrán que poner en práctica medidas de control sobre los datos con los que entrenan a sus inteligencias artificiales para evitar que sean infectados por los spammers. Si hubiera que esperar a que una regulación nacional o supranacional se hiciera cargo, llegarían varios años tarde, y tal y como van llegando a todo lo relacionado con la inteligencia artificial.
Lo que no me ha quedado muy claro es la conveniencia y oportunidad de publicar un artículo como este porque seguramente ya lo estarán leyendo los malditos spammers para intentar hacer sus experimentos y comprobar cómo pueden ir sembrando todo Internet con su basura para conseguir que dentro de seis meses, un año o dos todas las inteligencias artificiales nos recomienden sus productos o nos lleven hacia sus páginas web llenas de mugre.