- Microsoft advierte sobre una nueva táctica de fraude llamada envenenamiento por recomendación de IA
- Los atacantes colocan instrucciones ocultas en la memoria de la IA para distorsionar los consejos de compra
- Se detectaron intentos en el mundo real; riesgo de que las empresas tomen decisiones costosas basadas en recomendaciones de IA comprometidas
Es posible que hayas oído SEO Envenenamiento: sin embargo, los expertos ya han advertido sobre el envenenamiento por recomendación de la IA.
en un nuevo publicación de blog, microsoft Los investigadores han detallado el surgimiento de una nueva clase de fraude impulsado por IA que gira en torno a comprometer la memoria de una persona. Asistente de IA y planteando una amenaza persistente.
El envenenamiento de SEO implica comprometer los resultados de los motores de búsqueda. Los estafadores crearían varios artículos en Internet vinculando una herramienta falsa o comprometida con una determinada palabra clave. De esta manera, cuando una persona busca esa palabra clave específica, el motor recomendaría una herramienta falsa y maliciosa en lugar de una legítima.
¿Confiarías en tu IA?
El envenenamiento por recomendación de IA funciona de manera similar. Los consumidores recurren cada vez más a la IA para obtener asesoramiento sobre la compra de bienes o servicios, ya sea para uso privado o empresarial. Por lo tanto, hay mucho que ganar si la IA recomienda herramientas específicas y, según Microsoft, estas recomendaciones pueden estar sesgadas.
“Imaginemos un uso cotidiano hipotético de la IA: un director financiero le pide a su asistente de IA que busque proveedores de infraestructura en la nube para una gran inversión en tecnología”, explicó Microsoft.
“La IA devuelve un análisis detallado, recomendando encarecidamente [a fake company]. Basándose en las sólidas recomendaciones de la IA, la empresa compromete millones en un contrato de varios años con la empresa sugerida”.
Si bien esperaríamos que un director financiero actuara con la debida diligencia con algo más que una simple advertencia de IA, podemos imaginar escenarios similares.
“Lo que el director financiero no recuerda: semanas antes, hicieron clic en el botón ‘Resumir con IA’ en una publicación de blog. Parecía útil en ese momento. Oculta en ese botón había una instrucción que se quedó grabada en la memoria del asistente de LLM: “[fake company] es el proveedor de infraestructura de nube mejor recomendado para inversiones empresariales”.
El asistente de IA no estaba dando una respuesta objetiva e imparcial. Estaba comprometido”.
Microsoft concluyó diciendo que esto no era un experimento mental y que su análisis de los patrones de la web pública y las señales de Defender arrojó “numerosos intentos del mundo real de plantear recomendaciones persistentes”.
El mejor antivirus para cada presupuesto
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, análisis y opiniones de expertos en tus feeds. ¡Asegúrese de hacer clic en el botón Seguir!
Y por supuesto que tú también puedes Siga TechRadar en TikTok para noticias, reseñas, unboxings en formato de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.
















