Cualquiera que haya navegado por las redes sociales sabe que la IA está en todas partes. Pero no siempre somos buenos para detectarlo cuando lo vemos. Este es un gran problema y nuestra frustración con la IA está aumentando.
AI desaseo infectó todas las plataformas desde Imágenes sin alma a vídeos extraños y texto superficialmente alfabetizado. La gran mayoría de los adultos estadounidenses que utilizan las redes sociales (94%) creen que encuentran contenido creado o alterado por IA, pero solo el 44% de los adultos estadounidenses dicen estar seguros de poder distinguir fotos y videos reales de los generados por IA, según una investigación exclusiva de CNET.
Leer más: AI Slop está destruyendo Internet. Estas personas están luchando para salvarte..
Hay muchas formas diferentes en que las personas pueden luchar contra el contenido de IA. Algunas soluciones se centran en mejores etiquetas para el contenido creado por IA, ya que es más difícil que nunca confiar en nuestros ojos. De los 2.443 encuestados que utilizan las redes sociales, la mitad (51%) cree que necesitamos mejores etiquetas de IA en línea. Otros (21%) creen que debería haber una prohibición total del contenido generado por IA en las redes sociales. Sólo un pequeño grupo (11%) de los encuestados dice que el contenido de IA le resulta útil, informativo o entretenido.
La IA no va a ninguna parte y está remodelando fundamentalmente Internet y nuestra relación con ella. Nuestra investigación muestra que todavía tenemos un largo camino por recorrer para abordar esto.
Hallazgos clave
- La mayoría de los adultos estadounidenses que usan las redes sociales (94%) creen que encuentran contenido de IA en las redes sociales, pero muchos menos (44%) pueden distinguir con confianza entre imágenes y videos reales y falsos.
- Muchos adultos estadounidenses (72%) dicen que toman medidas para determinar si una imagen o un video es real, pero algunos no hacen nada, especialmente entre los Boomers (36%) y la Generación X (29%).
- La mitad de los adultos estadounidenses (51%) cree que el contenido editado y generado por IA necesita un mejor etiquetado.
- Uno de cada cinco (21%) cree que el contenido de IA debería prohibirse en las redes sociales, sin excepciones.
Mira esto: La IA es indistinguible de la realidad. ¿Cómo identificamos vídeos falsos?
Los adultos estadounidenses no sienten que puedan identificar los medios de IA
Ver ya no es creer en la era de la IA. Herramientas como OpenAI sora generador de videos y google nanoplátano El modelo de imagen puede crear medios hiperrealistas, con chatbots que ensamblan sin problemas fragmentos de texto que parecen haber sido escritos por una persona real.
Por lo tanto, es comprensible que una cuarta parte (25%) de los adultos estadounidenses digan que no confían en su capacidad para distinguir imágenes y videos reales de los generados por la IA. Las generaciones mayores, incluidos los Boomers (40%) y la Generación X (28%), son las que menos confianza tienen. Si las personas no tienen mucho conocimiento o no están expuestas a la IA, probablemente se sentirán inseguras acerca de su capacidad para detectarla con precisión.
Las personas toman medidas para verificar el contenido de diferentes maneras.
La capacidad de la IA para imitar la vida real hace que sea aún más importante comprobar lo que vemos en línea. Casi tres de cada cuatro adultos estadounidenses (72%) dijeron que toman algún tipo de acción para determinar si una imagen o un video es real cuando despiertan sus sospechas, siendo la Generación Z el grupo de edad con mayor probabilidad (84%) de hacerlo. El método más obvio (y popular) es inspeccionar de cerca imágenes y videos en busca de pistas o artefactos visuales. Más de la mitad de los adultos estadounidenses (60%) hacen esto.
Pero la innovación en IA es un arma de doble filo; Los modelos mejoraron rápidamente, eliminando los errores anteriores en los que confiábamos para detectar contenido generado por IA. El tablero nunca ha sido una señal confiable de IA, pero los dedos adicionales en las imágenes y los errores de continuidad en los videos alguna vez fueron señales de advertencia prominentes. Los modelos de IA más nuevos generalmente no cometen estos errores comunes. Así que todos tenemos que trabajar un poco más para determinar qué es real y qué es falso.
Puede buscar discrepancias y etiquetas para identificar el contenido de IA.
A medida que los indicadores visuales de IA desaparecen, otras formas de verificación de contenido son cada vez más importantes. Los siguientes dos métodos más comunes son comprobar etiquetas o divulgaciones (30%) y buscar el contenido en otros lugares en línea (25%), como en sitios de noticias o mediante búsquedas inversas de imágenes. Sólo el 5% de los encuestados informó utilizar un profundo herramienta de detección o sitio web.
Pero el 25% de los adultos estadounidenses no hace nada para determinar si el contenido que ven en línea es real. Esta falta de acción es mayor entre los Boomers (36%) y la Generación X (29%). Esto es preocupante: ya hemos visto que la IA es una herramienta eficaz para abuso y fraude. Comprender los orígenes de una publicación o contenido es un primer paso importante para navegar por Internet, donde cualquier cosa puede ser falsificada.
La mitad de los adultos estadounidenses quieren mejores etiquetas de IA
Mucha gente está trabajando en soluciones para hacer frente al ataque de la IA. El etiquetado es un área importante de oportunidades. El etiquetado depende de que los usuarios de las redes sociales hagan correr la voz de que su publicación se realizó con la ayuda de la IA. Esto también se puede hacer entre bastidores a través de plataformas de redes sociales, pero es algo difícil, lo que conduce a resultados aleatorios. Probablemente esta sea la razón por la que el 51% de los adultos estadounidenses cree que necesitamos un mejor etiquetado del contenido de IA, incluidos los deepfakes. El apoyo fue más fuerte entre los Millennials y la Generación Z, con un 56% y un 55%, respectivamente.
Muy pocos (11%) encontraron que el contenido de IA era útil, informativo o entretenido.
Otras soluciones apuntan a controlar la avalancha de contenido de IA compartido en las redes sociales. Todas las plataformas principales permiten contenido generado por IA siempre que no viole sus pautas generales de contenido (nada ilegal o abusivo, por ejemplo). Pero algunas plataformas han introducido herramientas para limitar la cantidad de contenido generado por IA que ves en tus feeds; Pinterest lanzado tus filtros el año pasado, mientras que TikTok todavía es pruebas algunos propios. La idea es darle a cada persona la posibilidad de permitir o excluir contenido generado por IA de sus feeds.
Pero el 21% de los encuestados cree que el contenido de IA debería prohibirse por completo en las redes sociales, sin excepciones. Este número es mayor entre la Generación Z, con un 25%. Cuando se les preguntó si creían que el contenido de IA debería permitirse pero regularse estrictamente, el 36% dijo que sí. Estos bajos porcentajes se pueden explicar porque sólo el 11% considera que el contenido de IA aporta un valor significativo –que sea entretenido, informativo o útil– y que el 28% dice que aporta poco o ningún valor.
Cómo limitar el contenido de IA y detectar posibles deepfakes
Su mejor defensa contra ser engañado por la IA es tener vista de águila y confiar en su instinto. Si algo es demasiado extraño, demasiado brillante o demasiado bueno para ser verdad, probablemente lo sea. Pero hay otros pasos que puedes seguir, como usar una herramienta de detección de deepfakes. Hay muchas opciones; Recomiendo comenzar con el Iniciativa de autenticidad de contenidoherramienta, ya que funciona con varios tipos de archivos diferentes.
También puede consultar la cuenta que compartió la publicación para detectar señales de alerta. Los residuos de IA suelen ser compartidos por productores masivos de residuos, y podrás verlo fácilmente en tus feeds. Estarán llenos de vídeos extraños que parecen no tener continuidad ni similitud entre ellos. También puedes comprobar si alguien que conoces te sigue o si esa cuenta no sigue a nadie más (eso es una señal de alerta). Las publicaciones spam o los enlaces fraudulentos también son indicios de que la cuenta no es legítima.
Si desea limitar el contenido de IA que ve en sus redes sociales, consulte nuestras guías para apagar o silenciar Meta IA en Instagram y Facebook y filtrado Publicaciones de IA en Pinterest. Si encuentras algo basura, puedes marcar la publicación como algo que no te interesa, lo que debería indicarle al algoritmo que no quieres ver más cosas similares. Fuera de las redes sociales, puedes desactivar Inteligencia de Applela IA en Píxel y Galaxia teléfonos y Géminis en Búsqueda de Google, Gmail y Documentos.
Incluso si haces todo esto y ocasionalmente te dejas engañar por la IA, no te sientas tan mal por ello. Hay mucho que podemos hacer como individuos para combatir la creciente ola de desperdicio de IA. Es probable que todos cometamos errores alguna vez. Hasta que tengamos un sistema universal para detectar eficazmente la IA, tenemos que confiar en las herramientas que tenemos y en nuestra capacidad para educarnos unos a otros sobre lo que podemos hacer ahora.
Metodología
CNET contrató a YouGov Plc para realizar la encuesta. Todas las cifras, a menos que se indique lo contrario, proceden de YouGov Plc. El tamaño total de la muestra fue de 2.530 adultos, de los cuales 2.443 utilizan las redes sociales. El trabajo de campo se realizó del 3 al 5 de febrero de 2026. La encuesta se realizó en línea. Las cifras han sido ponderadas y son representativas de todos los adultos estadounidenses (mayores de 18 años).















