El plan del gobierno de utilizar inteligencia artificial para acelerar la planificación de nuevas viviendas puede estar a punto de toparse con un obstáculo inesperado: el nimbyismo impulsado por la IA.
Un nuevo servicio llamado Objetor ofrece “objeciones respaldadas por políticas en minutos” a las personas que están molestas por las solicitudes de planificación cerca de sus hogares.
Utiliza IA generativa para escanear las solicitudes de planificación y comprobar si hay motivos de objeción, clasificándolos como de impacto “alto”, “medio” o “bajo”. Luego crea automáticamente cartas de objeción, discursos escritos por IA para pronunciar ante los comités de planificación e incluso videos generados por IA para “influir en los concejales”.
Los residentes de Kent, Hannah y Paul George, diseñaron el sistema después de estimar que pasaron cientos de horas intentando navegar el proceso de planificación cuando se opusieron a los planes de convertir un edificio cerca de su casa en una mezquita.
Por £45 cada vez, ofrecen la herramienta a personas que, como ellos, no pueden permitirse el lujo de contratar a un abogado especialista para que les ayude a navegar por las laberínticas leyes de planificación. Dijeron que ayudaría a “todos a tener voz, nivelar el campo de juego y hacer que todo el proceso sea más justo”.
Es una empresa modesta pero no está sola. Un servicio similar, Planningobjection.com, está promocionando cartas de objeción generadas por IA por valor de 99 libras con el lema “deja de quejarte y actúa”.
Los activistas comunitarios también han alentó a sus seguidores a usar ChatGPT para redactar cartas de objeción en Facebook, afirmando que es como tener “un abogado de planificación a tu alcance”.
Un destacado abogado de planificación advirtió que tales IA podrían “sobrealimentar el nimbyismo” y, si se utilizaran ampliamente, podrían hacer que el sistema de planificación se “paralizara”, con los funcionarios de planificación potencialmente inundados de presentaciones.
Sebastian Charles dijo que su firma, Aardvark Planning Law, había visto objeciones generadas por IA a solicitudes de planificación que incluían referencias a casos anteriores y decisiones de apelación que, cuando fueron verificadas por un abogado humano, no existían.
“El peligro es que las decisiones se tomen sobre la base equivocada”, afirmó. “Los miembros electos que toman decisiones finales podrían creer fácilmente en los discursos de planificación generados por IA pronunciados por miembros del público, incluso si están llenos de jurisprudencia y regulaciones inventadas”.
Hannah George, cofundadora de Objetor, negó que la plataforma tratara de automatizar el nimbyismo.
“Se trata simplemente de hacer que el sistema de planificación sea justo”, dijo. “Por el momento, según nuestra experiencia, no lo es. Y con el gobierno en esta misión de ‘construir, bebé, construir’, vemos que eso sólo va en una dirección”.
Objetor ha dicho que si bien los errores creados por la IA son una preocupación, utiliza dos modelos de IA diferentes y verifica los resultados en un esfuerzo por reducir el riesgo de “alucinaciones”, un término utilizado para describir cuando las IA inventan cosas.
El sistema Objetor actual está diseñado para abordar pequeñas aplicaciones de planificación, por ejemplo, reutilizar un edificio de oficinas local o la ampliación de la casa de un vecino. Se está desarrollando la capacidad de desafiar aplicaciones mucho más grandes, como una urbanización en un cinturón verde, dijo George.
El gobierno laborista ha estado promoviendo la IA como una solución para eliminar los retrasos en la planificación. Recientemente lanzó una herramienta llamada Extractocuyo objetivo es acelerar los procesos de planificación y ayudar al gobierno a llevar a cabo su misión de construir 1,5 millones de viviendas nuevas.
Pero es posible que se esté desarrollando una “carrera armamentista” de IA, dijo John Myers, director de Yimby Alliance, una campaña que pide que se construyan más viviendas con el apoyo de las comunidades locales.
“Esto aumentará las objeciones a las solicitudes de planificación y llevará a que la gente encuentre razones oscuras [for opposing developments] que no habían encontrado antes”, afirmó.
Podría surgir una nueva dinámica “en la que un lado intente implementar IA para acelerar el proceso y el otro lado implemente IA para detenerlo”, dijo. “No veo el final de esto hasta que encontremos una manera de impulsar los desarrollos que la gente quiere”.
Es posible que el gobierno ya tenga un sistema de IA que podría responder a un aumento de las objeciones generadas por la IA. Ha lanzado una herramienta de inteligencia artificial llamada Consultarque analiza las respuestas a las consultas públicas.
Lo hizo con la expectativa de que “la adopción generalizada de grandes modelos de lenguaje [such as that used by Objector] probablemente sólo aumentará el número de respuestas que atraen las consultas”.
Paul Smith, director general de la consultora Strategic Land Group, informó este mes sobre el creciente uso de la IA por parte de las personas para oponerse a las aplicaciones de planificación.
“Las objeciones de AI socavan toda la lógica de la consulta pública”, escribió en la revista Building. “Se nos dice que las comunidades locales son las que mejor conocen sus áreas… Por lo tanto, deberíamos preguntarles qué piensan.
“Pero si lo único que hacen los residentes locales es decidir que no les gusta el plan antes de cargar los documentos de solicitud en una computadora para averiguar por qué no les gusta, ¿realmente tiene algún sentido preguntarles?”
















